Quantcast
Channel: Comentarios en: Alemania bate el récord de producción de energía solar: el 50% de la demanda eléctrica en un día
Viewing all 20117 articles
Browse latest View live

Realiza un análisis forense de tu PC con esta herramienta

$
0
0
Realiza un análisis forense de tu PC con esta herramienta

Te presentamos OSForensics, un programa que sirve para realizar exámenes forenses en un ordenador.

OSForensics es un software de análisis forense, me gustó mucho su versión gratuita ya que permite hacer una gran cantidad de cosas. Lo más interesante es que deja utilizar algoritmos hash para obtener “huellas digitales” de cada archivo que poseemos en la PC. De esta forma podemos comparar si un archivo fue borrado, modificado, o alterado de algún modo, podemos elegir entre varios tipos de algoritmos diferentes: MD5, SHA-1, SHA-256, etc.

Archivos que no son lo que parecen

Puede encontrar archivos cuyo contenido no coincida necesariamente con la extensión que poseen, lo cual es útil para detectar archivos que quizás alguien ocultó. También podemos visualizar metadatos de imágenes, sus valores hexadecimales y la información del archivo, por supuesto. Útil para encontrar cadenas de texto sospechosas.

osforensics

Si la PC utiliza clientes de correo como Outlook o Thunderbird, OS Forensics los buscará y podremos visualizar su contenido con un visor propio del programa.

Podemos examinar las claves del registro, así como también los datos RAW de un disco. Esto nos permite ver sector por sector las porciones de información que el rígido posee. Con respecto a Backups, se encuentra muy bien dotado ya que nos permite realizar imágenes de los distintos volúmenes y montarlas con posterioridad.

Contraseñas y Rainbow Tables

Me gustó mucho del programa, la posibilidad que tiene de recuperar todas las claves que se ponen en el navegador. Pueden ser de Facebook, Gmail, e incluso de otros servicios web. Hace algo muy similar con las contraseñas de inicio de sesión de Windows. Permite trabajar con Rainbow Tables, sumamente útiles para romper contraseñas. Se valen de hashes pre calculados para intentar decodificarlas cuándo y dónde lo necesitemos, y a veces una tabla puede llegar a ocupar varios Gigabytes. Tanto es así, que en la página de este producto se venden unidades de hasta 3 Terabytes de datos con tablas.

OSForensics Rainbow Tables

En lo que respecta a obtener información del sistema, no veremos nada que no hayamos visto en programas como CPU-Z, pero se añaden algunos datos extra como versión del sistema operativo.

No lograba darme cuenta porque tenía incorporado un visor de bases de datos sQlite, pero luego revisando la web de los desarrolladores, leí que algunos programas como Chrome o Firefox incluso plataformas como iPhone las usan. Me encanta que los desarrolladores, se hayan tomado el trabajo de poner en su página web vídeos con tutoriales de cómo usar las diversas herramientas. Uno puede descargar cualquiera de ellos en formato MP4, de manera gratuita.

Y el broche de oro se lo da la posibilidad de instalar dicho software en una memoria USB para usarlo cuando y donde lo necesitemos. Es sin duda una herramienta útil para tener a la mano. Uno nunca sabe.


El agua líquida de Marte no es como te la imaginas

$
0
0
El agua líquida de Marte no es como te la imaginas

La NASA descubre sales hidratadas en una zona de Marte conocida como Recurring Slope Lineae, que podrían originarse a partir de agua líquida.

La semana pasada, la NASA anunció la resolución de un gran misterio sobre Marte. La nota de prensa dejaba en el aire muchas incógnitas: ¿se habría detectado por fin agua líquida? ¿Se trataría del descubrimiento de organismos vivos sobre el planeta rojo?

La NASA ha encontrado sales hidratadas en Marte, que podrían originarse a partir de agua líquidaLa investigación, publicada hoy en Nature Geoscience, ha puesto fin al misterio. El grupo de Lujendra Ojha, del Georgia Institute of Technology, ha encontrado trazas de sales hidratadas en Marte en una zona denominada Recurring Slope Lineae (RSL). Esta región fue hallada inicialmente en 2011 por otro equipo diferente de científicos, que describió la zona como "manchas oscuras que aparecían a finales de primavera y desaparecían en otoño en el hemisferio sur". Su misteriosa apariencia daba pie a otra pregunta: ¿tendrían alguna relación con la existencia de agua líquida en Marte?

Al pensar en agua líquida sobre el planeta rojo, es posible que imaginemos ríos y mares fluyendo bajo la superficie. Sin embargo, la primera evidencia de agua líquida en Marte es bastante diferente a lo que podríamos pensar: se trata en realidad de sales hidratadas, es decir, que contienen moléculas de agua. Anteriormente ya se habían detectado in situ y de forma remota diferentes tipos de sales en Marte, tales como cloruros, sulfatos o percloratos. Sólo que esta vez las sales encontradas suponen una fuerte evidencia de la presencia de agua líquida en el planeta rojo.

El origen de las sales

Según los investigadores, estas sales pueden disminuir el punto de congelación del agua, reducir su tasa de evaporación y ser higroscópicas, es decir, podrían ser capaces de absorber la humedad atmosférica. En el caso de la zona conocida como Recurring Slope Lineae, las manchas oscuras pueden llegar a presentar una anchura de cinco metros y alcanzar temperaturas que se sitúan entre los -23,15ºC y los 0ºC.Aunque no se ha detectado agua líquida como tal, la NASA ha destacado la "fuerte evidencia" del hallazgo

Estas características, como apuntan los científicos en Nature Geoscience, sugieren que las sales podrían jugar algún papel en la disminución del punto de congelación del agua, permitiendo que fluyeran soluciones salobres. ¿Estaríamos entonces ante la primera evidencia de agua líquida en el Marte actual? Para confirmar esta hipótesis sobre el origen de Recurring Slope Lineae, los investigadores deberían detectar la absorción de agua líquida en su superficie, o bien encontrar sales hidratadas, que se formarían tras precipitarse a partir de estas corrientes de agua.

Para evaluar qué hipótesis era correcta, el equipo de Lujendra Ojha ha analizado la composición mineralógica de las manchas de RSL gracias a uno de los instrumentos del Mars Reconnaissance Orbiter. Los estudios realizados por el espectrómetro CRISM muestran que en la zona RSL habría sales hidratadas, ya que los resultados obtenidos no permiten determinar de forma directa -al menos de momento- la presencia de agua líquida.

Marte

Lujendra Ojha et al. (Nature Geoscience)

Los cambios en la hidratación de estos minerales implicarían también dos efectos. Por un lado, el estado de hidratación podría aumentar al mismo tiempo y en el mismo lugar en el que se forman las vetas RSL. La segunda hipótesis, según los investigadores, se basaría en que las sales hidratadas se depositan en las zonas RSL y posteriormente se desecan.El gran desafío ahora es conocer el posible origen de este agua líquida

¿Por qué no podemos entonces detectar agua líquida en esta región de Marte de manera directa? La respuesta estaría en la reducida humedad relativa que presentan estas regiones a la hora de las observaciones (3 pm), que minimiza la probabilidad de encontrar corrientes de agua salada. A pesar de este inconveniente, los científicos señalan que la presencia de sales hidratadas es una evidencia muy importante sobre la existencia de agua líquida en Marte.

El descubrimiento presentado hoy por la NASA pone fin a las especulaciones sobre la presencia de agua líquida en el planeta rojo, aunque no sea de la forma que podríamos haber imaginado. La comunidad científica afronta ahora otro desafío: descubrir el posible origen de este agua líquida. Esta podría proceder de la fusión de hielo -no encontrado aún- situado sobre o bajo la superficie marciana, o bien de la absorción de moléculas de agua de la atmósfera por parte de las sales. Los interrogantes siguen abiertos, mientras los investigadores tratan de conocer un poco mejor el planeta rojo.

Este es D-Wave 2x, el nuevo ordenador cuántico de la NASA y Google

$
0
0
Este es D-Wave 2x, el nuevo ordenador cuántico de la NASA y Google

El D-Wave 2x es la nueva computadora cuántica que empleará Google junto con la NASA para investigar los límites de la disciplina que podría revolucionar toda nuestra tecnología para siempre.

Cuando en 2013 Google abrió las puertas de su nuevo laboratorio de computación cuántica seguramente no pensaban que las cosas fueran a ir tan rápido. Es decir, seguro que lo deseaban, pero desde luego no se lo esperarían. Recientemente anunciaban una nueva adquisición: el D-Wave 2x. Este nuevo modelo es capaz de doblar el número de qubits con el que opera, convirtiéndolo en el ordenador cuántico más potente que existe en el mercado. Su desarrollo ha sido posible solo con la ayuda de la NASA y la Asociación Universitaria de Investigación Espacial. Y es que el D-Wave 2x pretende cumplir con muchos objetivos científicos. ¿Su finalidad? Convertir la computación cuántica en una realidad asequible, viable y práctica. Eso sí, la inevitable pregunta que surge después es: ¿en cuanto tiempo?

Las entrañas de la realidad

Imaginad una temperatura que se acerca al 0 Kelvin o absoluto. Lo más cerca de la falta total de energía que puede existir en el universo. Tanto, que es inalcanzable. Pues el D-Wave 2x, para funcionar necesita hacerlo a una temperatura de milikelvins. Es decir, unas 1000 veces por debajo de un grado Kelvin. Unas temperaturas tan frías que solo pueden alcanzar los aspectos más intrincados y retorcidos de la existencia. Esto es necesario para que puedan funcionar las aleaciones y súperconductores que forman su hueso duro. Solo a Para funcionar necesita temperaturas de milésima de kelvin, rozando el cero absolutoestas temperaturas los materiales se comportan de una manera especial, tal y como lo hacen las entrañas mismas de la realidad. Así podemos usar estas propiedades en nuestro beneficio.

Y es que, un ordenador cuántico como el D-Wave 2x funciona usando, como decíamos, qubits en vez de bits. Estos "ladrillos" básicos de información permiten realizar operaciones mucho más complejas que los ordenadores clásicos. Esto se debe a que estamos llegando a los límites atómicos que nos permiten construir transistores y puertas lógicas, la base de toda computación. Excepto si seguimos los inescrutables caminos de la física cuántica, allí donde nada de lo que vemos tiene sentido. Gracias a propiedades tan complejas e íntimas como el entrelazamiento cuántico o las características del espín atómico, los ordenadores cuánticos son capaces de hacer lo que nunca imaginaríamos que se pudiera hacer.

Así es el D-Wave 2x

El D-Wave 2x parece una enorme caja, como los primeros computadores. Pero mucho más estilizado, eso sí. Es el ordenador cuántico más potente que existe en el mercado y no sin razones. Es capaz, como decíamos, de alcanzar los 1000 qubits, el doble que su antecesor y precursor. Además, reduce notablemente el llamado "ruido de qubits", que, grosso modo, se produce debido a la interferencia molecular que existe entre partículas. Para poder funcionar, usa un procesador de superconductores, que permite el paso electrónico sin interferencias y permite que el material funcione de una manera imposible a temperatura normal. Para ello, como decíamos, ha de alcanzar los 15 milikelvin, o 0.0015 K. El D-Wave 2x es capaz de procesar información 600 veces más rápido que los ordenadores convencionales y eso solo con 1000 qubits. Pero la cuestión no es tan sencilla. De hecho, la finalidad del D-Wave 2x es en realidad la investigación de la propia naturaleza cuántica de estos computadores para poder mejorar su utilidad y su producción.

Computación cuántica, no es oro todo lo que reluce (todavía)

La potencia real, que finalmente se traduce en velocidad, la dan las propiedades cuánticas, como hemos dicho. En concreto, el entrelazamiento cuántico, del que ya hemos hablado, es el fundamental protagonista. Gracias a él, la potencia puede crecer exponencialmente con el número de partículas que se emplea en el procesador. Pero, ¿y si no es así? Las últimas pruebas con el D-Wave (un modelo anterior) no dieron los resultados esperados. Pero tampoco sabemos muy bien por qué. Eso sí, la discusión está servida. Hay quien dice que nunca seremos capaces de obtener un ordenador cuántico que sea capaz de las maravillas que le atribuimos. Otros dicen que es cuestión de tiempo (entre ellos los laboratorios de Google y la NASA). Quién sabe. Tal vez el D-Wave 2x permita dar más pasos hacia una respuesta clara.

entrelazamiento cuantico

Por otro lado, todavía, como es lógico, existe otro problema más práctico que resolver: no existen apenas algoritmos cuánticos. Las operaciones matemáticas que emplean los qubits para poder construir el resto de la programación no funcionan de la misma manera que la programación clásica. Esto quiere decir que hace falta diseñar todo el sistema informático desde el principio. Y todavía estamos en pañales. Aunque ya existen algoritmos "cuánticos", todavía queda muchísimo por hacer. Así que, como vemos, el camino de la computación cuántica es todavía largo y dificultoso. Pero que eso no desanime a nadie. Si fuera por mi, también me gustaría tener un D-Wave 2x en casa.

¿Quién ganará los Premios Nobel 2015?

$
0
0
¿Quién ganará los Premios Nobel 2015?

  • Thomson Reuters y Sigma Xi anuncian sus predicciones sobre los Premios Nobel 2015.
  • El microbioma, la secuenciación del genoma, la técnica CRISPR o la detección de materia oscura son algunos de los descubrimientos que podrían recibir el galardón sueco.

Queda menos de una semana para conocer los Premios Nobel 2015. El próximo 5 de octubre, la Real Academia de las Ciencias de Suecia anunciará el galardón en la categoría de Fisiología o Medicina. Posteriormente la institución proclamará los ganadores en la disciplina de Física (6 de octubre) y Química (7 de octubre). El 9 y el 12 de octubre será el turno de los Premios Nobel 2015 de la Paz y de Economía, respectivamente.

Las apuestas para los galardones de este año ya han comenzado. ¿Cuáles son las predicciones de los expertos sobre los Premios Nobel 2015? Los vaticinios en las categorías de ciencia están muy reñidos, según lo publicado por la compañía Thomson Reuters y la asociación de investigación científica Sigma Xi. Éstas son sus apuestas para los Nobel 2015:

Nobel 2015 de Fisiología o Medicina

El microbioma es una de las temáticas más interesantes de los últimos tiempos. Parte de la "culpa" de este auge científico es de Jeffrey I. Gordon, Director del Center for Genome Sciences and Systems Biology de la Universidad de Washington, que consiguió descubrir la compleja relación que existe entre los seres humanos y su microbiota intestinal, y cómo esta afecta a nuestra nutrición, obesidad y salud en general.El estudio del microbioma o la secuenciación del genoma humano podrían protagonizar el Nobel 2015 en medicina

Gordon no es la única apuesta de Thomson Reuters para el Nobel 2015 en Fisiología o Medicina. La compañía también destaca el trabajo de Kazutoshi Mori (Universidad de Kioto) y Peter Walter (Universidad de California), descubridores del mecanismo de respuesta a proteínas desplegadas (Unfolded Protein Response, UPR en inglés). Este particular sistema de "control de calidad" juega un papel importante en el desarrollo de enfermedades neurodegenerativas como el mal de Alzheimer, la esclerosis lateral amiotrófica o el párkinson.

La predicción de Thomson Reuters también señala una tercera apuesta: la de Alexander Y. Rudensky (Memorial Sloan Kettering Cancer Center), Shimon Sakaguchi (Universidad de Osaka) y Ethan M. Shevach (National Institutes of Health). Estos tres científicos han estudiado el papel de los linfocitos T (un tipo de células del sistema inmunológico) en la aparición de alergias, enfermedades autoinmunes o procesos inflamatorios.

Los vaticinios de Sigma Xi para el Nobel 2015 de Fisiología o Medicina siguen, sin embargo, otros derroteros. Las votaciones de esta asociación apuntan a dos candidaturas. Por un lado, la entidad señala como probables premiados a J. Craig Venter (JCVI), Francis Collins (Director de los National Institutes of Health) y Eric Lander (Massachusetts Institute of Technology) que podrían ganar el galardón este año por su trabajo en la secuenciación del genoma humano.

Por otro lado, la asociación Sigma Xi ha reconocido un segundo candidateable a los Nobel 2015 en Fisiología o Medicina: David J. Julius (Universidad de California). Este científico ha sido pionero en el estudio molecular de los receptores del dolor y de la temperatura, mérito por el que podría recibir el galardón creado por Alfred Nobel en su testamento.

Nobel 2015 de Química

El pasado mes de mayo, Emmanuelle Charpentier (Directora del Max Planck Institute for Infection Biology a partir de octubre) y Jennifer Doudna (Universidad de California) recibían el Premio Princesa de Asturias. Las científicas habían sido pioneras en el desarrollo de la técnica CRISPR-Cas9, una herramienta de edición genómica más precisa y eficaz que las de la ingeniería genética convencional. Por este trabajo, Thomson Reuters considera que podrían ser receptoras del Nobel 2015 de Química, tal y como ocurrió en 1980 con Paul Berg.

Nobel 2015

El sistema CRISPR-Cas9 es una herramienta de edición genómica más precisa y eficaz que la ingeniería genética convencional. Imagen de Jennifer Doudna.

La técnica CRISPR-Cas9 de edición genómica es una de las apuestas en químicaLa compañía también apunta a una segunda candidateable para el Nobel 2015 de Química: Carolyn R. Bertozzi (Universidad de Stanford). La investigadora es pionera en el campo de la química bioortogonal, una disciplina que complementa el uso de marcadores y técnicas que se emplean para visualizar procesos biológicos que ocurren en el interior de las células o de los seres vivos. Estas herramientas permiten observar reacciones bioquímicas en sistemas vivos sin alterarlos, lo que mejora el conocimiento de procesos celulares de condiciones no patológicas o de enfermedades como el cáncer.

Por su parte, Sigma Xi ha señalado como posibles premiados a Harry Gray (Caltech), Stephen Lippard (Massachusetts Institute of Technology) y Richard Holm (Universidad de Harvard) por sus trabajos en el campo de la química bioinorgánica. Sus investigaciones han permitido la creación de los primeros análogos sintéticos de las proteínas hierro-azufre o una mejor visualización del papel del zinc y el óxido nítrico como neurotransmisores. La otra opción -menos votada- de Sigma Xi es la de Michael Grätzel (Ecole Polytechnique de Lausanne), pionero en el desarrollo de células solares.

Nobel 2015 en Física

Thomson Reuters ha propuesto en esta categoría tres posibles candidaturas. Por un lado, Deborah S. Jin (Universidad de Colorado Boulder) podría ser la tercera mujer en ganar el Premio Nobel de Física, después de Marie Curie y Maria Goeppert-Mayer. Esta científica consiguió crear el primer condensado fermiónico a temperaturas ultrabajas, un avance que podría ser aplicado en la computación cuántica o en los superconductores del futuro.La detección de materia oscura o planetas extrasolares podrían aupar a la astrofísica a un nuevo Premio Nobel

La segunda candidatura, según Thomson Reuters, es la de Paul B. Corkum (Universidad de Ottawa) y Ferenc Krausz (Director del Max Planck Institute of Quantum Optics). Estos dos investigadores han sido pioneros en el campo de la attofísica, una disciplina que utiliza láseres para observar lo que sucede en una trillonésima de segundo, y que ha permitido seguir el movimiento de los electrones en los átomos.

Zhong Lin Wang (Georgia Institute of Technology) es el tercer científico en las quinielas de Thomson Reuters, gracias al desarrollo de nanosistemas que convierten la energía mecánica en electricidad. Uno de sus resultados más llamativos fue la creación de un generador que transformaba el movimiento humano en energía eléctrica gracias a la fricción.

Nobel 2015

Museo Nobel de Estocolmo, muy próximo a la Academia Sueca. Ilona5555 / Shutterstock.com

Las predicciones de Sigma Xi vuelven a diferenciarse de las de Thomson Reuters. La sociedad norteamericana apunta como posibles galardonados a Vera Rubin (Carnegie Institution) y Kent Ford (Carnegie Institution), que confirmaron la existencia de la materia oscura gracias al uso de un potente espectrógrafo.

La segunda apuesta de Sigma Xi es la de Geoffrey Marcy (Universidad de California), Michel Mayor (Universidad de Ginebra) y Didier Queloz (Universidad de Ginebra), que lograron hallar los primeros planetas más allá del Sistema Solar, un descubrimiento revolucionario para la astrofísica.

Nobel 2015 en Economía

Las predicciones del Nobel 2015 de Thomson Reuters incluyen también a la categoría de economía. En este caso, la compañía apunta a Sir Richard Blundell (University College London) como posible premiado por sus estudios microeconométricos empíricos que mejoran nuestros conocimientos sobre el impacto de las decisiones políticas en el mercado laboral y en la demanda. En particular, estas investigaciones han permitido saber cómo estas decisiones afectan a las familias en condiciones económicas adversas.El Banco de Suecia creó en 1968 el galardón para reconocer los estudios en economía

En las quinielas de economía, Thomson Reuters también señala a John A. List (Universidad de Chicago), investigador que extendió los estudios de campo a la economía, trabajo que ha permitido valorar, por ejemplo, el comportamiento del sujeto en condiciones naturales para ver si encajan con la teoría económicas. En cierta medida, sus estudios pueden ser comparados con el "Principio de Heisenberg de la economía", pues sirven para analizar sujetos en entornos naturales y ver si la experimentación es consistente con la teoría económica, con el fin de averiguar si el comportamiento del sujeto no se modifica con la mera observación.

Las predicciones de Thomson Reuters y Sigma Xi marcan el pistoletazo de salida del anuncio de los Premios Nobel 2015, unos galardones creados por Alfred Nobel en su testamento, documento en el que decidió donar su fortuna de nueve millones de dólares a la Fundación que hoy lleva su nombre. En menos de una semana sabremos si estas quinielas iniciales se confirman.

¿Hay futuro para una nueva portátil de Sony?

$
0
0
¿Hay futuro para una nueva portátil de Sony?

Sin apenas títulos de renombre y las grandes producciones del pasado, ¿hay futuro para la sucesora de la PlayStation Vita?

En el marco de la EGX 2015 que se ha celebrado estos días en Birmingham, el vicepresidente de Sony Computer Entertainment Worldwide Studios ha realizado unas declaraciones muy interesantes relacionadas con el mercado portátil. El carismático Shuhei Yoshida reconoce que es poco probable que Playstation Vita llegue a tener una sucesora. El principal motivo es la eclosión que en los últimos años hemos vivido con los smartphones y los free to play con microtransacciones.

"La gente tiene teléfonos inteligentes y es muy fácil jugar en ellos. Y muchos juegos para smartphones son gratis o lo son como mínimo al inicio. Yo mismo soy un gran fan de PlayStation Vita y hemos trabajado muy duro en el diseño de todos sus aspectos. Los juegos táctiles son divertidos y muchos de ellos cuentan con un muy buen diseño, pero con sticks y botones la cosa cambia. Espero, como muchos de vosotros, que la cultura de jugar en portátiles siga, pero ahora mismo el clima no es saludable debido al enorme dominio de los juegos para móviles."

¿Qué ha pasado para llegar a este punto? Nos remontamos al año 2004 para hablar del lanzamiento de Playstation Portable. En ese momento existía una gran expectación por ver qué tenía preparado Sony. Lo más llamativo era la espectacular pantalla de 4.3 pulgadas con una definición de 480×272 píxeles pero tampoco podemos olvidarnos de que fue la segunda consola portátil con un D stick (después de la Neo Geo Pocket).

Playstation Portable llegó en un momento propicio donde destacaban sus funciones multimedia. Podíamos escuchar música mientras jugábamos a muchos juegos y muchos de nosotros la utilizamos para poder visualizar vídeos en MP4 que amenizaban nuestros largos trayectos en transporte público. PSP se convertía en un dispositivo multimedia capaz de hacernos llevar menos trastos en la mochila. La facilidad para cargar backups también ayudaría a impulsar sus ventas pero ese sería un tema a tratar en otro artículo. Otra de las claves para mantener la atención del consumidor fueron las revisiones que recibió: desde Playstation Slim hasta Playstation Portable 3000 o la infastuosa Playstation Portable Go que apostaba prematuramente por el formato digital sin demasiado éxito.

psp go

Una consola no alcanza el éxito sin grandes títulos. Playstation Portable iba bastante sobrada: God of War: Ghost of Sparta, Metal Gear Solid: Peace Walker, Kingdom Hearts: Birth by Sleep y GTA: Vice City Stories son solo un ejemplo de todo lo que ofrecía la consola de Sony que consiguió vender más de 80 millones de consolas en todo el mundo.

Playstation Vita se lanzó a finales del 2011 en Japón. Sus mayores reclamos eran una potencia muy superior a la de la competencia, una espectacular pantalla OLED (que vería un downgrade a LCD en posteriores versiones), un touchpad trasero y un doble stick para controlar mejor los shooters. ¿Qué ha pasado para que Playstation Vita sea considerado un fracaso? A priori es innegable que Sony no ha apoyado con demasiados juegos exclusivos. Hay excepciones como Uncharted: El Abismo de Oro y Killzone:Mercenary o el genial Gravity Rush, pero Playstation Vita se ha caracterizado por la ausencia de grandes franquicias.

Playstation Vita se ha caracterizado por la ausencia de grandes franquiciasCon la explosión de Steam y los juegos indie la consola se ha convertido en la mejor aliada para este tipo de juegos. El catálogo es muy extenso y prueba de ello son los constantes juegos que son elegidos en el servicio de Playstation Plus para la portátil. No sería justo decir que Playstation Vita no tiene juegos interesantes porque los tiene, pero no están orientados al público casual y la mayoría de ellos no salen de Japón.

No le falta razón al bueno de Yoshida al afirmar que el mercado de los free to play para smartphones ha matado el mercado portátil. Otro ejemplo tecnológico de lo que ya nos adelantó el grupo de Buggles en 1979 con la mítica “Video Kill the Radio Star”. Las compañías parecen estar haciendo malabares y experimentos como Playstation TV y Nintendo se lo jugará todo a una carta con la enigmática plataforma NX. ¿Cuál será el futuro de las portátiles? Los próximos años prometen tener emociones fuertes.

Fear The Walking Dead, episodio 5: Decepción

$
0
0
Fear The Walking Dead, episodio 5: Decepción

The Walking Dead, la serie original de la que esta se deriva, comienza su sexta temporada el próximo 11 de octubre. La primera temporada de Fear The Walking Dead solo va a constar de 6 episodios, y este, señores, es el penúltimo.

Me estoy empezando a cansar, una serie corta, que ya está programada para tener una segunda temporada con otros seis capítulos y que hasta ahora nos ha ofrecido, muy, muy poco. Destellos brillantes que cada vez son menos que suficiente para mantenerte entretenido por casi una hora, la misma formula de suspenso que ya empieza a sentirse barata porque nunca sucede nada.

No me malinterpreten, Fear The Walking Dead no es una serie mala, pero tampoco es una serie buena, no por ahora. Tal vez, si no fuese casi imposible no observarla con la misma lupa que miras The Walking Dead, quizás ahí sentiría que me da un poco más de lo que pido. Pero, lamentablemente parece que cada episodio sigue la misma formula: lento, suspenso, decepción, promesa de algo más emocionante al siguiente episodio, decepción.

Fuego, terremoto, inundación

fear the walking dead

En Fear The Walking Dead nos han presentado más de un personaje interesante, durante el episodio 3 el señor Salazar pintaba como uno del que podrían sacar bastante jugo los productores y escritores, pero ha terminado en un tipo plano y predecible. Un ex-torturador militar de algún tipo que huyó con su familia a los EEUU. Intento sentir algo por estos personajes, pero no lo logro.

En este episodio nos muestran a un nuevo personaje que luce intrigante, no sabemos su nombre aún, pero tiene un plan y Nick forma parte de él. Solo espero que la decepción por esperar algo emocionante que nunca pasa, no regrese en el final de temporada.

Hasta ahora Madison parece ser el único personaje que evoluciona mejor al ritmo del mundo en el que ahora están viviendo. Los demás parecen no darse cuenta que todo se fue al demonio hace bastante tiempo, todos tienen miedo de apretar el gatillo como Manawa. Incluyendo los escritores de la serie.

Eso no es una persona

Fear The Walking Dead

Sin embargo el zombie interpretado por la chica que alguna vez fue una camarera en un lugar donde vendían donuts me generó más empatía que Travis y su incapacidad para entender que esa persona abandonó su cuerpo hace tiempo. El comandante termina como ensalada de walkers más adelante, y lo que todos nos esperábamos comienza a suceder: los militares van a abandonar esta gente a su suerte en una forma un poco carente de lógica, pero ni siquiera voy a entrar en ese territorio porque no termino hoy.

Luego de una sesión de tortura a la que Madison parece haberse aclimatado bastante rápido -lo que pasa cuando quieres de vuelta a tu hijo y pareces más consciente que el resto de tu familia de que el mundo es otro-, un vistazo al hospital donde la eutanasia prezombie se practica con una pistola de ganado, y una escena final que llega a medio cliffhanger gracias al estadio lleno de zombies; espero un capítulo final completamente decepcionante o que salve a esta serie en una explosión de acción, de la mediocridad en la que se está hundiendo cada vez más.

fear the walking dead

Esta es la forma más eficiente y barata de convertir el agua salada en agua potable

$
0
0
Esta es la forma más eficiente y barata de convertir el agua salada en agua potable

Una nueva tecnología desaladora egipcia se presenta como una posible solución a los cientos de millones de personas que no disponen de agua potable salubre en el mundo. Y todo gracias a su efectividad y bajo coste.

Abrir el grifo y tomar un vaso de agua es una acción privilegiada. A veces se nos olvida, pero existen lugares donde el agua potable, sencillamente, no existe. Y son muchos más de lo que imaginamos. Así que todo esfuerzo por llevar el agua limpia a todo el mundo es poco. Una de las soluciones en lugares donde es difícil encontrar manantiales naturales es usar el agua salada de lagunas y mares. Pero claro, una desaladora no es barata ni eficiente. ¿O sí? Un novedoso método desarrollado en la Universidad de Alejandría podría acabar con los costes excesivos de una planta desaladora, convirtiendo al proceso en algo más que eficiente y, así, brindar nuevas posibilidades en todo el mundo.

Una tecnología desaladora eficaz y barata

Para desarrollar esta tecnología, los investigadores han investigado profundamente la transmisión osmótica de iones en fluidos. El truco de su técnica está en un método denominado pervaporación. Éste consiste en la separación de líquidos empleando vacío y calentando hasta producir vapor, el cual luego se condensa. Para que el proceso de pervaporación funcione se emplea una membrana especial que contiene celulosa (el componente principal del papel) y acetato en polvo. Esta membrana permite captar los iones de sal procedentes del agua, dejando el líquido mucho más limpio. El agua salada contiene sales disueltas, que se encuentran en forma de iones y que nos son fácilmente separables de la mezcla. También contiene otras partículas, restos orgánicos o incluso minúsculos animales y bacterias. Con esta tecnología, se puede separar la parte más fácil, que es la de las sales El "truco" de esta tecnología es una técnica llamada pervaporacióndisueltas, para luego proceder a la purificación mediante la vaporización. De esta manera se obtiene agua sin impurezas y potable.

El método, cuyas bases tienen mucho en común con las desaladora actuales, resulta mucho más económico tanto a nivel energético como a nivel de materiales que cualquiera de las técnicas actuales. De hecho, los materiales empleados, así como la técnica, son muy baratos de obtener y utilizar, permitiendo que se diseñe un modelo a medida en cualquier parte del mundo. Este es, tal vez, el mayor logro de esta interesante técnica. De hecho, lo único indispensable en esta tecnología es la membrana. La pervaporación elimina la necesidad de la gran cantidad de energía eléctrica necesaria en otros métodos de desalación. Además, separa a la perfección componentes orgánicos propios de residuos. La técnica, en realidad, ya existía de antemano. Es la membrana, barata y eficaz, lo que supone una verdadera novedad, abriendo puertas a un desarrollo global.

Agua para todos

Aproximadamente 700 millones de personas no tienen acceso a agua potable. Según las estimaciones, en 10 años esta cifra podría crecer hasta los 1.800 millones. Por supuesto, esto implica, principalmente, a los países menos desarrollados. Y precisamente estos son el objetivo principal de una tecnología como esta. Con una membrana barata y fácil de fabricar, muchos de los problemas de potabilización dejarían de ser eso mismo, problemas. La Universidad de Alejandría lo ha dejado claro: su intención es tratar de solventar un problema que se torna cada vez más grave.

Como explicábamos, las técnicas de pervaporación y desalación llevan años funcionando. Pero nunca habían resultado asequibles. Más bien han consistido siempre en técnicas temporales para solventar un problema aún mayor: la falta de agua. Pero claro, esto solo puede darse si existe una economía adecuada. La desalación, hasta ahora, tiene grandes problemas como es la gran cantidad de energía necesaria para tratar las aguas saladas; La desalación por los métodos actuales es muy cara y poco eficienteel rápido deterioro de los materiales empleados en la desaladora; y la disposición de la salmuera residual, que provoca grandes pérdidas de biodiversidad en las zonas donde descargan los emisarios.

Con esta tecnología, al menos las 2 primeras cuestiones se solucionan fácilmente y de una manera asequible para cualquier país o población. Tanto el papel como el polvo de acetato son productos muy, muy baratos. Las membranas empleadas también lo son. Así que se puede investigar en la creación de plantas desaladoras portátiles y que sean capaz de llegar a todas partes. Por que disponer de agua potable es un derecho que todos los seres humanos tendríamos que poder disfrutar.

Cómo grabar tus llamadas de Skype

$
0
0
Cómo grabar tus llamadas de Skype

Grabar llamadas de Skype de forma nativa aún no es posible, pero seguro lo puedes lograr con ayuda de estas herramientas de terceros.

Skype es uno de los servicios más populares para utilizar la tecnología VoIP (Voz sobre IP), un protocolo que hace posible que la señal de voz viaje a través de Internet. Hoy en día es una herramienta muy completa que abarca todas las formas de comunicación (texto, audio y vídeo) y, por supuesto, es una de las mejores adquisiciones de Microsoft hasta el momento.

Actualmente se encuentra disponible de forma gratuita para casi todas las plataformas, tanto para ordenadores de escritorio como para dispositivos móviles. Sin embargo, una de las funcionalidades que los usuarios utilizan y que aún no se encuentra de forma nativa en Skype es la grabación de las llamadas que se realizan a través de este servicio.

A pesar de ello, Skype tiene una lista completa de aplicaciones de terceros que se conectan muy bien a los clientes para Windows, Linux y OS X de este singular servicio de comunicación. A continuación te mostramos algunas de ellas.

MP3 Skype Recorder

Grabar llamadas en Skype
MP3 Skype Recorder es un programa gratuito para uso no comercial que registra automáticamente todas tus conversaciones de Skype (incluyendo las conferencias). Funciona en Windows 7, 8 y 10. El programa almacena tus conversaciones a nivel local en archivos con formato MP3. La grabación se inicia automáticamente (o de forma manual, si así lo deseas) cuando comienza la conversación y se pueden grabar varias llamadas al mismo tiempo (una activa con otros en espera). Más información sobre cómo utilizar MP3 Skype Recorder puedes encontrarla en el manual.

Pamela

Grabar llamadas en Skype
Pamela es un programa de pago —aunque también cuenta con una versión freeware— para grabar tus llamadas de audio y video de Skype. Funciona en Windows (XP/Vista/7/8/10 para 32/64-bit); y, de acuerdo con la página web, está certificado por Skype. Graba audio, vídeo, conversaciones de chat, conferencias y más. En la versión freeware el tiempo de grabación está limitado a 15 minutos.

VodBurner

Grabar llamadas de Skype
Para Windows también puedes utilizar VodBurner para grabar audio y video de cualquier lado de una conversación en Skype. Es gratuito y no tiene limitaciones de uso. Los archivos se almacenan en formatos MOV, MP4 y M4A. Lo mejor de todo es que también puedes editar tus vídeos con la consola de postproducción para añadir subtítulos, dividir la pantalla y muchas cosas más.

Ecamm Call Recorder

En Mac, ecamm Call Recorder puede grabar tus sesiones de Skype (audio, vídeo, podcasts o entrevistas) tal y como tú los ves, o en modo de pantalla dividida. Después de cada grabación, los archivos (MP3) se guardan en una carpeta en tu Mac, con el nombre de las personas y la fecha. Ecamm Call Recorder tiene un costo de $19.95, pero se puede descargar una prueba gratuita por 7 días.

G-Recorder

Grabar llamadas en Skype
G-Recorder es para ordenadores con Windows y OS X. Puede guardar llamadas de audio e historial de chats en el disco local o en una cuenta de correo electrónico (por ejemplo Gmail). Proporciona fácil acceso en línea a las grabaciones, incluso desde el móvil, y graba cualquier tipo de llamadas de Skype: PC a PC, Skype Out/In y llamadas de grupo Además, permite añadir notas a tus grabaciones. Todas tus llamadas se guardan en formato MP3, ajustando la calidad con la opción de Preferencias. Y aunque es una aplicación de pago, puedes tener acceso a una versión de prueba por 14 días.

Skype Call Recorder

Grabar llamadas en Skype
Aunque en Linux hay diferentes formas de grabar llamadas, Skype Call Recorder es una aplicación que está diseñada específicamente para Skype. Es gratuita y de código abierto. Las llamadas pueden ser grabadas en formatos MP3, Ogg Vorbis o WAV. Puede usarse grabación manual o automática y, además, puede ser configurado para llamadas específicas. Puedes descargar en archivo .deb directamente desde el sitio web de Skype Call Recorder y abrirlo con el Instalador de paquetes. O instalarlo desde la terminal con los siguientes comandos:

sudo add-apt-repository ppa:dajhorn/skype-call-recorder
sudo apt-get update
sudo apt-get install skype-call-recorder


Guitar Hero Live no nos permitirá comprar canciones

$
0
0
Guitar Hero Live no nos permitirá comprar canciones

Guitar Hero Live rompe con lo visto hasta ahora en la saga y no nos dejará comprar canciones adicionales y añadirlas permanentemente a nuestro repertorio

A estas alturas hemos visto DLC, expansiones y contenido de pago de casi todos los colores y formas: desde free2plays abusivos requiriendo pasar por caja a cada paso que demos en el juego hasta, en ocasiones contadas, expansiones como las de antaño a un precio razonable (ahí están From Software, Bethesda o CD Projekt) o incluso gratis (Shovel Knight).

En Guitar Hero Live os podéis olvidar de comprar una canción y tocarla siempre que queráis

Aún así, todavía podemos encontrarnos con modelos de negocio relativamente innovadores como el que planteará Guitar Hero Live, la nueva entrega de la franquicia que empezó la fiebre por los instrumentos de plástico allá por el 2005. Y, a mi parecer, no hablamos de una novedad que deba alegrar al consumidor.

Si en el pasado (o en el próximo Rock Band 4) lo lógico era comprar las canciones añadidas post-lanzamiento y disfrutar de ellas cuantas veces quisiéramos, desde Activision y Freestyle Games arecen no seguir de acuerdo con dicha filosofía y han introducido un sistema de tokens o fichas a la hora de disfrutar de canciones descargables.

Guitar-Hero-Live

Guitar Hero Live incluirá más de un centenar de canciones pero, desde el momento de su lanzamiento, se podrán disfrutar de otras tantas gracias al servicio Guitar Hero TV. En dicha sección del título tendremos acceso a nuevas canciones de distintos grupos y géneros que, ojo, solo podremos disfrutar previo pago de una ficha que se podrá conseguir jugando o, como habréis deducido, pagando.

Lo grave aquí es que el gasto de una ficha no nos dará acceso a la canción en cuestión para siempre si no que únicamente nos permitirá tocarla una vez; si buscamos repetir y volver a disfrutar del mismo tema musical tocará volver a gastar una ficha; en resumen, para tocar cincuenta veces una determina canción disponible en Guitar Hero TV tendremos que gastar cincuenta fichas.

No se han dado detalles sobre cómo de fácil será conseguir fichas gracias a nuestras partidas o el precio de las mismas pero no resulta difícil pensar que, a la larga, se tratará de un sistema mucho más lucrativo para el estudio y, por ende, más injusto para con el usuario. Si lo que queremos es disfrutar en grupo de varias de las canciones nuevas, podremos comprar un party pass que nos de acceso a todo el catálogo durante un número de horas determinado y que, este sí, solo podrá ser comprado con dinero real. ¿Qué os parece este cambio de rumbo? ¿El poder conseguir fichas jugando terminará convirtiéndose en una excusa?

El prototipo de iPhone que Apple pensó en 1983

$
0
0
El prototipo de iPhone que Apple pensó en 1983

A pesar de que muchos solemos señalar a iPhone como el primer móvil con una pantalla táctil capacitiva, eso es un falso mito que no es cierto. Sin embargo, se debe reconocer que no fue hasta la entrada de la compañía de Cupertino cuando se marcaron ciertos estándares de calidad en el mundo mobile, lo cual derivó en los smartphones que hoy en día conocemos.

Pero todo debe tener un precedente, y el móvil de Apple no iba a ser menos. De hecho, en 1983 se presentó un prototipo de iPhone, o al menos algo que ya dejaba indicios de que Apple pensaba en aunar la pantalla táctil y el teléfono en un único dispositivo. Asimismo, también vemos como se incluye un lápiz, un concepto que no se retomaría hasta el Apple Pencil incluido con el nuevo iPad Pro.

Según afirman en CNN, el encargado de diseñarlo fue Hartmut Esslinger, el cual también trabajó con el ordenador Apple II, uno de los computadores más populares alrededor de la década de los 80.

Actualmente, este prototipo de iPhone se encuentra junto a otros objetos históricos de Apple en la Universidad de Stanford, entidad donde el propio Steve Jobs realizó uno de sus discursos más famosos e incluso el sitio donde de su funeral.

Créditos: Stanford University

Analizamos cuatro herramientas gratuitas para comenzar a desarrollar juegos de manera independiente

$
0
0
Herramientas gratuitas para ayudarte a crear tu propio videojuego

Analizamos cuatro herramientas gratuitas para comenzar a desarrollar videojuegos de manera independiente.

Muchas personas quieren lanzarse a la aventura de diseñar un videojuego. Pero, puede suceder que no sepan qué camino tomar. Si bien es cierto que existen herramientas para diseñar juegos sin saber programar, no está mal perderle el miedo a aprender algún lenguaje. En este caso en particular, veremos cuáles son las herramientas con las cuales debemos familiarizarnos, para poder emprender nuestro propio videojuego. Luego indicaré algunos libros y tutoriales también.

Unity

Unity es para mí, la mejor herramienta para diseñar un juego. Nos permite sacar versiones de nuestro futuro bebe para Xbox, PC, Linux, HTML5, iOS, Android, PS4, Blackberry, Samsung TV y algo que lo hace muy potente: permite trabajar con C#. El programa, tiene un motor para diseño de juegos 3D y otro para juegos 2D. Uno puede descargarlo de su web completamente gratis.

Posee una sección muy grande con documentación sobre el uso del programa. Allí podremos aprender sobre la física, el motor del propio programa, los scripts C#, la implementación de assets, audio, animación, arquitectura y una larga lista de etc. A esto debemos sumarle la gran cantidad de recursos en vídeo propios que tienen.

Su biblioteca de assets (complementos) es algo increíble, y podemos conseguir elementos muy valiosos (personajes, escenarios, sonidos) por pocos dólares e incluso algunos gratis.

Unity3D

Unreal Engine

La historia de Unreal Engine es muy curiosa, venía con el propio juego cuando este recién salía. Tenía un editor de escenarios fantástico. Permitía también, que uno fabricara sus propias armas, personajes, objetos, enemigos, etc. Lógicamente, la gente de Epic Games se dio cuenta que tenía algo bueno entre manos, perfeccionaron el motor y ahora va por su versión número 4. Si bien no siempre fueron gratuitos, llego un momento que debieron darse cuenta que debían cambiar el modelo de negocio, y ahora podemos descargarlo también con una licencia personal gratuita. Lo único que piden a cambio, es un porcentaje de regalías a partir de los primeros US$3000 ganados, lo cual no me parece mal.

El entorno de Unreal Development Kit, se asemeja bastante al de Unity. Podemos agregar formas geométricas al “Escenario”, y luego dotarlas de lo que corresponde. Con esto me refiero a luces, cámaras, interacción con otros objetos etc.

Unreal Engine

CryEngine 3

Es desarrollado por Crytek que es una empresa especializada en hacer videojuegos. Quizás muchos de ustedes los conozcan por juegos como Crysis 2 y Crysis 3. Permite desarrollar juegos para las plataformas que mencioné antes incluyendo consolas. Dentro de lo que ellos denominan CryEngine Sandbox hay toda una suite de herramientas para el desarrollo de videojuegos que van desde: Un sistema de scripting visual, la posibilidad de editar pistas de vídeo y audio, sistemas generadores de vegetación, ciclos noche y día y la posibilidad de trabajar con "AI" (Inteligencia Artificial) de una forma bastante intuitiva con XML y diagramas de flujo.

CryEngine Free SDK es para uso personal y no comercial, pero, nuevamente si nuestro proyecto prospera podemos adquirir en Steam una licencia de 9 dólares al mes.

cryengine

PyGame

PyGame tiene un aire más "retro" por decirlo de algún modo, pero son módulos de Python muy potentes. Es excelente para comenzar a programar. Aquí, hay más programación que en los dos programas que mostré con anterioridad. Y es indispensable aprender a programar en Python.

Tutoriales

No es difícil encontrar recursos en la Web para aprender a usar las herramientas que arriba menciono no obstante aquí vamos con algunos.

Un paseo por el ‘Libro de la Selva’ y la vida de su autor, Rudyard Kipling

$
0
0
Un paseo por el ‘Libro de la Selva’ y la vida de su autor, Rudyard Kipling

El prolífico autor Rudyard Kipling publicó en 1894 'El Libro de la Selva', un texto atemporal que siempre, cada vez, tiene mucho que aportarnos.

Adentrarse a las páginas del 'Jungle Book', 'Libro de la Selva' o también llamado 'El Libro de las Tierras Vírgenes' es una experiencia que a pocos dejará sin asombro, y casi nadie estará exento de encontrar significados profundos en esos relatos que hablan sobre un "cachorro humano" criado por los lobos en la espesura de la selva en la India.

Su autor, Rudyard Kipling, es un autor con menos gloria de la que tal vez sus letras merecen. Esto se remonta a sus posiciones políticas e ideológicas a favor del Imperio Británico y que, a vistas de los liberales, no fue del agrado de los nuevos tiempos y su obra fue la que recibió el golpe del descrédito. Sin embargo, es innegable la calidad de su prolífica obra y, en este caso, de un libro que, personalmente, me apasiona como pocas cosas en el mundo.

"Siempre que Baloo recita la Ley lo hace cantando"

Mowgli es un vocablo que significa "rana" que, a la vista de todas las majestuosas criaturas que viven en la selva, describe el aspecto frágil, sin pelaje, del humano que fue encontrado por Papá Lobo y Mamá Loba, Raksha. Para comprender lo que sucede en los relatos, si es que no se ha leído la novela, es necesario olvidar la famosa película de Disney basada en esta obra de Kipling, puesto que en el texto encontraremos a los personajes vistos en la cinta animada, (la última bajo la coordinación del mismísimo Disney) abismalmente más obscuros, complejos... salvajes. Y esto no es otra queja sobre lo mejor que es una novela sobre la película, puesto que no tiene importancia, sino una oportunidad para conocer las maravillas detrás de estos relatos tan elaborados y profundos, tan humanos y desgarradores, con la mente lo más desapegada posible de la historia que la película animada nos haya dejado.

Rudyard nació el 30 de diciembre de 1865 en Bombay, cuando la India era aún una colonia de Inglaterra. Hablar de la obra de este autor anglo-indio (como se denominaban así mismos los colonos) es hablar de la India, puesto que gran parte de sus obras se desarrollan en estos paisajes y los que no, fueron inspirados en las diversas épocas que vivió ahí. A esto último añadiría que, Rudyard sería un incansable viajero que visitaría las colonias de Inglaterra, iría varias veces a Inglaterra por grandes temporadas y también viviría en Estados Unidos. En fin, un viajero infatigable, algo que cabe destacar puesto que los traslados exigían mucho tiempo y no pocas incomodidades.

"Esta es la Ley de la Selva, tan cierta como el cielo"

El sabio Baloo, la hermosa Bagheera y el poderoso Akira, líder del 'Pueblo Libre' (el de los lobos) y claro, Mowgli y sus padres lobos aparecen de inmediato al comenzar la lectura del 'Libro de la Selva'. Y esta será una característica interesante y apasionante en el texto: no hay preámbulos largos y cansados, explicativos. En los relatos de Mowgli, las cosas suceden de inmediato con un conflicto por delante, con una exigencia al lector de sentarse a la luz de la Luna en la "Piedra del Consejo" al instante de comenzar a leer para decidir, con muchas enseñanzas y la reinante 'Ley de la Selva', el destino del cachorro humano; así como esbozar el letal papel que tomará en delante su enemigo perseguidor y de por vida: Shere Khan, el tigre.

Kipling perteneció a una familia llena de artistas y gente influyente de la época victoriana y las subsecuentes. Sus padres y la familia materna tenían un gran nombre, aunque esto no es el detonante de su gran fama y riqueza que el escritor conseguiría con sus letras, lo sería su prolífica publicación y la gran calidad de estas; además, claro, del testimonio único de un colono en una tierra tan exótica y distinta como la India para los habitantes de la Inglaterra victoriana. De hecho, 'El Libro de la Selva' está inspirado en lo que hoy se conoce como el Parque natural de Kanha También se dedicó a escribir no pocos libros alabando a la milicia del Imperio, de hecho su obra está dedicada en mayor medida a la poesía, a los relatos y muy poco a las novelas, aunque esto no significa que de menor calidad o trascendencia como sería su última novela: Kim.

"Recuerda que él (Hathi el elefante) es el señor de la selva, y que te enseñó la Palabra Mágica de la selva..."

"Hermanito", así se dirige Baloo a Mowgli, esta relación tan preciosa como la misma piel de Bagheera, la Pantera, y con la que el humano sin miedo también tiene una relación entrañable. Así, durante los relatos del 'Libro de la Selva' conoceremos momentos decisivos en la vida del humano criado por los lobos, canciones de la selva, "palabras mágicas" y la inquebrantable 'Ley de la Selva' que rige a todos los seres de la misma. La Ley es tan vasta y poderosa por su presencia invisible, omnipresente y vital que es tal como un personaje más, uno místico y rector de todos los seres. Es una delicia conocerla ya sea en la voz de Baloo como por las canciones y las enseñanzas que, con no poca sangre y golpes, aprende Mowgli.

En 1907 Rudyard Kipling es galardonado con el Premio Nobel de Literatura, convirtiéndose así en el primer inglés en recibir tal honor. Para ese entonces estaba encumbrado en su carrera y dejaba lejos los 16 años cuando comenzó a trabajar en un periódico de la India, el Civil and Military Gazette, en el cual comenzaría a publicar cuentos y columnas literarias. En cuanto a su vida personal se puede mencionar que estuvo casado con Carrie Balestier con la que tuvo tres hijos, dos de los cuales murieron, Josephine, su hija mayor a la edad de seis años y John, su único hijo varón a los 18 años cuando se encontraba en batalla en el norte de Francia. Esto, marcaría profundamente al escritor en su vida y en su obra.

Jungle_book_1894_138

Si hay algo apasionante en 'El Libro de la Selva' es la cantidad de sabiduría que recoge, y como en relatos cortos y concisos crea ambientes impresionantes que exploran, hasta la vergüenza y el dolor, la naturaleza humana. El libro fue publicado en 1894 y en 1985 habría un segundo tomo. Generalmente las ediciones actuales contienen ambos tomos. Esta segunda parte contiene relatos en otros lugares del mundo y con otros personajes que también tienen muchísimas enseñanzas, metáforas y belleza. Por la profundidad de los relatos es un tanto "injusto" que se le de la etiqueta de "libros para niños", no porque esto sea poca cosa o porque la literatura para niños carezcan de valor o belleza, sino porque se queda corta, porque a cualquier edad dará material para reflexionar, emocionarse y disfrutar esas maravillas que da la literatura, y cada vez que vuelvas a él (créeme) encontrarás una canción, relato o frase que te sorprenderá como si fuera la primera vez.

Cuatro cosas hay en el mundo
Que nunca se sintieron satisfechas,
Que no tuvieron bastante
Desde el comienzo de los tiempos:
La boca del cocodrilo, el buche del milano,
Las manos del mono y los ojos del hombre

Dicho popular en la selva

Así pues, Rudyard Kipling nos regaló una gran cantidad de textos con su frenética producción literaria y vale mucho la pena acercarse a sus letras que, incluso, alcanzó el género de la ciencia ficción. El 'Libro de la Selva' es uno de sus muchos libros de gran belleza y calidad literaria que ha inspirado varias adaptaciones a la pantalla; ya mencionábamos la película de Disney aunque no es la única. Ahora bien, en 2016 conoceremos una adaptación live-action (con una importante cantidad de CGI) del cachorro humano criado en la Selva, una de las muchas películas que se presentaron en el D23 pasado. Veamos qué nos depara.

No dejes de compartir en comentarios tus opiniones sobre esta novela y sobre este autor. ¡Buena caza!

La Nueva Guardia, Episodio 1: Fin de la adolescencia rebelde en Cupertino

$
0
0
La nueva guardia (I): fin de la adolescencia rebelde en Cupertino

Cuatro años tras la muerte de Steve Jobs, Tim Cook no se ha limitado a mantener el guión establecido en Apple, y ha realizado cambios profundos en la estructura de la empresa, con cambios visibles a simple vista, más coordinación y un equipo mucho más fuerte y menos individualista.

La Nueva Guardia es una serie de columnas donde observamos la nueva hornada de nuevos líderes y ejecutivos que han llegado a las empresas de tecnología más importantes. ¿Quiénes son? ¿Por qué están ahí? ¿Qué están haciendo de forma distinta? Sus motivaciones, historia y cómo sus nuevas ideas y métodos cambiarán la próxima década. — Hoy: La Apple de Tim Cook.

Apple ya no necesita a Steve

Tras años con problemas de salud, Steve Jobs muere a las 3 de la tarde del 5 de octubre de 2011, un día después de que su butaca vacía en la presentación del iPhone 4s hiciera saltar todas las alarmas.

Tim Cook es casi automáticamente confirmado como director ejecutivo de Apple. Devoto cristiano y de buenos modales, Tim Cook no tarda en dibujar Apple a su estilo. Mayor colaboración y relaciones interdepartamentales, y un punto extra en las labores sociales y medioambientales de la compañía son sus principales señas.

Tim Cook, con constantes visitas a China tanto con el ejecutivo de Beijing como con sus socios locales, hace que Apple dé el salto definitivo en el primer mercado mundial de tecnología de consumo. Planes agresivos de expansión y marketing, y un iPhone de mayor tamaño, hacen que Apple toque el cielo convirtiéndose durante un trimestre en líder de ventas donde durante años todo el mundo garantizó su fracaso. Apple permanece, a día de hoy, como una de las pocas grandes empresas occidentales con presencia en China. Microsoft, Amazon, Facebook o Google no pudieron hacer lo que la mano izquierda de Tim Cook pudo.

Este gran contraste lo podemos ver en las presentaciones de productos. Cuando los focos se encendían Steve era Apple, y Apple era Steve. Mientras que Cook sube al escenario brevemente mientras desfilan por él no solo vicepresidentes senior y CEOs de compañías socias, también líderes de proyectos cuyo trabajo Apple quiere resaltar en la presentación.

Forstall como personalización de los ideales de Steve Jobs

Entre mantener el espíritu de Apple o el espíritu de Steve Jobs, Tim Cook eligió Apple.El periodo de adaptación de Cook duraría poco, y un año después, tras la introducción y gafe de Apple Maps, Scott Forstall es apartado de su puesto. Forstall, mano derecha de Steve Jobs desde el destierro en NeXT, era el directivo con un carácter más similar a Steve Jobs dentro de Apple, pero no era Steve Jobs. Las cabezas de otros departamentos —entre los que destacaba Jony Ive— chocaban, directamente y a menudo, con él.

No solo Jony, Tim Cook tuvo que convencer a Bob Mansfield para que retrasara su jubilación y siguiera al cargo del hardware y tecnologías futuras de Apple durante unos breves meses. Apenas un año después de su "des-jubilación", en verano de 2013, Apple confirma la jubilación definitiva de Mansfield. — Entre mantener a la persona que representaba el espíritu de Steve Jobs en Apple, y el equipo, Tim Cook se quedó con el equipo.

Tras la presentación de iOS 7, donde Jony Ive pasó a ser el jefe de diseño global en Apple, desde el hardware hasta la interfaz del software, se pudo comprobar como Craig Federighi tomaba más relevancia en la compañía de Cupertino. A su cargo: iOS y OSX, a pesar de ser un Vicepresidente Senior en Apple, sus responsabilidades son mayores que las de muchos directores ejecutivos plenipotenciarios en empresas tecnológicas punteras. Bajo su mano están los dos mercados con más beneficios de la electrónica de consumo mundial.

Craig Federighi es suelto, amigable y goza de buena reputación entre los empleados a su cargo, que son la mayoría de los que acuden a las oficinas centrales en Cupertino. Miembro de NeXT, entró en Apple con Steve Jobs en 1996, pero Craig no tardó en abandonar Apple por una aburrida y corporativa Ariba donde permaneció una década para volver a Cupertino y liderar OSX en Apple. — En verano de 2012 era VP Senior a cargo de OSX, para otoño, recibió la responsabilidad de dirigir iOS.

Es con Federighi con quien, en dos años, iOS traza una espiral expansionista enterrando viejos tabús y cambiando de la noche a la mañana lo que muchos esperaban del sistema operativo móvil.

Riccio y Federighi hacen realidad la visión de IveTras el terremoto que supuso la muerte de Jobs, y la réplica que fue la salida de Forstall, otra de las grandes gemas que quedaron al descubierto fue Dan Riccio, posiblemente la persona más importante en Apple menos conocida por el público general. Clave principal en el desarrollo del iPad, se unió a Apple en 1998 y hoy lidera el hardware de Mac, iPhone, iPad y iPod. Federighi pinta en los lienzos que prepara Riccio.

¿Encajar 3 millones de píxeles en la pantalla de un iPad? Riccio. ¿Un Macbook con baterías escalonadas? Riccio. ¿Haptic feedback? Riccio. ¿Touch ID, iPad Pro, iMac 5K? Riccio. — Abanderado del más fino, más ligero y más rápido, Dan Riccio es un trabajador de fondo que en casi dos décadas años nunca ha subido al escenario en una keynote, y seguramente nunca lo haga.

Jony Ive como la personificación de los ideales de Apple

Con 21 años, Jony Ive se sube a su primer avión. Destino California. Quería conocer a los miembros de la compañía que crearon los Macintosh, que le hicieron dejar de odiar los ordenadores personales. Eran finales de los ochenta y aquello era lo que era. — Tras volver a Londres empezó a trabajar para Apple como consultor externo, y en 1992 se mudó a California.

Años después, al volver Steve Jobs pronto identificó el talento de Ive, y juntos crearon un proyecto exitoso tras otro. Ciegos a factores externos, fue realmente esta dupla la que llevó a Apple de estar a semanas de la bancarrota a la mayor compañía de la historia.

El coche sería la herramienta que Tim Cook use para atar a Jony Ive en AppleCon la muerte de Steve y tras liderar el diseño de Apple desde la época del iPod, Jony Ive pasa a tener un puesto más etéreo en Apple como Director Ejecutivo de Diseño, un puesto esotérico que le permitiría adquirir más perspectiva. El día a día de su trabajo se lo repartirían sus dos lugartenientes: Richard Howarth en diseño industrial, y Alan Dye en interfaz de usuario. A ellos se unirá Mark Newson, gran amigo personal de Ive y diseñador industrial reconocido mundialmente, que parece haber tenido bastante influencia en el diseño final del primer Apple Watch.

¿Y el coche? Ive es un gran apasionado por los automóviles, y re-pensar la industria automovilística necesita nuevos puntos de vista que sepan ver lo que un mercado con visión de túnel, valga la redundancia, quizá no sea capaz de ver. A nivel organizativo, este aspecto da a Ive, siempre buscando un nuevo reto, motivos para seguir en Apple tras haberlo logrado todo en la electrónica de consumo del hogar.

En el nuevo reino, Tim sustituye a Steve, Jony deja paso a Mark, Alan y Richard. Federighi reina en software sentado en el trono de Forstall, Riccio hereda los dominios de Mansfield y muchos más. A todos ellos se sumaría Angela Ahrendts, ex-CEO de la marca de moda Burberry, para hacer realidad los nuevos planes de Apple en sus tiendas físicas.

Pero la integración no estará completa hasta que no sea física, en 2017 Apple planea mudar a todos sus empleados hoy distribuidos en varios edificios a un nuevo edificio único que sea representativo del espíritu de Apple como empresa.

Jack Dorsey sería nombrado CEO permanente de Twitter

$
0
0
Jack Dorsey sería nombrado CEO permanente de Twitter

Jack volvió, Jack se queda.

Uno de fundadores de la popular red social de microblogging Twitter, Jack Dorsey, que ha estado en el rol de CEO temporal en la empresa tras la dimisión de Costolo, sería nombrado como CEO permanente en los próximos días acorde a las fuentes cercanas al caso para Re/Code.

La medida no es una gran sorpresa, con Dorsey estando siempre como primera opción a la hora de buscar un candidato. El nombramiento vendría acompañado de cambios en la dirección.

Twitter comenzó la búsqueda y nombró a Jack Dorsey CEO interino porque él ya era CEO de Square, la exitosa empresa de pagos, y pocos creían que iba a abandonar la empresa que dirigía en ese momento. Para el comité ese trabajo es obviamente uno a tiempo completo.

Pero las cosas han cambiado y la idea de que Jack vuelva ha ganado popularidad y generado entusiasmo entre la gente de dentro y fuera de la compañía en los últimos meses aunque dejase claro que no abandonaría Square. Se refiere a Twitter y Square como sus hijos cuando habla sobre el tema según las fuentes.

Adam Bain también ha sido considerado seriamente para tomar el cargo, pero rechaza tomarlo mientras Dorsey quiera seguir en el puesto.

George R.R. Martin niega los rumores sobre una película de Game of Thrones

$
0
0
George R.R. Martin niega los rumores sobre una película de Game of Thrones

Nope, nope.

Hace un par de días el diario británico Daily Star publicó información completamente falsa sobre una supuesta entrevista que habían realizado en exclusiva al escritor George R.R. Martin, dando a entender que los productores de la serie Juego de Tronos estaban trabajando en una película. El autor de los libros Canción de Hielo y Fuego, que actualmente se encuentra trabajando en los dos últimos libros de la saga, ha negado completamente la supuesta producción de un filme, desde su cuenta en LiveJournal.

película de Game of Thrones

ALERTA DE SPOILER Además de esto, Martin ha dicho que si llegase a haber una película, no sería sobre la rebelión de Roberth Baratheon, dando a entender que no nos sentemos esperar precuelas ni la resurrección de personajes. Y, con respecto a todas las veces que Kit Harington ha aparecido en fotos el set de Game of Thrones, el presidente de programación de HBO ha dicho que no existe ninguna posibilidad de que Jon Snow regrese de los muertos, no importa que tanto se vea pasear al actor en los sitios de rodaje.


G DATA, los pioneros de la seguridad en las tecnologías de la información

$
0
0
G DATA, los pioneros de la seguridad en las tecnologías de la información

Esta es la trayectoria de G DATA, la empresa de software que comercializó el primer antivirus, desde la Edad de Piedra de las TI hasta la complejidad de hoy.

Cuando uno reflexiona acerca de las posibles analogías o metáforas que se podrían plantear sobre los productos de seguridad informática y sus artífices, está claro que el mundo de la medicina, con sus vacunas y antibióticos, es el más evidente de entre todo a lo que se puede recurrir para hablar de desinfectar o “curar” ordenadores y otros sistemas con virus y demás malware. Pero a mí, por aquello de que a los que vemos demasiadas películas parece que todo nos recuerda a alguna, me dio por pensar en la cuadrilla de Ghostbusters (Ivan Reitman, 1984 y 1989), aquellos expertos en parapsicología que se dedicaban a “limpiar Nueva York de ectoplasmas” con su disparador nuclear de protones como los programas antimalware libran de amenazas a los sistemas informáticos.

Y del mismo modo que antes de que los doctores Venkman, Stantz y Spengler fundaran su empresa de cazafantasmas no había nadie capaz de acabar con la presencia de espectros indeseables en cualquier lugar, antes de que G DATA comercializara para Atari ST su AntiVirusKit en 1987, año precisamente intermedio entre las dos películas de Reitman, no habían existido programas distribuidos para eliminar virus informáticos desde que Creeper lanzara aquel mensaje en las pantallas de las IMB 360 de que le atrapásemos si podíamos: fueron los pioneros.

La trayectoria de G DATA ante la vertiginosa evolución del malware

Si uno desea conocer la historia del malware o de los virus informáticos en concreto durante la generalización del uso de los ordenadores y, luego, de los dispositivos móviles, no hay nada como analizar la labor de los cazafantasmas informáticos, es decir, qué soluciones ha propuesto una compañía como G DATA para las amenazas que se ciernen sobre nuestras máquinas.No hay nada como analizar la labor de los cazafantasmas informáticos para conocer cuál es la situación respecto al malware

Sin embargo, hay que decir que esta compañía no nació en principio con la idea de especializarse en la seguridad de las tecnologías de la información: Andreas Lüning, Kai Figge y el difunto Frank Kühn la fundaron en 1985, durante “la Edad de Piedra de las tecnologías de la información”, con el propósito de desarrollar todo tipo de software para el mencionado ordenador personal Atari ST, tan revolucionario que les impresionó cuando fue presentado en la feria tecnológica CeBIT de Hannover. Pero, tras habernos ofrecido el primer programa de protección antivirus del mundo, sus actividades se movieron en esa línea, si bien fue una especialización gradual, porque también han comercializado otros programas a lo largo de los años, como un buen número de aplicaciones para Atari ST, MS-DOS y Windows, incluyendo el PowerRoute, primer mapa de carreteras interactivo para computadoras personales.

g data

AntiVirusKit original en el museo del campus de G DATA - GD

En 1990, desarrollaron el AntiVirusKit también para PC, con una sencilla interfaz gráfica para el usuario, lo que indica, no sólo la popularidad de estos ordenadores sino, igualmente y por esa misma razón, el formidable aumento de virus para ellos que vimos en los años 90 del siglo pasado. Y el hecho de que en esa misma década lanzara sus AntiVirus Business y AntiVirus Enterprise, es decir, protección para los sistemas de negocios y redes corporativas, revela que el uso de tecnología informática se había generalizado en las compañías del mundo y que demandaban métodos para salvaguardar su integridad de los ataques de malware.

La tecnología DoubleScan, que combinaba por primera vez dos motores de análisis de virus en paralelo, fue elaborada por G DATA en el año 2000 anteG DATA fue la primera empresa que consideró la computación en la nube para sus productos. la necesidad de hacer frente a un número cada vez mayor de amenazas y su complejidad en la expansión de internet. Y a causa de lo mismo, cuatro años después presentaron la versión inicial de la suite de seguridad InternetSecurity, —de la que han preparado una edición especial por su 30 aniversario como empresa—, y en 2005, Cloud Security, que incorpora la tecnología OutbreakShield, la cual protege en tiempo real contra el spam y el malware desconocido, y es G DATA la primera empresa que consideró la computación en la nube para sus productos.

El crecimiento del malvare con la evolución de los dispositivos móviles es vertiginoso. “Es una avalancha”, me dijo el cofundador Figge en una entrevista. Así que, en 2006, la compañía configuró actualizaciones cada hora para proteger ágilmente a los usuarios de las nuevas amenazas. En 2007 presentó TotalCare; en 2008, NotebookSecurity, con back-up y codificación de datos; en 2010, EndpointProtection, para el cumplimiento de las políticas de seguridad empresarial y preservar su información; en 2012, para poner coto a la delincuencia en torno al robo bancario que ha propiciado la banca online, lanzó BankGuard; y en 2013, la tecnología híbrida (con proactividad y firmas) y made in house CloseGap, que reduce el tiempo de reacción frente al malware más reciente.

g data

Placa en un despacho de G DATA - GD

Por otra parte, en todos estos años, la compañía se ha asentado en 90 países del mundo, comenzando por Polonia en 1995. Y con todo el trabajo realizado, el AntiVirusKit se convirtió en el programa de protección antimalware másIPACSO, de la Comunidad Europea, reconoció a G DATA en 2014 como “la empresa de seguridad TI más innovadora” adquirido en su Alemania natal en 2003, la organización de consumidores alemana Stiftung Warentest señaló a InternetSecurity como el mejor programa en su clase en 2005, y el proyecto de la Comunidad Europea IPACSO, que promueve las investigaciones para la defensa de la privacidad y la seguridad de las tecnologías de la información en Europa, reconoció a G DATA en 2014 como “la empresa de seguridad TI más innovadora” y con una gran capacidad de reacción ante las nuevas amenazas.

Siendo así, y ya que las soluciones de G DATA contra los virus resultan mucho menos aparatosas que utilizar los rayos de un disparador nuclear de protones, no es mala idea recurrir a ellas para proteger nuestros amados aparatejos del insidioso malware, tal como llamaríamos a los Cazafantasmas si viviésemos en un mundo de fantasía y algún espectro cargante nos diese la tabarra.

Así es la vida de un jugador profesional de League of Legends

$
0
0
Así es la vida de un jugador profesional de League of Legends

Riot Games produce Legends Rising, un vistazo profundo y certero al día a día de seis de los mejores jugadores del mundo de League of Legends

Los e-Sports son un fenómeno imparable dentro de la industria de los videojuegos. Lo que hace unos años era impensable parece convertirse en realidad paso a paso: centenares de jugadores y equipos profesionales, millones de espectadores, grandes bolsas de premios, etc. Y como aficionado a los videojuegos me apasiona seguir de cerca el crecimiento de todo lo que engloba a los distintos deportes electrónicos, desde FPS como Counter Strike: Global Offensive hasta, obviamente, el todopoderoso League of Legends.

Podrá disfrutarlo cualquier aficionado a los videojuegos, incluso los ajenos a League of Legends

Y si el juego de Riot Games es el baluarte inconfundible e insustituible que es hoy en día lo debe, en gran medida, al trabajo de apoyo y fomento de la cultura competitiva del estudio. Desde la normativa establecida hasta las competiciones oficiales en cada región y el Mundial pasando por documentales y piezas informativas de gran valor como el Legends Rising que hoy nos ocupa. Hablamos de una serie documental de seis capítulos disponible de forma gratuita en Youtube, que nos deja ser espectadores de las vidas de grandes jugadores profesionales de seis regiones distintas: Faker (Corea), Bjergsen (Norteamérica), brTT (Brasil), Uzi (China), xPeke (Europa) y SwordArt (Taiwan) conforman un variado y acertado plantel protagonista.

League of Legends eSports

Si en su momento pudisteis echar un ojo a Free to Play, el documental producido por Valve sobre Dota 2 y su The International, encontraréis algo muy parecido en Legends Rising; más allá de particularidades del juego o de una operación de marketing encubierta, el documental es una pieza de gran valor introspectivo sobre la cotidianidad de algunos de los mejores jugadores profesionales del mundo: qué sienten, qué comen, cómo trabajan, qué piensa su entorno o cómo gestionan la presión son algunos de los puntos que toca un documental impecable a todos los niveles. Grandes momentos son ver a Uzi comprando regalos con su familia, ver discutir a brTT con su madre y abuela por su forma física o ver desde dentro la gestión de la presión por parte de estrellas como Faker o Bjergsen.

En mi caso, sin ser un gran fan de los MOBA, disfruto enormemente este tipo de contenido y su forma transparente de mostrar todo lo que hay en la vida de un jugador de deportes electrónicos: desde la alegría al saberse campeón del mundo hasta el roce de la depresión tras una derrota contundente. En definitiva, un documental imprescindible para todo aficionado a los deportes electrónicos.

¿Cuándo comenzó el calentamiento global?

$
0
0
¿Cuándo comenzó el calentamiento global?

Aunque no parezca importante, esta pregunta y su respuesta son necesarias para esclarecer un hecho cuyas consecuencias podrían ser funestas para la humanidad y el futuro de todo el planeta.

El cambio climático y, en concreto, el calentamiento global sigue siento uno de los temas de más intenso debate. Como ya hemos dicho multitud de veces, cada vez aparecen nuevos datos. Y cuantos más datos, más discusiones hay al respecto. Por desgracia, la mayoría de dichos datos apuntan a una evidencia insalvable de que el cambio climático es un hecho. Pero para entender mejor el cómo y el por qué los científicos han de bucear en sus raíces. ¿Cuándo comenzó el calentamiento global que estamos sufriendo?

Los orígenes del calentamiento global

Para estudiar eventos tan sumamente grandes, los científicos han de recurrir a complejos modelos. Dentro de esos modelos, existen diversos indicadores, señales de lo que estamos buscando. En el caso concreto del calentamiento global es obvio que uno de esos indicadores es la temperatura. Según recientes análisis, el aumento excesivo de temperatura que señala el comienzo del calentamiento global se dio entre los años 40 y los 60. Los datos muestran como las temperaturas asociadas al calentamiento global comienzan a crecer desmesuradamente El calentamiento global comenzó en los años 40, en los trópicos de la Tierraen los trópicos, zonas cuya variación es normalmente menor, y siguen extendiéndose en las siguientes décadas por el resto del mundo.

Actualmente, estas temperaturas y cambios extremos son un ejemplo que indica que existe un cambio climático que está produciendo un calentamiento global. Junto al calentamiento global, suelen aparecer periodos de lluvias extremas. Esta señal es la que suele confirmar que el modelo está funcionando como se espera. En muchos de los lugares afectados por dicho calentamiento ya han aparecido estas modificaciones climáticas graves. Otras, por el contrario, están por llegar en los años venideros. En cualquier caso, el modelo y las mediciones muestran un patrón muy interesante que permitirá saber más sobre cómo comenzó y de qué manera afecta a nuestro planeta.

El gran debate

Con este y otros modelos podemos observar sin lugar a dudas que existe un calentamiento global y un cambio climático. El debate, sin embargo, sigue estando en otro frente. ¿Es el cambio climático una consecuencia de la mano del hombre? O más importante, ¿qué supone esto para el futuro del planeta? El problema de los efectos climáticos es que se producen a una escala difícilmente previsible. Sus consecuencias son, también, imposibles de adivinar. Los trabajos como éste tratan de mejorar los modelos que nos permitan prevenir... los imprevistos, valga la redundancia. Las consecuencias pueden ser gravísimas. Un cambio a nivel global tiene como consecuencia graves cambios locales que suponen la perdida de biodiversidad, paisaje, cosechas, Los datos del estudio coinciden, curiosamente, con los de los informes del IPCCinundaciones, derrumbes y otros desastres que pueden costar muchas vidas. Lo vemos todos los días en las noticias.

Según el IPCC, el mayor panel de expertos sobre el cambio climático, tal y como dieron a conocer en su quinto informe, el calentamiento global y el cambio climático que provoca tiene su origen en el hombre. Según sus datos, el aumento de gases de efecto invernadero es una de las razones de que esté ocurriendo. Los datos, además, coinciden curiosamente en tiempo y lugar con los datos obtenidos por este mismo estudio. Por otro lado, aunque cada vez el consenso es mayor, la gran cantidad de información junto con los intereses particulares de uno y otro bando solo confunden a la gente. Finalmente, todo se mezcla en un cuadro de desinformación muy grave que evita que se tomen medidas efectivas o que se cumplan adecuadamente.

cambio climático

Fuente: Shutterstock.

La cuestión es, ¿estamos ante un hecho pasajero? Desde luego que no. En cualquier caso, tanto si es un hecho natural como si es provocado por el hombre, el calentamiento global está aquí para quedarse y provocar aún más cambios en los ciclos terrestres. Así que, la siguiente pregunta es, ¿podemos hacer algo para mitigarlo? Responder a esta pregunta supone admitir que en parte somos los seres humanos los culpables del cambio climático (o al menos de su aceleración). Por esta razón, muchos científicos, políticos y empresarios prefieren mirar con desdén este tipo de artículos, menospreciando su valor. Pero las evidencias siguen estando ahí. Ahora sabemos un poco más sobre el comienzo del cambio climático. Lo siguiente, tal vez sea comenzar a pensar en lo que ocurrirá después. Y ponernos manos a la obra para solucionarlo.

Cómo es viajar en el primer autobús autónomo de China

$
0
0
Cómo es viajar en el primer autobús autónomo de China

Esto no es un simple proyecto, es un autobús con pasajeros dentro circulando como cualquier otro coche en la carretera, pero sin requerir un conductor al volante.

Los coches autónomos son uno de los temas calientes del año, pero solemos quedarnos en los prototipos y las regulaciones del futuro. En China la cosa es diferente y los conductores de autobús podrían tener menos carga laboral dentro de poco. Yutong, fabricante de autobuses en la ciudad de Zhengzhou logró transportar a varios pasajeros de forma autónoma en un recorrido, entre coches tradicionales, de 32 kilómetros superando su primera gran prueba.

Según la compañía el vehículo pasó a través de 26 semáforos, realizó cambios de carril y circulo al lado de varios vehículos como cualquier trayecto convencional, pero sin dos manos en el volante. Llegó a una velocidad máxima de 68km/h cifra acorde al resto de vehículos y diferente a muchos prototipos que circulan a velocidades mucho más lentas.

Tres años de investigación, desarrollo e implementación han servido a Yutong con la ayuda de varios expertos a desarrollar el que denominan primer autobús autónomo del mundo.

Su sistema de conducción inteligente depende de tres partes, tal y como cuenta la empresa: el sistema inteligente de control maestro, los sensores inteligentes y el sistema de control. Las tres partes actúan respectivamente como el cerebro, ojos y oídos del autobús, trabajando en extrema coordinación para que el vehículo realice cualquier operación sin movimientos impropios de un conductor humano.

En el sistema de sensores encontramos un radar láser que identifica objetos a tiempo real y cuatro cámaras, una a cada lado del vehículo. Gracias a esa visión el control maestro acelera, frena, gira y se detiene ante las señales y los otros vehículos.

Los láseres son los encargados de detectar rápidamente riesgo de colisión y adoptar las medidas más apropiadas al control de conducción, intentando minimizar los riesgos. En este caso los riesgos de accidente son mucho más bajos que en un coche normal, ya que no hay puntos muertos ni distracciones al volante además de que los tiempos de reacción de un ordenador siempre son más veloces que los de una persona.

Hay muchos prototipos y proyectos autónomos ya funcionando, pero no suele ser habitual verlos con pasajeros dentro y en una carretera rodeado de coches circulando.

La espiral del silencio: cómo una opinión puede dominar una sociedad

$
0
0
La espiral del silencio: cómo una opinión puede dominar una sociedad

¿Alguna vez te has preguntado cómo ciertas tendencias políticas o planes masivos llegan a implementarse cuando son un despropósito evidente? La ciencia política tiene la explicación.

La teoría de la espiral del silencio surge en 1977, propuesta por la politóloga alemana Elisabet Noelle-Neumann. La teoría explica la forma en la que la opinión pública funge como forma de control social, al plantear que las personas adaptan su manera de comportarse a las opiniones predominantes en su contexto social sobre cuáles conductas son o no aceptables. Esta conducta tiene su origen a nuestro natural temor al aislamiento, que podría darse si expresáramos opiniones percibidas como minoritarias, razón por la cual los individuos estamos constantemente "sondeando" el clima de la opinión pública para determinar qué opiniones podemos expresar.

La llamada "espiral", entonces, es la figura que se dibuja a medida que aquellos que tienen posiciones minoritarias son enmudecidos, y las opiniones percibidas como mayoritarias aumentan y se vuelven dominantes. Existe, sin embargo, lo que se denomina como "núcleo duro", esto es, algunos individuos que al ser presionados reafirman y persisten en sus opiniones.

Silencio entre el ruido

Esta teoría nace a partir del estudio de circunstancias históricas como la Segunda Guerra Mundial, y se fortalece en los años ochenta, a raíz del posicionamiento de la televisión como un factor influyente en la formación de la opinión pública.

Al darse la discusión en torno al rol de los medios de comunicación en general, y de la televisión en particular, en la construcción de la opinión pública, se determinó que éstos no sólo servían como medio de transmisión de estas opiniones, sino que podían actuar como determinantes de qué matrices de opinión eran percibidas como mayoritarias. De este modo, más importante que la verdadera condición de mayoría, es la percepción de la misma, ya que si una mayoría se considera minoría, tenderá a declinar o decaer, mientras que si sucede a la inversa, esta minoría irá en aumento.

espiral del silencio

"Silence" por Patrik Theander, bajo licencia CC BY SA 2.0.

En consecuencia, los medios de comunicación generan un entorno que puede desencadenar actitudes de discusión, de sumisión o de silencio, ya que al ser los mecanismos empleados por la sociedad para informarse, serán también los espacios a los que acudirá para construir sus opiniones en torno a determinado tema, y para determinar si una opinión es dominante o minoritaria. De este modo, la exposición u ocultamiento de los medios de determinadas opiniones puede alterar la forma en que éstas son percibidas por el público.

Dar a conocer conductas que transgreden normas sin condenarla o censurarla contribuye a hacerla más adecuada, más aceptable socialmente, ya que los individuos que reciban esta información pueden ver que dicha conducta ya no acarreará consecuencias de aislamiento social, lo cual debilita el cumplimiento de la norma en primer lugar.

La teoría de Noelle-Neumann señala que éste es el origen de las conductas de no intervención incluso en casos masivos de agresión o violencia, que son percibidos como una conformidad generalizada por parte de la población, de un modo que obstaculiza cada vez más la expresión de posiciones contrarias o disidentes. Similarmente, otros estudios han analizado el surgimiento del llamado "pensamiento de grupo", el fenómeno psicológico que explica que un grupo de personas tomará decisiones irracionales o disfuncionales en su búsqueda por la armonía o conformidad dentro del grupo. Los miembros del grupo, así, intentan minimizar el conflicto y alcanzar un consenso sin evaluar de manera crítica las alternativas, suprimiendo y aislando a los miembros que disienten.

Es así como es posible, contando con los mecanismos suficientes para hacer que una opinión o conducta sea percibida como mayoritaria a pesar de ser, realmente, minoritaria, imponerla como la norma y generar una aceptación predominante por parte de grupos sociales que están fundamentalmente en desacuerdo, pero que sumidos en la espiral del silencio, callan y aceptan, pensándose minoría.

Viewing all 20117 articles
Browse latest View live




Latest Images