Quantcast
Channel: Comentarios en: Alemania bate el récord de producción de energía solar: el 50% de la demanda eléctrica en un día
Viewing all 20117 articles
Browse latest View live

Street Fighter V se queda sin beta por culpa de los servidores

$
0
0
Street Fighter V se queda sin beta por culpa de los servidores

Por recurrentes problemas en sus servidores, Capcom ha anunciado la cancelación de la primera fase beta de Street Fighter V

Hemos hablado largo y tendido sobre Street Fighter V durante las últimas semanas. Nunca he sido un gran fanático de los juegos de lucha pero cada lanzamiento de la franquicia es un momento histórico para los videojuegos y en lo que a esta quinta entrega respecta, mis expectativas están por las nubes. Es por todo esto que tenía unas increíbles ganas de probar la primera fase beta del título, anunciada por Capcom y Sony hace más de dos meses. Beta que después de innumerables problemas se ha visto pospuesta de forma indefinida.

A la restricción regional le siguió la suspensión del servicio y, ahora, el retraso indefinido

La madrugada del jueves al viernes (horario peninsular) debía ser el punto de salida del primer test público de uno de los juegos más esperados del próximo año. Y si hablo en condicional es porque desde el mismo inicio no cesaron los problemas. Han sido muchas las situaciones parecidas en multitud de juegos y, pese a estar en pleno 2015, solemos dar manga ancha durante las primeras horas. El gran problema vino cuando incluso días después el juego ha podido ser disfrutado por solo unos pocos afortunados.

De hecho, lo más común es que hayas pasado horas y horas en una pantalla de inicio que era prácticamente imposible saltar. Así, debido a problemas de carga de servidores, desde Capcom decidieron restringir el terreno de la beta a Norteamérica con lo que desde el mismo viernes todo aquel fuera del territorio perdía cualquier opción de disputar una partida. Pese a ello, los problemas no hicieron más que repetirse y salvo varias horas del sábado, el juego fue prácticamente inaccesible. Asimismo, la compañía nipona tomó la decisión de suspender el servicio durante el día de ayer y, de nuevo, durante el día de hoy.

Por último, hace escasas horas se ha comunicado la decisión de posponer la primera fase beta a una fecha por determinar pero que, vista la magnitud del problema, parece lejana. Eso sí, se ha confirmado que siguen siendo tres los tests públicos que quedan por realizar y que, de algún modo, todos los usuarios que hubieran obtenido un código para acceder a esta primera prueba se verán recompensados cuando el título llegue a las tiendas.

Con todo, sorprende que gigantes como Capcom y Sony (recordemos que Sony ha colaborado en el desarrollo y que esta primera prueba pública era exclusiva de su plataforma) hayan sido incapaces de estar a la altura de las expectativas. Es preocupante, cuanto menos, que una inmensa mayoría de los interesados, entre los que me incluyo, no hayan podido pasar de la pantalla de créditos. Capcom tiene mucho trabajo por delante.


Mantén actualizadas todas tus aplicaciones en Windows con esta simple herramienta

$
0
0
Mantén actualizadas todas tus aplicaciones en Windows con esta simple herramienta

Con la herramienta gratuita Patch My PC puedes descargar y actualizar aplicaciones en Windows de forma automática y desatendida.

Una de las herramientas más útiles que me he conseguido jamás para utilizar en cualquier PC con Windows, es Ninite. Es magnifica porque me orfece una manera rápida y segura de descargar aplicaciones gratuitas en Windows sin temor a instalar nada raro ni peligroso, además que el proceso es completamente desatendido y no tengo que abrir dos docenas de páginas web para descargar cada programo que uso, especialmente cuando se trata de una nueva instalación de Windows o de una PC nueva.

Por mucho tiempo creí que Ninite era la mejor opción de este tipo, y luego conocí Patch My PC que hace básicamente lo mismo, pero es bastante superior.

¿Qué es Patch My PC?

actualizar aplicaciones en windows

Creada especialmente para manejar parches y actualizaciones en masa, y mantener múltiples equipos a la vez, Patch My PC es una solución perfecta para quienes realizan soporte técnico en empresas o instituciones que tienen muchos PCs. Pero, también es ideal para usuarios individuales que necesiten una herramienta para descargar y mantener actualizado todo el software de terceros que utilizan en su ordenador con Windows.

Patch My PC es gratuito para uso personal contiene más de 100 programas en su lista y utilizarlo es extremadamente sencillo. Solo necesitas descargar el instalador desde la web oficial, y al ejecutarlo por primera vez recibirás un informe con todas las aplicaciones que ya tienes instaladas, cuáles están al día, y cuáles necesitas actualizar. También puedes elegir programas adicionales que no tengas e instalarlos de una vez simplemente marcando la casilla correspondiente.

actualizar aplicaciones en windows

Esta herramienta también te deja programar actualizaciones diarias, semanales, mensuales, o en el intervalo de tiempo que prefieras. Puede elegir si se ejecutará automáticamente y de forma silenciosa, si incluir las actualizaciones de Windows Update o no, crear excepciones de aplicaciones que no quieres que se actualicen, desinstalar programas, reiniciar el sistema después de las actualizaciones, evitar que ciertas apps te creen accesos directos en el escritorio, crear puntos de restauración antes de cualquier update, etc. Es sumamente completo y un indispensable que no puede faltar en tu vida.

Patch My PC pesa unos 500kb y es completamente portable, por lo que puedes llevarlo en un pendrive a cualquier lado. Es compatible con Windows XP y todas las versiones posteriores.

El primer ordenador de Apple

$
0
0
El primer ordenador de Apple

Steve Wozniak fue el encargado de crear el que sería considerado como el primer ordenador de Apple. No sería Steve Jobs, ya que éste se encargaría de vender el producto y empezar a comercializarlo el 1 de julio de 1976 por 666.66 dólares.

Así, Apple I supuso una innovación en lo que a las computadoras se refiere. Parece que ya por entonces, la filosofía de la empresa era la de integrar diferentes tecnologías en un solo dispositivo para así facilitar su uso. Por ello, el primer ordenador diseñado por Wozniak permitía cómodamente unir un monitor de TV con el teclado, algo que difería del resto de ordenadores creados hasta ese momento. Como mencionan en computadorasmac, sus características son las siguientes:

  • CPU Moz Technology 6502 a una velocidad de 1.023 MHz.
  • 4 Kb de memoria RAM, expandible a 8 Kb.
  • Puertos para teclado ASCII estándar y para cualquier tipo de monitor (un televisor, por ejemplo).
  • Memoria ROM de 256 Kb.
  • Soportaba gráficos de 40x24 caracteres, con scrolling automático.

Actualmente es un artículo muy ansiado por los coleccionistas, el cual incluso ha alcanzado los 50.000 dólares en las subastas. Sin embargo, tal y como señalan en el New York Post, algunas personas pueden llegar a confundirlo con un trasto que acumula polvo en el desván.

Créditos: Ed Uthman

¿Por qué no debes fiarte de todos los reportajes científicos?

$
0
0
¿Por qué no debes fiarte de todos los reportajes científicos?

A veces no entendemos por qué si leímos hace varios años un artículo que decía que ya se había encontrado una cura para tal o cual enfermedad, aún esa "cura" no está disponible para el común de las personas. No siempre se trata de que las empresas farmacéuticas son malas y no quieren evitar las enfermedades, sino que tiene que ver con el quehacer científico y la forma en que se expone a través de artículos para el público general.

No es extraño ver en las noticias de nuestra página favorita un reportaje sobre el último hallazgo científico, en muchas ocasiones con títulos rimbombantes que presentan estos descubrimientos como grandes avances en la construcción del conocimiento y con la promesa de la revolución de la ciencia como la conocemos, sin embargo, la ciencia raramente funciona de esa manera. No todos los títulos son confiables, y no todos lo hallazgos científicos son tan reales. Debes aprender a leer entre líneas y saber que no debes fiarte de todos los reportajes científicos.

Entendiendo el método científico

Hacer ciencia es un proceso lento, aburrido y metódico. Un investigador pasa más tiempo leyendo sobre su tema de estudio, analizando datos en su computadora y redactando un paper científico que lo que pasa en un laboratorio haciendo experimentos. Cuando un investigador da con un hallazgo científico importante esto es en realidad el primer pasó en una larga travesía metodológica que en el círculo científico se conoce como replicabilidad.

La replicabilidad es en pocas palabras, la posibilidad de que un descubrimiento pueda ser reproducido en distintos contextos; de modo que si un estudio revela en Singapur que la enzima de una planta es un tratamiento viable para una enfermedad, este hallazgo no significa nada hasta que pueda ser reproducido en otros laboratorios en el mundo. Contrario a la creencia popular, la ciencia no es perfecta, y los investigadores son seres humanos capaces de cometer errores, por ejemplo, uno de los errores más comunes en la ciencia es el sesgo de publicación. Esto quiere decir, que las revistas científicas suelen preferir publicar artículos en donde se compruebe algo. Cuando los resultados no son concluyentes, un artículo tiene menor probabilidad de ser aceptado, y esto lo saben los científicos, por lo que en muchas ocasiones hacen omisiones inconscientes en su metodología que conducen a la obtención de resultados que no necesariamente son verdaderos o concluyentes.

Fotografía: www.BillionPhotos.com - Shutterstock

Fotografía: www.BillionPhotos.com - Shutterstock

En el caso del ejemplo de la medicina de Singapur, quizás la población de ratones que utilizaron provienen de una misma línea genética que es susceptible a dicha droga, pero que no necesariamente tienen el mismo efecto en otras familias de ratones, o quizás el efecto es imposible de replicar en primates (monos), sin embargo, el investigador omite esto por la emoción de saber que su trabajo va a ser reconocido internacionalmente (consciente o inconscientemente), y publica un trabajo lleno de aseveraciones a medias. La solución a esto es que en la medida que otros científicos encuentran el mismo resultado una y otra vez a lo largo y ancho del mundo, el hallazgo se corrobora y la teoría comienza a ganar fuerza.

Un ejemplo triste de esta falta de ética a la hora de publicar resultados de una investigación está relacionada con las vacunas como causa del autismo en niños. Andrew Wakefield publicó en The Lancet, una prestigiosa publicación científica, un estudio en el que aseveraba haber demostrado que la vacuna triple causaba autismo. Esto llevó a que miles de personas dejaran de vacunar a sus hijos y que enfermedades que habían sido erradicadas, volviesen a aparecer, en numerosos casos con fatídicas consecuencias. Años después, se demostraría que Wakefield habría maquillado los resultados de su investigación.

Una de las características de la ciencia es la exactitud, (los mayores pueden recordar la sonda a marte que se estrelló en el planeta por no hacer una conversión de kilómetros a millas), así que repetir una y otra vez los experimentos permiten a los científicos detectar las omisiones hechas por otros o encontrar los casos en los que una hipótesis no se cumple, de modo que, en la medida en que más científicos intentan desmentir un hallazgo este irónicamente se corrobora y es aceptado por la comunidad científica (esta es una versión algo simplista de la filosofía falsacionista de Karl Popper).

Solamente después de que una teoría ha podido ser comprobada una y otra vez en laboratorios es que podemos comenzar a decir que estamos frente a un hallazgo científico de gran envergadura, el problema es que es poco emocionante leer en un periódico: “se ha comprobado por millonésima vez que la gravedad funciona”; en la prensa se busca dar noticias frescas, del momento, revolucionarias, que nos dejen boquiabiertos, pero la ciencia es un proceso que lleva su debido tiempo. Por supuesto que podemos emocionarnos por una cura milagrosa, pero siempre teniendo presentes que ese es solo un paso en un largo camino que eventualmente llevara a cambios en nuestra sociedad.

El problema de la causalidad y la correlación

El segundo problema es que en muchos casos, las personas que reportan hallazgos científicos son entusiastas de la ciencia mas no científicos, en este sentido, muchas veces no están familiarizados con el lenguaje de la ciencia y hacen aseveraciones que no necesariamente coinciden con el hallazgo hecho por investigadores, esto se refleja típicamente en la confusión entre causalidad y correlacion, algo extremadamente común en los estudios de ciencias sociales.

Imagen: isak55 - Shutterstock

Imagen: isak55 - Shutterstock

La causalidad es la determinación de que un evento X antecede y produce un evento Y, por ejemplo, si tengo hambre, me como una hamburguesa y siento satisfacción, puedo decir entonces que la relación entre comer hamburguesas y la satisfacción del apetito es causal (Si como hamburguesas entonces me siento satisfecho). Por otro lado la correlacion es la determinación de que dos eventos ocurren a la vez, o en periodos de tiempo relativamente cortos entre el uno y el otro, pero que no necesariamente existe causalidad entre ellos, por ejemplo, si una investigación encuentra correlacion directa y positiva entre el nivel de felicidad de una pareja y la cantidad de infidelidad de la relación, esto quiere decir que las parejas más infieles suelen ser más felices, pero eso no quiere decir necesariamente que la infidelidad haga más feliz a las parejas, otra explicación podría ser que las parejas más felices suelen tener ciertas características que también las hace más infieles.

Ahora, ¿se acuerdan que dije que la ciencia es exacta?, bueno, lo que eso quiere decir es que para que un científico pueda concluir que la hamburguesa es lo que produce satisfacción debe meticulosamente controlar el ambiente en donde la persona come hamburguesas, para asegurarse que no sea absolutamente nada más (la iluminación del cuarto, la presentación del plato, la cantidad de comida) lo que produce el sentimiento de estar satisfecho, esto es lo que se conoce como control experimental, y es la razón por la que tenemos laboratorios (no, no es sólo para aislar a los científicos locos). Obviamente, existen estudios de campo y no experimentales, pero eso llevaría demasiado tiempo explicar, por ahora lo importante es entender que los científicos tratan de controlar tantas condiciones como sean posible.

Cuando los reportajes científicos confunden un estudio causal (esto produce aquello) con un estudio correlacional (esto y aquello pasan a la vez) el resultado puede llegar a ser risible. Los pastafarians se burlan precisamente de esto publicando un artículo que demuestra que el incremento del calentamiento global se debe a la disminución de piratas en el mundo. Y si agarramos los datos (la temperatura promedio anual de los últimos dos siglos y el promedio anual de ataques de piratas en esa misma epoca) y hacemos una correlacion estadística, efectivamente, encontramos que el aumento del calentamiento global esta correlacionado inversamente (cuando uno sube el otro baja históricamente) con la cantidad de ataques de piratas, pero nadie en su sano juicio diría que uno causa el otro.

Ese tipo de error lógico es lo que vemos día a día en las noticias cuando el reportero de turno nos dice “las personas de color son más propensas a infartos” o “el tamaño del pene determina el nivel de inteligencia”. Mi querido reportero, para que eso pueda aseverarse, el investigador debe hacer lo siguiente: 1) Agarrar una muestra aleatoria de hombres, 2) separarlos en dos grupos al azar, 3) medirles la inteligencia, 4) a uno de los grupos se le hace una operación para agrandarles el pene, 5) y luego se les pasa otra prueba de inteligencia a ambos grupos para comparar (esto es un ejemplo del control experimental).

Es un periodismo poco ético que se enfoca en la cantidad de clics que puede generar un artículo y no en la veracidad de lo que dice.
Por supuesto, el lector astuto dirá, “pero claro que eso no va a funcionar, quizás lo que pasa es que hay un factor genético que predispone a una cierta longitud de pene y a un cierto nivel de inteligencia”, a lo que le respondería que ese es exactamente el punto, no es el tamaño del pene lo que determina la inteligencia, es un gen que determina ambas cosas, y no necesariamente todas las personas tienen el pene grande o la inteligencia alta gracias a ese gen, (si ese fuese el caso, las mujeres estarían en problemas ¿no?), o incluso si el hombre llegase a tener ese gen, quizás no se exprese por alguna razón, pero por supuesto que es más atractivo hablar de penes e inteligencia que explicar como un mismo gen podría estar influyendo en ambos factores, es un periodismo poco ético que se enfoca en la cantidad de clics que puede generar un artículo y no en la veracidad de lo que dice.

Ahora, es cierto que en la última década la comunidad científica ha comenzado a aceptar que los estudios correlaciones si pueden apuntar a un cierto grado de causalidad, pero aun así, estos estudios aun no son considerados como determinantes, y siempre será preferible un estudio causal (lo que en algunos casos es imposible debido al grado de control y las circunstancias que estos requieren).
En último caso, la moraleja de este artículo es que es necesario ser cauteloso con los reportajes científicos, porque aunque una persona se haya curado de cáncer mientras tomaba jugo de limón, eso no significa que el limón se acaba de convertir en un alimento milagroso.

El metal ya no será un problema para la carga inalámbrica de dispositivos

$
0
0
El metal ya no será un problema para la carga inalámbrica de dispositivos

Qualcomm Technologies ha anunciado hoy ser la primera empresa en desarrollar una tecnología de carga inalámbrica para dispositivos de cuerpo metálico.

Qualcomm, junto a Samsung fueron los fundadores original de la Alliance For Wireless Power (A4Wp), que desarrolló el estándar de comunicación de resonancia magnética de campo cercano denominado "Rezence". Este estándar está apoyado por Intel o Powermat entre otros.

Han desarrollado su propia implementación del estándar, WiPower, que puede cargar incluso dispositivos metálicos, algo que no podía ser posible con otras tecnologías de carga inalámbrica hasta ahora. Más y más dispositivos están adoptando el aluminio como uno de los principales argumentos de diferenciación en la gama alta.

"Poder crear una solución de carga inalámbrica para dispositivos con cuerpo metálico es un paso significativo para mover a toda la industria," aseguró Steve Pazol, Director General de la división de carga inalámbrica de Qualcomm Incorporated.

Este avance mantiene la capacidad actual de WiPower para cargar dispositivos que requieren hasta 22 vatios de potencia, a una velocidad igual o superior en comparación con otras tecnologías de carga inalámbrica.

El estándar WiPower está completamente soportado por el Snapdragon 810, por lo que tal vez veamos una implementación así antes de que acabe el año.

¿Algunas startups no quieren decir que ya han alcanzando su mayoría de edad?

$
0
0
¿Algunas startups no quieren decir que ya han alcanzando su mayoría de edad?

Todos tenemos la crisis de los 18, de los 25, de los 40 o 60... Pero también algunas startups tienen pánico a la hora de alcanzar su mayoría de edad y siguen llamándose así pese a haber pasado el umbral hace bastante tiempo.

Casi a diario nos encontramos con noticias de aceleradoras que buscan un sin fin de startups para su nueva etapa de financiación, concursos o incubadoras. De hecho, es casi imposible afirmar cuántas de este tipo de empresas existen ahora mismo en España, o en el mundo, ya no solo porque hay muchas que definiéndose como startups como un recurso de moda no lo son ni de cerca, también porque la esperanza de vida de estas es bastante corta y difusa.

Sin embargo, y ajustándonos a la definición más pura para catalogar a esta especie, la pregunta es: ¿Cuándo deja una startup de ser una startup? En primer lugar, se podría decir que estas alcanzan una mayoría de edad cuando se llega al break-even point, o cuando gasta lo mismo que ingresa, sin más. También existe la teoría de que dejan de serlo cuando la mayor parte de los empleados trabaja más de 8 horas y media, que las ideas vienen de nuestra competencia mas directa, o que los jefes ya van por libre respecto a sus trabajadores. Que la empresa pase a cotizar en bolsa o que sea absorbida por un pez más gordo. Y la teoría que sin duda es clave: cuando la empresa ha contratado una o varias secretarias... Desde luego hay opciones para todos los gustos.

¿Siguen siendo Facebook o Google startups?La catalogización desde un punto de vista teórico es muy bonita, y posiblemente necesaria. Sin embargo, vayamos un poco más lejos. Ya hemos dicho que muchas empresas se anuncian a los cuatro vientos como startups sin serlo porque queda cool, puede que incluso sirva para vender más y tener una carta de presentación mucho más innovadora, pero la cosa va más allá. ¿Podría ser que muchas no quieran dejar de serlo? Y no nos referimos a su facturación, ya que todas quieren tener beneficios, hablamos desde un punto de vista afectivo. Haciendo un símil: es como cuando un niño se hace mayor, pero a ojos de sus padres sigue siendo pequeño, o un hermano menor siempre lo será para nosotros. Si una startup nació así, lo más probable es que lo sea toda su vida por el mero hecho de haberse llamado así desde un principio.

Pongamos un ejemplo práctico, Google o Facebook, empresas que cotizan en bolsa y que mueven millones de dólares a cada segundo, empezaron como startups hace ya algunos años. Una en un garaje y la otra en los cuartos de una universidad, pero ambas de la mente brillante de jóvenes que supieron usar la tecnología para revolucionar el mundo. ¿Son ahora startups? Pues, obviamente por su tamaño y estructura no lo son, de hecho son hasta multinacionales muy rentables, pero siguen teniendo ese espíritu creativo. Aquí ya entra a jugar una dimensión más emocional, en la que hay que valorar muchos factores.

De hecho, una teoría bastante sólida podría ser que, tanto los clientes como los creadores, quieren huir de la definición encorsetada y perversa de las empresas multinacionales tradicionales: poco cercana a sus usuarios, con espíritu de monopolización, grandes imperios económicos... que muy poco o nada venden al publico y de aspecto un tanto "viejuno". Lo que si es cierto que sí seguimos a este ritmo tendremos un sistema empresarial dominado por startups, multinacionales, eso si...

Así que tenemos dos opciones, una teórica o una emocional. ¿Cuál es la válida?

El gobierno de Perú podrá rastrear tu teléfono sin orden judicial

$
0
0
El gobierno de Perú podrá rastrear tu teléfono sin orden judicial

En una maniobra que atenta contra la libertad a la privacidad, el gobierno de Perú decreta que podrá rastrear tu teléfono sin necesitar una orden judicial.

En una maniobra digna de novela orwelliana, el gobierno de Perú ha dado un duro golpe a la privacidad de los usuarios de smartphones y teléfonos, ordenando desde lunes pasado a las compañías de telecomunicaciones establecidas en el país latinoamericano que le concedan acceso a las ubicaciones de teléfonos de usuarios en tiempo real, así como a metadatos que podrán decir dónde estás a una determinada hora y con quién estás hablando, como hemos podido ver a través de El Nuevo Herald. Sin embargo, el verdadero atentado contra la privacidad se debe a que la policía no necesitará una orden judicial para acceder a dichos datos, con lo que potencialmente expone a cualquier usuario que lleve consigo un teléfono.

Este nuevo decreto atenta a todo lo que conocemos como derecho a la privacidad, y debe ser derogado cuanto antes.De hecho, sabiendo el gobierno que sería una maniobra altamente impopular, aprovechó para publicar el decreto en un día de fiesta nacional para no atraer la atención del público, además de no haber sido debatido en el Congreso, debido a que fue aprobado mediante poderes legislativos especiales otorgados recientemente al gobierno de Perú. Además, según el decreto aprobado por el gobierno del presidente Humala estos datos estarán disponibles para la policía hasta un máximo de tres años, todo ello mediante la excusa de "luchar contra el crimen organizado en un país plagado del mismo", algo que en ningún modo justifica la severidad de este nuevo decreto del gobierno de Perú.

Obviamente, los activistas a favor de la privacidad y el abuso de datos se han puesto en pie de guerra, y han tildado la nueva medida del gobierno peruano de "inédita en la historia a la hora de violar la privacidad de los usuarios". Esto se debe a que, aunque se necesita una orden judicial para escuchar las conversaciones, la policía ya tiene el dato, como afirma el defensor de derechos civiles Erick Iriarte, una policía acusada en repetidas ocasiones de corrupción, por lo que muchos están preocupados de qué ramas de la policía de Perú podrán acceder a esa información. Veremos qué pasa con este decreto, pero de no poder hacer nada los ciudadanos de Perú para hacerla retroceder, será otro triste capítulo en la historia de atentados contra las libertades civiles.

Wayward Pines, ¿arte o delito?

$
0
0
Wayward Pines, ¿arte o delito?

Hablamos sobre la primera temporada de Wayward Pines, una de las series que Fox ha estrenado este año y que no ha dejado a nadie indiferente.

Seguro que te has visto más de una vez en la situación en la que intentas recomendarle una serie o una película a alguien, pero no puedes decirle realmente de qué va porque entonces le estropearías todo el argumento y la magia de verla. Bueno, algo así sucede con Wayward Pines, la serie que Fox estrenó a mediados de mayo y que, tras diez episodios, recién terminó la semana pasada.

No vamos a hacer ningún spoiler de la trama, pero comentaremos los elementos de la serie que pueden servir para convencerte a verla o para pasar completamente de ella.

Bienvenido a Wayward Pines, donde el paraíso es tu casa

Esta es, resumidamente, una de las primeras secuencias de la serie:

wayward pines primera escena

La premisa es: Ethan Burke (encarnado por Matt Dillon), un agente del Servicio Secreto de Estados Unidos que tiene la misión de investigar la desaparición de dos agentes compañeros que fueron vistos por última vez en la pequeña ciudad de Wayward Pines, Idaho. De repente, se despierta después de un accidente de coche y aparece en las calles de Thriller, misterio, ciencia ficción. Todo en unola ciudad desorientado y magullado. Acude a una posada para llamar por teléfono a sus superiores y a su familia, pero no lo consigue. Cuando intenta abandonar la ciudad, tampoco puede hacerlo por motivos que no compartiremos ahora. Tras pasar resignado unas horas en la ciudad, descubre el cadáver de uno de los agentes que venía a buscar y, con él, empieza a conocer las retorcidas reglas por las que la ciudad se rige y a la persona que se encarga que la ley se cumpla, un shérif que no tiene problemas en ejecutar públicamente a cualquier persona que intente escapar o que traicione al pueblo. A partir de aquí, la historia toma inercia y no para hasta el último episodio.

Lo bueno

  • Misterio e intriga. Los primeros capítulos están llenos de suspense. En todo momento tienes la sensación de que hay algo raro en la ciudad, como si hubiera algo escondido. Y, de hecho, una de las mejores cosas que tiene es que vas descubriendo poco a poco, con cuentagotas, una serie de detalles que abren todavía más posibilidades y que te dejan más intrigado. Mientras tanto, se nos van presentando los personajes principales, que son otro de los puntos fuertes.
  • Personajes sobreactuados, pero muy apropiados para la ambientación. La impavidez del hijo de Ethan, la enfermera loca que parece sacada de una película de terror o el propio Ethan, el cowboy americano que se siente el héroe hipermasculinizado que va a solucionar todo, son solo varios ejemplos de unos arquetipos muy fuertes dentro de los personajes principales, pero que funcionan bien junto a la oscura y tenebrosa ambientación. Por momentos, tienes la sensación de estar viendo una película de miedo; en otros parece novela negra y, finalmente, en otros parece un thriller. Y tú sigues igual de despistado que al principio.
  • Fotografía e iluminación. Aunque no tiene una estética 100% reconocible como sucede en 300 o Sin City, sí tiene un tratamiento muy característico de la luz, que siempre se muestra muy tenue y con predominancia de los tonos fríos. La oscuridad (y la inteligencia a la hora de iluminar solo determinados puntos), la penumbra y un sol que parece muy frío juegan un papel tan importante como los personajes o la propia trama. Intenta verla a toda la calidad que puedas. Merece la pena.
  • Puntos de giro brutales. Si te gustan las historias que van a más, entonces Wayward Pines tiene lo que buscas. Tiene unos cambios de guión que te dejarán con la boca abierta y te aseguro que no te esperarás en absoluto qué va a ser lo siguiente que va a pasar. Y lo mejor es que siempre encuentran el mejor momento para dar ese punto de giro, ese aspecto que, cuando conoces, te deja así más o menos:

gato omg

Lo malo

  • Verosimilitud. En lo que también se conoce como suspensión de la incredulidad (suspension of disbelief) es en lo que más fallos le veo a la serie. Teniendo en cuenta que con el paso de los minutos va adquiriendo un componente mayor de ciencia ficción, es muy importante que atrape al espectador y que establezca unas normas para que este acepte que lo que está viendo es totalmente inventado, pero a la vez se meta en el papel. Y aquí es clave que no haya distracciones, que no haya nada que te rechine. El problema de Wayward Pines es que tiene elementos de argumento muy fuertes (fuertes en el sentido de hardcore) y te los muestra sin preaviso, como si fueran así porque al guionista le dio por ahí, porque le apetecía sin más. Se echa en falta algo más de contexto, algo más de sutileza a la hora de plantear según qué situaciones y, sobre todo, un mayor cuidado a la hora de presentarte unos hechos muy improbables que no te queda más remedio que creer para no perder interés en el resto de la serie.
  • Poca profundidad. Al principio se comentó que habría seguro una segunda temporada (algo que no sé cómo es de tangible teniendo en cuenta que la serie es una adaptación de la trilogía de novelas Wayward Pines de Blake Crouch), pero Fox lleva ya un tiempo manteniendo un silencio algo sospechoso. Eso explicaría que no se profundice tanto en unos personajes muy interesantes y que darían mucho de sí, o que la trama se acelere demasiado en los últimos episodios, tanto que no te da tiempo a digerir ESE final (que no contaremos, claro). Se une también con lo que hemos comentado sobre la verosimilitud en el punto anterior.
  • Hechos totalmente prescindibles. Hay un momento en la serie en el que un personaje se asoma desde un sitio y recibe un golpazo enorme de una piedra que, casualmente, caía por ahí. Es una acción que se toma como detonante para algo que pasa después, pero es un momento tan absurdo que rompe todo el clímax de lo que estaba pasando. Y sí, hay alguno que otro más en tan solo diez episodios. Una de dos, o hay guionistas graciosos, con poca creatividad o las dos cosas. O en realidad sucede así en los libros y entonces hay que culpar al autor, Blake Crouch. Pero, por favor, si quieres meter un guiño o hechos azarosos, intenta que no rompa la credibilidad de lo que estás mostrando.

Veredicto

Haciendo balance, he disfrutado viendo la serie, pero hay que reconocer que la primera mitad te atrapa mucho más que la segunda, en la que ya sabes ciertas cosas que, con lo malo y lo bueno que hemos comentado, la convierten en un producto con unos altibajos demasiado pronunciados. Peca de inconsistente en ciertas ocasiones (eso es malo, casi delito), aunque la trama es bastante sorprendente y creativa (arte). El final sienta las bases para una segunda temporada en la que pueden pasar muchas cosas así que, en general, recomendaría verla si estás cansado de las típicas series de siempre.


Las virtudes y carencias del OnePlus Two

$
0
0
Las virtudes y carencias del OnePlus Two

Ya está aquí el nuevo OnePlus Two, un terminal que mantiene de su predecesor las especificaciones de gama alta a un precio menor pero, ¿es oro todo lo que reluce?

En la pasada madrugada española la compañía comandada de Pete Lau presentaba el OnePlus Two, su nuevo smartphone que viene siguiendo las líneas marcadas por su predecesor del año pasado. Pero ya vimos que el OnePlus One no estaba carente de problemas, y aunque el OnePlus Two es (en papel) un fantástico terminal a un precio bastante competitivo, sigue sin justificar algunas de sus carencias. Por ello, repasemos lo bueno y lo malo del OnePlus Two, y veamos si es una auténtica ganga para nuestra cartera o sigue cayendo en errores que debería haber corregido.

Virtudes

USB Type C

Fuente: quickresponsecode

Fuente: quickresponsecode

Una aclaración antes de empezar: aunque una de las mejoras introducidas en el recientemente presentado Android M era el soporte nativo de Carga Rápida en conectores de carga USB 3.1 Type-C, en este caso el conector del OnePlus Two no es USB 3.1, sino que únicamente es con conector reversible. No obstante, es de agradecer la inclusión de este tipo de conectores de carga, para ir facilitando y acostumbrando a los usuarios a lo que debería ser el futuro de conectores en terminales móviles y en el panorama general.

Mejores materiales

OnePlus

Con un marco y soporte hecho de una aleación de aluminio, OnePlus ha aprendido para su nuevo terminal que los materiales premium es algo crítico si quieren dar la apariencia de un terminal de gama alta. También nos gustan las carcasas StyleSwap que ya vimos en el OnePlus One, trayendo materiales mundanos como plástico antideslizante a más exóticos como bambú, palisandro, madera de albaricoque, e incluso kevlar para aquellos que buscan más resistencia. En resumen: la mejora de materiales y construcción en el OnePlus Two es más que palpable, y no podemos hacer nada salvo aplaudir por ello y esperar que para el año que viene den el salto definitivo al aluminio.

Especificaciones y software

fossdroid

Ya vimos Oxygen OS en el OnePlus One y su estética Android pura nos encantó. Y ahora llega la nueva versión mejorada de esta ROM para el OnePlus Two.

Esto puede parecer una obviedad, pero nunca está de más recordarlo para apreciar su importancia: SoC de gama alta, 3 o 4 GB de memoria RAM, última versión de Android con una capa de personalización inexistente y lector de huellas dactilares, entre otros. No podemos encontrar todas estas características en casi ningún terminal con Android en el mercado actual, y ya por eso OnePlus cuenta con motivo suficiente para su reconocimiento, además de por el útil switch para cambiar la prioridad de las notificaciones. Sólo esperamos que para futuras actualizaciones de Oxygen OS no se retrasen tanto en los plazos como les pasó con su predecesor, porque esto les puede hacer perder puntos en aquello mismo por lo que pueden distinguirse en primer lugar.

Carencias

Carga rápida e inalámbrica

La carga inalámbrica incorporada en el Galaxy S6 debería imponerse poco a poco en el resto de smartphones de la industria. [Fuente](http://hipertextual.com/2015/04/oxygen-os-oneplus-one-lollipop-prueba).

La carga inalámbrica incorporada en el Galaxy S6 debería imponerse poco a poco en el resto de smartphones de la industria. Fuente.

No estoy pidiendo los dos. Sólo con la carga rápida me habría conformado, algo que con el Snapdragon 810 que lleva en su interior debería poder hacerse sin problemas, pero (suponemos) que por problemas de licencias como pasó con el OnePlus One, no está disponible. De hecho, esta falta de Carga Rápida ocasionaba que el predecesor del OnePlus Two tuviera uno de los tiempos de carga más lentos en el ecosistema Android y que, con una batería de 3300 mAh, suponemos que en éste no será mucho mejor.

En cuanto a la carga inalámbrica, tengo que reconocer que al no estar tan impuesta en la industria esta forma de carga sea un capricho más que otra cosa. Sin embargo, es innegable su comodidad para el usuario, y aquí OnePlus ha perdido una magnífica oportunidad de imponerse como un referente en defensores de este nuevo sistema, pero suponemos que probablemente el pago de licencias para tener disponible este tipo de tecnología sea demasiado alto como para no se vea penalizado el del OnePlus Two. Maybe next time.

NFC

Ah, el dilema del NFC. Ese sistema implantando durante muchos años en Android y que no contaba con ninguna utilidad diaria, y ahora que llega Apple y vuelve Android para otorgarle una función verdaderamente interesante, y llega OnePlus y lo elimina del OnePlus Two. Un chip que prácticamente no ocupa espacio y que podría suponer una adición importante de cara al futuro, especialmente con Android M a la vuelta de la esquina. Puede que los usuarios no lo usaran, gente de OnePlus, pero quizás dentro de un año lo echen en falta.

Diseño poco estilizado

Foto de AndroidPolice.

Foto de AndroidPolice.

9.9 mm de grosor. Prácticamente 1 cm de grosor. Estoy a favor de cierto grosor en algunos terminales para mejorar su manejo a una mano y que su batería aumente ligeramente, pero esto lo considero francamente ridículo: terminales como el Huawei Mate 7 cuenta con una batería de 4100 mAh en menos de 8 mm de grosor. Incluso su propio predecesor, con 1 mm menos de grosor, y una diferencia de tan sólo 300 mAh. ¿De verdad tenía que ser tan grueso el OnePlus Two? Esto solamente puede ser acusado a dos cosas: o mala planificación a la hora de construirlo, o algo intencionado. Y en cualquiera de los dos casos no veo justificación para esto. Esperemos que luego no penalice demasiado el manejo, ya sea a una mano o a dos.

Tenemos nueva aplicación de Twitter para Windows 10... y apesta

$
0
0
Tenemos nueva aplicación de Twitter para Windows 10, y es terrible

Ya podemos descargar desde la Windows Store una nueva aplicación de Twitter para Windows 10, lamentablemente este anuncio no tienen nada de emocionante.

Uno creería que en Twitter estaban esperando al lanzamiento de Windows 10 para traernos una nueva y reluciente aplicación para el sistema operativo de Microsoft que si valiese la pena usar, pero no, en Twitter estaban era creando una aplicación tan absoluta y completamente inútil y lamentable que ha logrado algo que no creí que fuese posible: hacer una aplicación peor que la de Twitter para Windows 8.

Desde hace pocos minutos puedes descargar en la Windows Store una nueva versión de la app estilo Modern de Twitter para Windows 10, solo para Windows 10, aunque en la Windows Store de Windows 8.1 han cambiado las capturas de pantalla de muestra, aún no aparece botón para actualizar, será cuestión de esperar si esta nueva app se extiende al sistema anterior.

twitter para windows 10

Me ha tomado solo un minuto y medio navegar por todas las características que ofrece la aplicación, con carencias básicas como que no puedes hacer siquiera un retweet citando, no puedes ver un vídeo directamente en la app, ni un GIF, ni tienes acceso a tus listas en ningún lado, el manejo del espacio es terrible, caben uno o dos tweets en toda la pantalla, no hay forma de ver esto en columnas, y como todas las aplicaciones de este estilo ahora abren en ventanas, ya ni la gracia que tenía la app de Twitter en Windows 8.1 de colocarse como una columna pequeñita para ver tu timeline, se conserva. Para actualizar hay que hacerlo manualmente, el cliente ni siquiera logra mostrar todas las actualizaciones, sino que se "come" un montón, y si presionas "cargar más" no las va a recuperar todas.

Si tu uso de Twitter es extremadamente básico, pues quizás te sirva para algo, también puedes usarla sin siquiera iniciar sesión en Twitter, pues te muestra tendencias según la región en la que vivas. Tal vez eso tenga su público, tal vez no soy ni de lejos el grupo de usuarios al que Twitter quiere llegar con esta mediocre aplicación, tal vez me quejo mucho, pero sinceramente, pudieron haber hecho algo mejor. Les dejo tres capturas casi indistinguibles donde lo que domina es el espacio blanco y la decepción de esta servidora.

twitter para windows 10 3

twitter para windows 10 2

twitter para windows 10 1

Toma tus notas a mano y en papel, aprenderás más

$
0
0
Toma tus notas a mano y en papel, aprenderás más

Aprender es un proceso que involucra memoria y análisis, sobre todo cuando tienes que asistir a varias clases y recordar lo que dicen en cada una de ellas. Tomar notas es uno de los recursos más utilizados por los estudiantes, pero la forma en que haces tus apuntes puede marcar la diferencia.

Cuando entras al salón de una universidad no sorprende encontrar a muchos estudiantes con sus ordenadores portátiles tomando notas. Y no los culpo: luego de pasar años tomando apuntes con lápiz y papel y terminar con la muñeca adolorida, preocupada porque no pude anotar todo lo que decía el profesor, resulta lógico que muchos estudiantes hayan cambiado los cuadernos y lápices por un teclado. Son más prácticos, te permiten hacer varias tareas al mismo tiempo y, por sobre todas las cosas, puedes tomar notas con una rapidez increíble. Pero ¿qué pasa si te digo que, a pesar de poder tomar apuntes más rápidos y completos, no garantiza que los recuerdes con más facilidad?

La importancia de escribir

Uno de los efectos directos de usar siempre el teclado de la computadora para escribir es que descuidamos la caligrafía. Incluso, en muchos países ya el currículo académico hace más énfasis en la proficiencia al escribir en un teclado que a mano, sobre todo en jóvenes que han pasado a secundaria. Y, si bien es cierto que los textos hechos con una computadora son más legibles, esto hace mella en la capacidad de aprendizaje y memoria.

Fotografía: Sergey Nivens - Shutterstock

Fotografía: Sergey Nivens - Shutterstock


Un estudio hecho en 2012 por la psicóloga Karin James hizo que niños que aún no aprendían a leer o escribir reprodujeran una letra o una forma de tres formas: trazar la forma en un papel que tenía la forma delineada por puntos, trazarla en una hoja en blanco o escribirla en una computadora. Luego, los conectaron a un scanner cerebral y les mostraron la imagen de nuevo.

Cuando un niño trazaba la imagen a mano, exhibían un incremento en la actividad cerebral en tres áreas que se activan en los adultos cuando leen y escriben. Pero aquellos niños que escribieron la letra usando el modelo de puntos o en la computadora no mostraban tal actividad. Y esto ocurre porque escribir a mano activa ciertas zonas del cerebro relacionadas con el aprendizaje, pues cuando escribes no siempre obtienes el mismo resultado, hay una posibilidad de equivocarse y ese error hace que el niño aprenda.

Otro estudio demostró que cuando escribes a mano, el cerebro es capaz de elaborar y expresar más ideas, pues se demostró que hay una correlación entre la escritura y la imaginación. Cuando los niños sujetos al experimentos escribían ensayos a mano, aquellos con una mejor caligrafía exhibieron una mayor activación neural en las áreas del cerebro relacionadas con la memoria y el trabajo. Asimismo, demostraron que aprender caligrafía cursiva puede ser un buen tratamiento para quienes padecen de disgrafia y dislexia.

Escritura y aprendizaje

Mejorar la caligrafía estimula áreas particulares del cerebro asociadas con la imaginación en los niños, en los adultos tiene otros efectos igual de benéficos. Pam Mueller y Daniel Oppenheimer hicieron un estudio que demuestra que quienes toman notas a mano aprenden mucho más que quienes toman apuntes en la computadora.

Fotografía: Ditty_about_summer - Shutterstock

Fotografía: Ditty_about_summer - Shutterstock

Si bien es cierto que cuando escribes en el teclado del ordenador es posible copiar casi con exactitud el discurso del profesor, el tomar notas a mano y en papel obliga al estudiante a analizar, sintetizar y generalizar el material. Esto requiere una forma de procesamiento cognitivo que estimula el aprendizaje. El simple hecho de tener que resumir lo que dice el profesor para poder escribirlo con rapidez utilizando pocas palabras te hace digerir y resumir el conocimiento, lo que permite que se retenga con más facilidad. Cuando escribes en la computadora lo haces de forma automática, no es necesario que analices o resumas las información, pues tus dedos se deslizan rápidamente sobre el teclado, como quien toma un dictado. Y si bien es cierto que produces más contenido, este no ha sido digerido por tu mente y lo hace fácil de olvidar.

Es importante destacar que muchos estudios hacen una prueba de memoria y retención inmediatamente después de la clase, para medir lo que han aprendido y memorizado los sujetos, lo que beneficia a quienes toman apuntes; por lo que es posible que aquellos que tomaron una mayor cantidad de notas en la computadora tengan un beneficio extra cuando sea hora de repasar o estudiar una lección a futuro. Sin embargo, el estudio hecho por Mueller y Oppenheimer incluyó una muestra en la que sus participantes fueron evaluados una semana después utilizando las notas hechas durante la clase (en computadora y a mano) y el desempeño de aquellos que estudiaron con sus apuntes hechos con lápiz y papel fue superior a aquellos que lo hicieron con las notas hechas en sus ordenadores.

A partir de esto concluyeron que las notas al margen y otros elementos hechos por los estudiantes que tomaron apuntes a mano servían como atajos de memoria porque recreaban el contexto y el contenido de la clase. Por otra parte, el hecho de que las computadoras permitan el acceso a otras aplicaciones (vídeos, chats, redes sociales, música, entre otros) también tiene un efecto negativo en el estudiante, pues estas aplicaciones actúan como elementos que distraen de las actividades en el aula de clases.

El proceso cognitivo del aprendizaje involucra mucho más que el tragar y escupir la información, sino que requiere de toda la atención para poder captar el conocimiento, analizarlo y aplicarlo posteriormente en otras situaciones; por lo que bien vale la pena utilizar todas las herramientas que faciliten y estimulen este proceso. Escribir a mano puede parecer engorroso y lento, pero es un mecanismo accesible que todo estudiante puede aprovechar. No se trata de eliminar las ayudas tecnológicas del salón de clases, sino de aprender a emplearlas en el momento adecuado para que funcionen como un estímulo y no como una distracción.

Fotógrafos que arriesgaron su vida tras las trincheras

$
0
0
Fotógrafos que arriesgaron su vida tras las trincheras

Las condiciones frecuentes en un conflicto bélico convierten el trabajo de los fotógrafos de guerra en una profesión no apta para la gran mayoría de personas.

“Estar en el lugar adecuado en el momento oportuno” puede ser una premisa muy básica, pero de gran dificultad dependiendo del lugar y el momento al que nos estemos refiriendo. Fotógrafos como Robert Capa, Eddie Adams o Gerda Taro pueden ser grandes ejemplos del mérito que conlleva capturar un preciso instante cuando las condiciones del entorno no son las más adecuadas.

Como recogen en un documental producido por Canal +, el término “fotógrafo de guerra” no es del todo correcto para describir las labores que los reporteros desempeñan en las zonas de conflicto, ya que el interés de éstos no es únicamente cubrir el problema, sino plasmar el impacto que éste tiene en la sociedad. Por esa razón, son muchos los autores que, como Manu Brabo, se sienten molestos cuando su trabajo queda definido como el de fotógrafos de guerra.

Actualmente, la mayoría de estos reporteros trabajan como freelance para luego vender esas imágenes a una agencia. Es decir, tienen que costear de su bolsillo el viaje y demás gastos para luego tener la posibilidad (o no) de que un tercero adquiera esas instantáneas.

Así, existen profesionales como Laurent Van der Stockt, que trabaja para Getty Images; Giles Duley, quien continúa con su profesión a pesar de tener tres miembros amputados; o Goran Tomasevic, el encargado de retratar las zonas de conflicto para la agencia Reuters. Son solo algunos de los nombres que se pueden señalar dentro de esta modalidad de fotografía, pero todos ellos son el precedente de otros profesionales que también sintieron la necesidad de mostrar el lado más oscuro de la humanidad.

Robert Capa

Robert Capa

Robert Capa

Es difícil hablar sobre Robert Capa sin comentar algo que no se haya dicho ya. Se podría considerar uno de los fotógrafos de guerra más reconocido, unos méritos que, para unos son merecidos, mientras que para otros están algo sobredimensionados. Lo que no se puede negar es el austrohúngaro se encargó de estar presente en muchos de los momentos más decisivos de nuestra historia. Su serie durante el desembarco de Normandía pueden ser las imágenes más populares del autor, aunque el trabajo que éste desempeñó en la Guerra Civil española también ha sido considerado sumamente importante.

Eddie Adams

Eddie Adams

Eddie Adams

Aunque la fama de Eddie Adams llegó tras recibir el premio Pulitzer, el fotógrafo también merece ser recordado por otras instantáneas que muestran la crueldad vivida durante la guerra de Corea y la de Vietnam. Tras ello, el autor se dedicó a retratar a celebridades como Clint Eastwood o Louis Armstrong.

Joe O'Donnell

Joe O'Donnell

Joe O'Donnell

Como afirman en el New York Times, Joe O'Donnell fue el autor encargado de retratar a las víctimas de los desastres nucleares de Hiroshima y Nagasaki. Además ser el sargento de infantería de la Marina, también era el fotógrafo oficial de la Casa Blanca. Joe vivió siete meses en Japón, periodo que aprovechó para inmortalizar el desastre que le rodeaba tras la Segunda Guerra Mundial.

Gerda Taro

Gerda Taro

Gerda Taro

Aunque es conocida por ser la compañera de Rober Capa, sus propias habilidades le han alzado como todo un referente dentro de la fotografía. Del mismo modo que Capa, Gerda acudió a la Guerra Civil española, siendo su reportaje más importante el de la batalla de Brunete que acabó con la victoria del general Franco.

David Seymour

David Seymour

David Seymour

Al igual que Capa, Seymour también se convertiría en uno de los fundadores de la Agencia Magnum. Sin embargo, antes de eso también ejerció de fotógrafo en la Guerra Civil española y la Segunda Guerra Mundial. Uno de sus trabajos más conocidos es “Children of Europe”, donde retrata los efectos que dejó la guerra a través de las miradas de los niños.

Yevgeny Khaldei

Yevgeny Khaldei

Yevgeny Khaldei

No es tan conocido como algunos de los reporteros que hemos señalado anteriormente, pero Yevgeny fue uno de los profesionales más significativos durante la Segunda Guerra Mundial. Gracias a las instantáneas del soviético hemos podido conocer “el otro lado” de una guerra que separó al mundo.

Alfonso Sánchez Portela

Alfonso Sánchez Portela

Alfonso Sánchez Portela

Fue uno de los máximos representantes del fotoperiodismo en España. Aunque tampoco se deben exentar de méritos a los reporteros internacionalmente reconocidos, a veces éstos pueden ensombrecer la figura de otros profesionales también dignos de ser mencionados. Alfonso Sánchez es uno de ellos, el cual estuvo presente en momentos tan importantes como la batalla de Madrid en la Guerra Civil.

Podríamos continuar esta lista con Joe Rosenthal o James Nachtwey entre muchísimos otros, pero difícilmente acabaríamos de señalar un gran repertorio de autores que tenían un objetivo en común: captar imágenes que pasasen a la historia.

El interior del vehículo que por primera nos llevó a la Luna

$
0
0
El interior del vehículo que por primera nos llevó a la Luna

“Esto es un pequeño paso para un hombre, un gran salto para la humanidad”, para que esas palabras fuesen pronunciadas por Neil Armstrong, con anterioridad se tuvieron que realizar múltiples misiones que tendrían como objetivo lograr el alunizaje en el satélite de la Tierra.

Finalmente, fue en la misión número 11 del programa Apolo cuando el primer ser humano llegó a la Luna. Así, la imagen que vemos se corresponde con el módulo lunar del vehículo en el que los astronautas se introducirían para aterrizar en el satélite terrestre.

Actualmente, la NASA pone a nuestra disposición incluso el manual del módulo lunar, el mismo texto posiblemente hayan tenido que leer los mismos que el 21 de julio del año 1969 pisaban suelo extraterrestre.

Como detallan en Space, el módulo lunar estaba construido de aluminio y tenía unas dimensiones de 6,98 m de altura y 9,45 de anchura, lo suficiente para alojar a los astronautas que tras cumplir la misión se servirían del vehículo para volver al módulo de mando y servicio.

Créditos: Museo Nacional del Aire y el Espacio de Estados Unidos

El experimento del mundo pequeño

$
0
0
El experimento del mundo pequeño

Breves notas sobre el famoso 'experimento del mundo pequeño', así como su diferencia y cercanía de los 'seis grados de separación'.

En muchas ocasiones hemos escuchado los famosos "seis grados de separación", un término que hace referencia a la hipótesis que sostiene que cualquiera en la Tierra puede estar conectado a cualquier otra persona del planeta a través de una cadena de conocidos que no tiene más de cinco intermediarios, es decir, conectando a ambas personas con sólo seis enlaces. Ahora bien, los seis grados de separación son, popularmente, equiparados con los resultados del experimento del mundo pequeño que hiciera Stanley Milgram en 1969, pero sucede que no son lo mismo, ni tampoco son del mismo autor.

Staley Milgram es conocido por el famoso experimento de psicología social que lleva su nombre. Así, el Experimento de Milgram fue titulado 'Los peligros de la obediencia', con escalofriantes resultados que hablaban del comportamiento de las personas sometidas a cumplir férreas órdenes aunque esto implique lastimar a sus semejantes. Sin embargo, el experimento del mundo pequeño, como podemos ver, es anterior a este y su influencia dio pie a la conocida conexión de los 'seis grados de separación', con tanto auge en estos tiempos de las redes sociales virtuales y la interconexión en la era del internet. En el siguiente video se explica de forma muy concreta en qué consistió el experimento.

A decir verdad, Milgram jamás usó el término de los seis grados de separación, en todo caso, como se menciona líneas arriba, se trata de un antecedente directo a esta nueva hipótesis. Ahora bien, el experimento que encontró que las personas, en promedio, se encuentran relacionadas con cualquier otra con solo cinco enlaces más ha tenido no menores críticas por su procedimiento y metodología.

En primer lugar se critica los altos niveles de personas que decidían no participar en el experimento, llegando, incluso, a tener cifras de 232 de los 296. Es decir que solo 34 paquetes fueron enviados por los participantes que se escogían al azar, en uno de los casos. También se criticó porque se utilizaron pocas ciudades de referencia y que sobrestimaron los resultados porque no había forma de medir las decisiones de los involucrados al realizar el envío a otra persona.

Otra crítica va en el sentido de que no todas las personas del mundo pueden estar conectadas puesto que hay poblaciones que no han tenido contacto con el exterior. Sin embargo, esta clase de poblaciones sugieren un porcentaje minúsculo en comparación con el resto del mundo, así que, en este caso, se podría hablar de un porcentaje casi total.

Ahora bien, a pesar de las críticas, de los nuevos experimentos basados en los resultados de Milgram, con nuevos métodos como utilizar los medios electrónicos, sigue teniendo una crítica amplia y de nuevo ha sido, incluso, señalado como un mito. Sin embargo, esto no aleja, esta supuesta conexión con todas las personas del mundo, de la cultura popular que lo ha tomado como un hecho y se menciona de cuando en cuando. Por ejemplo, el famoso caso del Número de Erdős y el de Kevin Bacon, que incluso tiene su propio sitio y app, llamado The Oracle of Kevin Bacon, para demostrar que cualquier actor está relacionado con Bacon por otros cinco enlaces. Divertido.

Microsoft trabaja en la posibilidad de jugar mediante streaming a juegos de PC en Xbox One

$
0
0
Microsoft trabaja en la posibilidad de jugar mediante streaming a juegos de PC en Xbox One

Tras anunciar Windows 10, conocemos que Microsoft está trabajando en traer el streaming de juegos de PC a su Xbox One.

El último sistema operativo de Microsoft, Windows 10, habilita la posibilidad de jugar mediante streaming a juegos de la Xbox One en tu PC, pero Microsoft también está trabajando para que los usuarios de Xbox One puedan jugar en ella a los juegos de sus PC.

Phil Spencer, en entrevista con The Verge, comunicó que están trabajando en dicha posibilidad. "Entendemos que para jugar a juegos de PC en la Xbox, necesitamos un teclado y ratón para poder jugar a esos videojuegos," explicó Spencer. "En términos de lo que queremos hacer con la plataforma, esas son características que queremos implementar."

Pero no va a ser fácil. El desafío para el equipo es grande, ya que deben codificar en tiempo real el juego de PC para que con un ancho de banda adecuado pueda ser jugado en la Xbox One. El paso inverso, de Xbox One a PC es mucho más sencillo, porque es más predecible y saben exactamente qué tenemos dijo Spencer. Aun así cree que es bueno tener desafíos, aunque estos no le permitan dar una fecha concreta de su llegada.

El movimiento sería muy interesante ya que permitiría jugar a muchos juegos del catálogo no disponibles en Xbox. Muchos de ellos no requieren el manejo con ratón y teclado y son propicios a vivirse en la experiencia de consola. El desafío es tan grande como las ventajas que traería consigo para la plataforma y jugadores.


Nueva vulnerabilidad de Android, esta vez más grave

$
0
0
Nueva vulnerabilidad de Android, esta vez más grave

Una nueva vulnerabilidad de Android puede provocar que el sistema se cuelgue y se deshabiliten todos los procesos de audio.

Estamos viviendo unos días convulsos negativamente en lo que a seguridad y privacidad de Android respecta. Tras descubrir el fallo de seguridad más grave que se ha visto en la plataforma, por el cuál básicamente se pone en riesgo la seguridad de nuestros terminales a través de un vídeo corto con malware en su interior, lo que hace su propagación extremadamente sencilla. Hoy, de manera similar a la presentada por Zimperium, Trend Micro informa sobre una vulnerabilidad de Android que afecta a todos los dispositivos que se encuentren entre la versión 4.3 Jelly Bean y Android 5.1.1 Lollipop, la última disponible.

Más del 50% de los usuarios de Android son vulnerables al exploit de mediaserver

Google es conocedora de la vulnerabilidad de Android, ya que fue reportada en mayo. Pese a ello, la compañía de Mountain View aún no ha enviado un parche al Android Open Source Project, por lo que todos las terminales que se lancen a día de hoy seguirán llegando con sin solucionar el problema. El funcionamiento del exploit es relativamente sencillo, y puede ser activado de dos maneras. Con aplicaciones instaladas en el terminal o mediante una página web creada con la intención de comprometer la estabilidad del terminal. Porque sobre estabilidad es la problemática. La aplicación contiene un archivo multimedia MKV malicioso que se ejecuta al arranque y provoca un funcionamiento errático en el sistema. Con un MKV leído por Chrome, el efecto es similar.

Se producen a partir del servicio mediaserver, el encargado de indexar los archivos multimedia del terminal. Al no poder procesar el MKV malicioso, cada vez que se ejecuta mediaserver, puede producirse un problema en el seno del sistema que provoque que el funcionamiento del terminal sea muy inestable. Esto produce que el volumen del dispositivo se deshabilite, lo que hará que no recibamos ninguna notificación sonora, como mensajes o llamadas. Ni siquiera se escucha una llamada. Además, si el teléfono está bloqueado, no podremos encenderlo y usarlo normalmente, y en el caso de que ya estuviera siendo usado, puede sufrir muchas ralentizaciones. Aquí se muestra:

Es poco probable que esto pueda ser usado en la práctica, pero como dicen en Trend Micro, podría ser utilizado para amenazas que tengan como objetivo el pago de los usuarios a los atacantes que se encuentren detrás del servicio.

Cómo crear un disco de arranque USB con Windows 10 para una instalación limpia

$
0
0
Cómo crear un disco de arranque USB con Windows 10 para una instalación limpia

Windows 10 ya es una realidad, desde hoy todos los usuarios podrán descargar el nuevo sistema operativo de las ventanas y comenzar a disfrutar de él. Ahora bien, a mucha gente no le gusta la idea de actualizar "encima" de su actual versión y prefieren hacer una instalación completamente limpia que garantice el perfecto funcionamiento de todo. De hecho, si usas Windows 7, esta es tu mejor opción para instalar Windows 10 y para ello Microsoft ha puesto en linea los archivos ISO para que descarguemos y creemos nuestro propio disco de arranque.

Descargar imágenes de Windows 10

La forma más sencilla de hacerlo todo es ir a la web de descarga de la Media Creation Tool de Windows, elegir entre la versión para 32 o 64 bits, bajar el archivo y ejecutarlo.

Tienes dos opciones: si usas Windows 7 puedes seleccionar la opción "Actualizar su PC ahora" y comenzar el proceso de actualización en el equipo donde ejecutas la herramienta. No tienes que hacer casi nada más que presionar "siguiente".

disco de arranque usb con windows 10

Si lo que quieres es crear un dispositivo de arranque para instalar Windows 10 en otro equipo, también tienes dos opciones: crea directamente un disco de arranque USB o un DVD con Media Creation Tool, o descargar el archivo Windows.iso, si deseas crear el dispositivo luego o con otro software de tu elección. Si eliges crear el medio de una vez deberás conectarlo al ordenador. Si eliges descargar el ISO solo tendrás que indicar la carpeta donde guardarlo.

Instalar Windows 10

En la siguiente ventana deberás elegir el idioma para Windows, la versión y la arquitectura de tu procesador.

disco de arranque usb con windows 10

Puedes seguir esta tabla para saber cual te toca según tu versión actual:

ediciones de windows 10 equivalentes

Recuerda que deberás tener a mano tu clave de producto genuina de Windows 7 o Windows 8.1 para continuar con la instalación más adelante.

Al final elige tu unidad flash (necesitas al menos un pendrive de 4GB), o si prefieres descargar el ISO. En caso de que crees el disco, solo presiona siguiente, espera que termine la descarga y presiona finalizar.

disco de arranque usb con windows 10

Inserta el disco USB en el equipo que quieres actualizar (ya sea que use Windows 7, 8/8.1), y presiona el archivo setup.exe para comenzar tu instalación de Windows 10.

disco de arranque usb con windows 10

Instalación nueva completamente limpia

El proceso anterior sirve para actualizar a Windows 10 directamente desde Windows 7 o Windows 8. Si lo que quieres es formatear por completo tu disco y obtener una instalación limpia sin rastros de sistemas anteriores, debes hacer un par de pasos más.

En lugar de presionar setup.exe desde el explorador de Windows en tu disco USB, reinicia tu equipo con el pendrive conectado, accede a las opciones de la BIOS de tu máquina, cambia el orden de arranque de los dispositivos y dale el primer lugar el la lista de prioridad a los discos USB. Guarda los cambios, reinicia y arrancarás desde el disco de instalación de Windows 10.

En algunos casos puedes acceder al menú de arranque sin necesidad de cambiar las opciones de la BIOS, solo intenta presionando las teclas F2, F12, Borrar, o Esc justo antes de que inicie el sistema (en la pantalla donde suele aparecer el logo del fabricante) y debería aparecer una lista de dispositivos desde los que puedes arrancar, incluido el disco USB con Windows 10 que creamos.

Una vez que arranque la interfaz de instalación, solo debes elegir un par de cosas, ingresar tu clave de producto, y puedes dar formato a tu disco, eliminar particiones y elegir donde exactamente instalar Windows.

Por qué deberías elegir una licencia para tu contenido (y cómo hacerlo)

$
0
0
Por qué deberías elegir una licencia para tu contenido (y cómo hacerlo)

Cuando no eliges una licencia para tu contenido, las restricciones para su uso las determinan otros: tómate cinco minutos y elige tus propios términos.

Con la democratización del acceso a la tecnología, la proporción de aquellos que, entre nosotros, pueden considerarse "creadores de contenidos" se ha vuelto mucho más amplia. Sin embargo, el conocimiento respecto a la finalidad y funcionamiento de las licencias sobre contenidos sigue siendo muy escaso, lo que favorece a la subsistencia de la maquinaria tradicional de copyright.

La licencia sobre contenido es lo que determina las condiciones según las cuales el autor distribuye este material, esto es, es lo que establece si estamos autorizando su reproducción, la creación de una obra derivada o remix sobre éste, o su comercialización. Cuando no elegimos una licencia para nuestras obras, éstas quedan automáticamente protegidas por el sistema de copyright que rija en el lugar correspondiente, puesto que el derecho de autor surge en el momento de la creación de la obra y no necesita de ningún otro trámite adicional (contrario a la creencia popular de que es necesario un "registro" de alguna clase).

Esto significa que cuando no elegimos de manera deliberada la licencia que queremos utilizar, el contenido que creamos cae bajo el esquema de "todos los derechos reservados", que restringe incluso la reproducción del contenido concediendo el crédito que corresponde. Esto trae como consecuencia que quienes busquen, por ejemplo, contenido que puedan reutilizar con fines no comerciales, evitarán utilizar nuestra obra por hallarse bajo un esquema restrictivo que podría llevarles a la corte.

Al elegir una licencia, eliges el destino de tu obra

El sistema tradicional de propiedad intelectual, destinado originalmente a proteger la creatividad y la capacidad de invención, en la actualidad existe fundamentalmente para su propia subsistencia. Se ha vuelto punitivo y persecutorio, y por esa razón restringe la creatividad y coarta la difusión de nuestros contenidos, llevándonos a una trampa: lo más importante para el éxito de un creador es poseer una audiencia, y ésta no puede ser creada si nuestros contenidos se encuentran aprisionados por la cárcel de la propiedad intelectual tradicional.

Por otra parte, establecer con claridad los límites para la utilización de tus creaciones es potencialmente útil en caso de que surja una violación o conflicto sobre tus derechos. Mientras estos límites se encuentren fijados con mayor nitidez, más fácil será definir y delimitar si un determinado acto de uso de la obra constituye una violación de tus derechos como autor.

elegir una licencia de contenido

Fotografía de Tyler Stefanich bajo licencia CC BY 2.0

¿Qué licencias puedo usar para mis obras?

Creative Commons

Creative Commons es una organización internacional dedicada a la creación y difusión de licencias sobre obras del intelecto diseñadas para ser de fácil comprensión para los autores sin necesidad de acudir a un abogado. Para ello poseen un sistema por capas y basado en símbolos fácilmente reconocibles, y una herramienta en línea para seleccionar tu licencia respondiendo a un par de preguntas fáciles, como si deseas que sea posible crear obras derivadas o comercializar tu obra.

ColorIuris

ColorIuris es un sistema mixto de gestión de los derechos de autor, destinado especialmente a los creadores que utilizan Internet para la difusión de sus obras. El concepto detrás de ColorIuris consiste en permitirte generar un certificado con timestamping del momento en el que licencias tu obra, eligiendo asimismo los términos, derechos y usos que autorizas. El certificado electrónico puede resultar útil en caso de que sea necesaria evidencia en un litigio o circunstancia similar.

Arte Libre

La Licencia Arte Libre (LAL) es una licencia copyleft a través de la cual el creador concede la autorización de copiar, difundir y transformar la obra que protege. Es, de las tres que presentamos, la que ofrece menos opciones para personalizar los derechos otorgados, pero por la misma razón su texto es el más sencillo.

Si bien en lo personal, recomiendo usar Creative Commons por su difusión y facilidad de comprensión en todo el mundo, cada opción tiene sus ventajas y dependerá de lo que creas necesario en tu caso: lo importante es que no dejes la decisión al azar de lo que las leyes de propiedad intelectual puedan determinar.

Si vas a cambiar de iPhone y no quieres perder los datos de Salud, prueba esto

$
0
0
Si vas a cambiar de iPhone y no quieres perder los datos de Salud, prueba esto

Hasta que Apple decida añadir la opción de guardar en iCloud los datos de Salud, esta es la mejor opción para crear una copia de seguridad y no perder ningún dato al restaurar nuestro iPhone.

Puede que hasta hace unos cuantos meses para muchos los datos de la aplicación de Salud fuese una de esas apps que cogen “polvo” en una carpeta junto a apps como Bolsa, Game Center, Consejos o Brújula, sin embargo, con la llegada del Apple Watch muchos usuarios le han empezado a coger algo más de cariño. Y es que aunque dista mucho de ser perfecta los datos que recoge y guarda son un reflejo de nuestro cuerpo y eso a la larga tiene un valor incalculable (sobre todo si tenemos un reloj que se encarga de recopilar los datos). De ahí que cuando vayamos a cambiar de teléfono o simplemente queramos restaurarlo lo último que queramos sea perder todo lo que hemos ido recopilando.

Actualmente los datos de Salud solo se guardan en nuestro teléfono y es solo en el caso de que hagamos una copia de seguridad en iCloud o una copia de seguridad encriptada en iTunes que los datos. Por lo tanto, la única forma de recuperar los datos de Salud es restaurando toda la copia de seguridad de nuestro teléfono, algo que en ocasiones (cómo cuando cambiamos de terminal) igual no queremos hacer. Si este es el caso la única solución que nos queda requiere que exportemos, guardemos e importemos los datos de manera manual.

Antes de nada, tenéis que tener en cuenta que el método que voy a describir a continuación no sirve para poner a salvo de los datos de la app de Watch. Salvo que restauremos de una copia de seguridad lo más seguro es que perdamos nuestros anillos y medallas. Dicho esto, aquí están los pasos para hacer un backup de nuestros datos de Salud siguiendo el primer método:

Image

  1. Descargamos QS Access en nuestro teléfono.
  2. Una vez dentro seleccionamos las categorías que queremos exportar y elegimos la frecuencia con la que queremos que se reúnan los datos (uno cada día o uno cada hora). Si llevamos meses recopilando datos mejor exportar las distintas categorías por separado para no saturar la app que usemos al restaurar. Después pulsamos en crear.
  3. QS Access nos pedirá acceso a los datos de Salud y como es lógico se lo tenemos que dar.
  4. Por último nos mostrará la tabla CSV con los resultados. Después de comprobar que están todos los datos que queremos (con un simple vistazo basta) tenemos que pulsar en compartir y guardarlo en Dropbox o mandárnoslo a nosotros mismos por mail.

Y estos son los pasos para volver a meter los datos en Salud:

restaurar-datos-salud

  1. Primero tenemos que descargar Health Importer en nuestro terminal.
  2. A continuación tenemos que buscar el mail que nos enviamos o ir a la carpeta de Dropbox donde se encuentra el archivo CSV con los datos de Salud y abrirlo.
  3. Después pulsamos en compartir y elegimos “Abrir en…” y dentro de eso pulsamos en “Copiar en Health Importer”
  4. Una vez importado en Health Importer veremos una lista en la que tendremos que ir asignando a cada columna el tipo de datos que tiene (incluidas las unidades de medición). Debemos tener en cuenta que al menos una columna tiene que ser la fecha. En el caso de que no queramos importar tenemos que elegir “Do not import”.
  5. Cuando terminemos pulsamos aceptar y tras darle permiso a Health Importer para acceder a los datos de Salud habremos recuperado todos los datos.

La parte buena de este sistema es que podemos hacer copias de seguridad de forma semanal de manera gratuita y cuando lo necesitemos podemos ir al App Store y comprar Health Importar para volcar todos esos datos de nuevo a nuestro iPhone.

Tendría que ser Apple quien se preocupe de que no se pierda ningún dato Para terminar, me gustaría decir que esta solución no es más que un parche temporal. Tiene que ser Apple quien se preocupe de que sus usuarios no perdiesen ningún dato de sus teléfonos. Está claro que los datos de Salud puede que sean más personales que tenemos almacenados en nuestro iPhone, pero si Apple se ocupa de guardar en la nube datos tan sensibles como las contraseñas (con iCloud Keychain) no entiendo por qué no iba a hacerlo con esta app.

Podéis descargar QS Access de forma gratuita y Health Importer por 2,99€ en el App Store.

Muerte y resurrección del Moto E 2015: la importancia de las actualizaciones

$
0
0
Muerte y resurrección del Moto E 2015: la importancia de las actualizaciones

Repasamos la importancia de las actualizaciones de software en nuestros smartphones, ya que, como demuestra el Moto E 2015, las mejoras pueden ser exponencialmente mejores. Eso sí, también pueden empeorar mucho la experiencia de un terminal histórico como el Moto G.

Uno de los grandes protagonistas de la gama baja de este año es el Motorola Moto E 2015. Si el año pasado nos encantó la propuesta de Motorola por debajo de los 140€, este año todo era mucho mejor, a priori. Tras incorporar el Moto E 2014 una cámara mediocre sin autofocus y un procesador muy modesto como el Snapdragon 200, este año, manteniendo precio, llegaba el nuevo con Snapdragon 410 y una cámara muy mejorada. Como digo, todo hacía presagiar un terminal sobresaliente para su gama y respecto a sus competidores, pero en análisis vimos que venía acompañado de ciertos problemas.

No era más que el gran problema de Android 5.0 Lollipop: la caída de rendimiento más grande en la plataforma que recuerdo debida a una actualización. Tras el glorioso Android 4.4 Kit Kat y su project Svelte para móviles con pocos recursos, Google se centró en mejorar la estética del sistema, pero dejó de lado la fluidez que caracterizaba a terminales como el mítico Moto G en la anterior versión. Lo digo sin ningún género de duda, Lollipop ha sido lo peor que le ha pasado a la imagen de la gama baja y media de Motorola. He recomendado muchos Moto G, y muchos de sus dueños eran usuarios felices hasta que actualizaron y el lag y una autonomía inferior comenzaron a imperar.

La animación de multitarea sufría mucho en Android 5.0.2 Lollipop. Android 5.1 arregla la transición y le da velocidad.

La animación de multitarea sufría mucho en Android 5.0.2 Lollipop. Android 5.1 arregla la transición y le da velocidad.

El Moto E 2015 no me convenció del todo, dentro del notable general, debido a que, en primer lugar la experiencia de usuario no era fluida, algo que no esperaba ver en una capa limpia de Android. Las ralentizaciones en animaciones eran muy frecuentes, lo que restaba el gran halo místico que hasta ese momento tenían para mí los Motorola. Se puede argumentar que es un terminal de la gama de entrada de Motorola, y que por ello no tenía que rendir igual, pero el procesador estaba a la altura y los componentes internos también. De hecho, como vimos ayer, comparte el Snapdragon 410 con el nuevo Moto G 2015, y esperamos que el nuevo terminal rinda bien.

Actualizar es muy importante y, como en el caso del Moto E, puede mejorar la experiencia. Pero como en los Moto G, también puede empeorarla.Por todo esto, hace unos días forcé la actualización a Android 5.1 Lollipop en el Moto E 2015, que como sabemos incluye grandes mejoras de rendimiento, y la situación ha cambiado drásticamente. He comparado con otros terminales similares al Moto G, y aunque la experiencia sigue sin ser tan fluida como la de KitKat, lo que encuentro con Lollipop ahora supera mis expectativas para un terminal de 129 euros. Además, se ha corregido el fallo por el cual el WiFi se desconectaba cada vez que me separaba más de 2 metros del router. Por fin puedo decir que sí, la experiencia es la esperada. Android M puede traer nuevas mejoras, pero no podemos pedir más. Más que muerto, el Moto E 2015 no ha llegado a la vida realmente hasta que no ha recibido Android 5.1.

Se supone que la actualización a Android 5.1 debería llegar pronto a ambas generaciones de Moto G, pero hasta ese momento sus usuarios seguirán teniendo muchos problemas. Todo esto me lleva a preguntarme si es recomendable actualizar a ciegas, y mi pequeña conclusión es que no. Al lanzarse una actualización vía OTA, siempre que nuestro terminal esté rindiendo a nuestro gusto, esperaría a leer opiniones y experiencias como la de Javier Merchán con el LG G3 o en Nexus 4. Mientras no vayamos con precaución, nuestra experiencia puede verse mermada o limitada, como por ejemplo ocurrió con iOS 8.0.1. Este planteamiento, eso sí, choca con el primer consejo que se da: actualiza sí o sí para garantizar mayor seguridad en tu terminal. De otra manera, podemos estar expuestos a grandes vulnerabilidades.

Viewing all 20117 articles
Browse latest View live




Latest Images