Quantcast
Channel: Comentarios en: Alemania bate el récord de producción de energía solar: el 50% de la demanda eléctrica en un día
Viewing all 20117 articles
Browse latest View live

Facebook elimina más de 10.000 páginas, cuentas y grupos falsos previo a las elecciones en México

$
0
0
Facebook elimina más de 10.000 páginas, cuentas y grupos falsos previo a las elecciones en México

Las campañas políticas en México han estado plagadas de fake news, bots y cuentas falsas en Twitter, así como llamadas a los teléfonos móviles de las personas a favor y en contra del candidato a presidente Andrés Manuel López Obrador (AMLO). A días de las elecciones este 1 de julio, se suman las páginas, cuentas y grupos falsos en Facebook.

La red social ha informado este martes 26 de junio que ha eliminado más de 10.000 páginas, grupos y cuentas falsas en México y América Latina. La plataforma ha justificado como motivo la violación de sus "estándares comunitarios".

Nathaniel Gleicher, jefe de política de ciberseguridad de Facebook, explicó a través de un post publicado en el newsroom de la red social:

El contenido que hemos encontrado rompió nuestras políticas sobre daños coordinados y comportamiento inauténtico, así como ataques basados ​​en la raza, el género o la orientación sexual.

Facebook ha estado esforzándose más en eliminar el contenido "de odio" después de las crecientes evidencias de la injerencia de Rusia en las elecciones presidenciales de los Estados Unidos en 2016. Por supuesto, uno de los recientes focos rojos que la red social ha tenido en la mira son las próximas elecciones en México.

Para ello, ha endurecido sus políticas en contra de este tipo de publicaciones y reforzado su inteligencia artificial, como el aprendizaje automático, y el equipo de colaboradores que detecta y elimina dichos contenidos.

"Eliminamos 837 millones de piezas de spam y 2.5 millones de discursos de odio y desactivamos 583 millones de cuentas falsas en todo el mundo en el primer trimestre de 2018, gran parte ello antes de que alguien reportara el problema a Facebook", compartió Gleiche.


Siemens abre un nuevo centro de innovación digital en Barcelona - presentado por @siemens_es

$
0
0
Siemens abre un nuevo centro de innovación digital en Barcelona

La digitalización es un proceso clave para las empresas, más aún en el sector energético. En un mercado altamente competitivo, es necesario que las empresas se rodeen de soluciones tecnológicas que les ayuden a ser más efectivas.

Para dar respuesta a todas esas empresas, Siemens ha inaugurado un nuevo centro de innovación en Barcelona que desarrolla soluciones basadas en MindSphere, el sistema operativo abierto del Internet de las Cosas, basado en la nube de Siemens y que es capaz de conectar todos los equipos y sistemas, extraer sus datos y convertirlos en información valiosa para las empresas.

De hecho, el nombre del centro será MindSphere Application Center (MAC), y contará con un equipo de ingenieros y expertos en otras áreas para apoyar y colaborar con los clientes de energía que Siemens tiene en el suroeste de Europa.

MindSphere cuenta con un protocolo abierto de actuación y diversas funcionalidades como el acceso remoto a los servicios en la nube de AWS o el servicio PaaS (Platform-as-a-Service). A través de estas funcionalidades, es capaz de conectar el mundo real y el virtual para obtener todos los datos disponibles y convertirlos en información valiosa para que luego las compañías los utilicen y mejorar sus procesos.

Otra de las ventajas que ofrece MindSphere es que, al ser un ecosistema abierto, cualquier partner desarrollador puede crear nuevas aplicaciones personalizadas a las necesidades de los clientes.

Barcelona, lugar estratégico para las empresas del sector

Siemens ha elegido su fábrica de Cornellá, en Barcelona, para albergar este MAC por ser uno de los centros de innovación más grandes de Europa. La ciudad ya cuenta con un elevado número de start-ups, laboratorios de I+D y empresas de carácter internacional. La propia presidenta y CEO de Siemens de España, Rosa García, resalta la importancia de la elección de Barcelona: “Con este centro, confirmamos nuestro compromiso para España y Barcelona para ofrecer a nuestros clientes en el campo de la energía de la mano de las soluciones más vanguardistas.”

Con la apertura de este nuevo centro, Barcelona se une a los 22 MindSphere Application Center situados en todo el mundo, en ciudades como Shanghai, Berlin y Orlando y en los que trabajan más de 24.000 empleados.

Sony confía en poder ofrecer ‘cross-play’ Fortnite en la PS4

$
0
0
Sony confía en poder ofrecer ‘cross-play’ Fortnite en la PS4

Un ejecutivo de Sony da esperanzas a quienes desean ver esta cualidad implementada pronto.

Sony podría ofrecer finalmente una opción para cross-play de Fortnite en la PlayStation 4. Tras conocerse en el pasado E3 de Los Ángeles que el popular battle royale llegaría a Nintendo Switch, Sony hizo pública su postura, donde se reafirmaba en no permitir la sincronización de cuentas entre su plataforma y la de Nintendo. Tras unos días en los que la crítica se ha cebado con la compañía por tomar una decisión que perjudica de manera clara a los jugadores, parece que la solución a este problema podría llegar pronto.

Eurogamer recoge las declaraciones que uno de los directivos de la compañía ha realizado hoy en el Gamelab de Barcelona y que, desde luego, invitan a pensar en un paso al frente por parte de Sony en este asunto:

Estamos escuchando. Estamos viendo muchas de las posibilidades. Puedes imaginar que las circunstancias que rodean eso [el *cross-play* de Fortnite] afectan mucho más que a un solo juego. Confío en que llegaremos a una solución que será entendida y aceptado por nuestra comunidad de jugadores al mismo tiempo que respalda nuestro negocio.

¿Cuestión de dinero?

Fortnite es una de las grandes sensaciones del momento en lo que a videojuegos se refiere. Acumula millones de jugadores en las diferentes plataformas en las que está disponible y una también espectacular cantidad de ingresos desde que la modalidad battle royale catapultó el título a la fama. Una situación que podría alcanzar nuevas cotas con la llegada de la versión para Android a lo largo de este verano.

La razón por la que Sony haya decidido cabrear a una masa de personas cada vez más grande es algo que todavía no está claro, aunque todo podría deberse a la razón más natural y evidente de todas: el dinero. No sabemos si la compañía piensa esconder ahora sus prejuicios o ha dado con una forma alternativa de facilitar el cross-play sin comprometer parte de sus intereses, pero sea como fuere, parece que no tardaremos en descubrirlo.

Análisis del Sonos Beam. El altavoz inteligente para reemplazar un sistema de sonido de la TV con calidad sorprendente.

$
0
0
Sonos Beam

Sonos crea un nuevo producto con el que pretende introducir altavoces inteligentes en el único lugar que ninguna marca tecnológica ha sido capaz de entrar realmente: la sala de casa, específicamente en la TV. El Beam busca cambiar eso, con un precio bastante atractivo y una calidad de sonido que sorprende, considerando el tamaño del dispositivo.Para promocionar el Sonos Beam, la compañía realizó una serie de pequeños comerciales de TV donde se ve a una persona con un complicado sistema de sonido envolvente que acompaña la TV de casa. Además, con varios controles remotos para controlar diferentes dispositivos (la TV, el amplificador del home theater, los cables a los diferentes altavoces 5.1).

https://www.youtube.com/watch?v=Ui1eR5yVFi8

En el comercial, la persona, junto a su familia, intenta ver una película, se ve la imagen, pero no el video. "Mierda, esta es una situación demasiado conocida para mi", pensé. Me dio hasta vergüenza, verme reflejado en una publicidad de TV, del típico nerd que tiene una configuración de sonido super complicada, decenas de cables, y si falla una cosa, en el peor de los caos pueden pasas horas, inclusive, hasta solucionarlo.

No es culpa de mi nerdez, no del todo. La realidad es que el estado general del mundo de A/V, sobre todo cuando se trata de sonido surround y todas sus variantes (5.1, 7.1) se ha quedado a inicios de los noventa. Casi todas las marcas de calidad tienen productos maravillosos pero con una filosofía de "primero la ingeniería, después el producto". Armar un sistema de sonido envolvente sigue siendo el equivalente a armar una PC de escritorio: comprar componentes separados, comprar rollos de cables, cortarlos, pelarlos, entender la diferencia entre un tipo y otro de HDMI, saber si aún se debería usar conexiones ópticas y un larguísimo etcétera que daría para veinte párrafos más.Sonos, que lleva años en el mundo de los altavoces inteligentes encontró un nicho que nadie parece querer solucionar, el sonido de calidad en la sala, donde pasamos gran parte del tiempo, donde está la TV, donde vemos series y películas, donde jugamos videojuegos, donde sacamos provecho al Full HD o al 4K.

La competencia hace productos pequeños que se suelen dejar en la cocina, en el escritorio de trabajo o en la mesa de noche de la habitación, Sonos quiere entrar de lleno en donde nadie más entró. Y que bueno que han decidido hacerlo, porque nos hacía mucha falta.

Beam no es el primer producto de la compañía que pretende reemplazar sistemas de sonido surround complicados, tanto Playbar y el Playbase tienen años en el mercado, pero la diferencia radica en un detalle minúsculo pero importantísimo: estos reciben la señal de sonido usando un cable de fibra óptica, también conocido como TOSLINK. Suena futurista, pero en realidad es tecnología que durante años funcionó bien porque conducía señales de audio digitales, pero que ya ha quedado vieja.

Los sistemas de audio y video actuales requieren conexiones versátiles que sean capaces de transportar no solo sonido, también video y de paso, datos. Que permitan la comunicación entre dispositivos. Es por eso que los cables HDMI se han popularizado y es la tecnología preferida en la actualidad.

Un solo cable funciona para todo, da igual si es una consola, o un Apple TV, la propia televisión, etcétera. Además, los aparatos con puertos HDMI, desde hace algunos años, incorporan una tecnología llamada ARC (Audio Return Channel) que simplifica significativamente la configuración de sistemas de sonido, al usar un solo puerto y un solo cable para no solo recibir señales, sino para enviarlas.

De esa forma la TV envía audio a un sistema de sonido, pero el sistema de sonido puede enviar señales de vuelta a la TV, y como esta actúa como concentrador de puertos HDMI, a los demás dispositivos. De esa forma no solo se puede usar un solo control remoto para controlar funciones básicas de cualquier dispositivo, también suceden cosas que al apagar la TV, se apagan todos los demás aparatos conectados. O encender la consola de videojuegos desde su control y ver como la televisión y el home theater también se activan. Nada de esto sería posible con un TOSLINK.

Por eso Beam, a diferencia del Playbar o el Playbase, incorpora un puerto HDMI con tecnología ARC. Insisto, es un detalle que de buenas a primeras parece mínimo, pero que es una diferencia muy grande.

La segunda diferencia tiene que ver con el precio. Un Playbar o Playbase cuesta 800 dólares/euros. Beam se posiciona en un rango mucho menor, 399 dólares, 449 euros u 8.499 pesos mexicanos. La tercera está en la tecnología que es donde vamos a profundizar:

Configurar Beam versus configurar un sistema de sonido 5.1 o 7.1 tradicional

Vuelvo al comercial de TV, aquel que mencionaba al inicio de este análisis: queda claro que me deshice de 5 controles remotos en el sofá, uno para controlar cada aparato conectado a la TV. Pero una vez instalado el Beam, conectado al puerto ARC de mi TV, inicié una fase de configuración desde la app de Sonos que tardó unos 10 minutos.

  • Conectar la app con Beam.
  • Esperar a que Beam detecte mi TV desde el puerto HDMI.
  • Hacerle saber si tengo altavoces adicionales de Sonos para sonido surround, como era mi caso, pero más de esto más adelante.
  • Iniciar el balanceo de sonido con un sistema de la compañía llamado Trueplay, que usa el micrófono de un iPhone o iPad —no está disponible en Android— para ecualizar el sonido de la mejor forma posible en base al espacio físico donde se ubica el Beam que estoy probando.
  • Por último configurar Amazon Alexa o Google Home.

En mi caso tardé unos 5 minutos más para posicionar de forma correcta dos altavoces Sonos Play:1 que tengo en casa y usarlos para el surround en mi sala y otros 5 minutos para configurarlos desde la app de Sonos y balancearlos. Eso es todo.

Y sí, todo funcionaba bien desde el minuto uno. El Sonos Beam es lo suficientemente inteligente para iniciar con un volumen adecuado, para entrar en modo ahorro de sonido cuando no se usa pero iniciar de forma silenciosa cuando enciendo la TV.

¿Quieres usar el control remoto de la TV o tienes uno universal para controlar directamente el Beam? Se puede configurar, también desde propia app en treinta segundos. Pero honestamente no me ha hecho falta.

A lo largo de mi vida he comprado y/o instalado unos siete sistemas de sonido surround en mis diferentes casas cuando vivía en la Ciudad de México, en Amberes o en Madrid. Nunca he tardado menos de una hora, por lo general dos, a veces tres. Dependiendo de la dificultad de cableado o la tecnología disponible en diferentes épocas (en 2001-2002, por ejemplo, los puertos HDMI no existían).

Pero: ¿De qué sirve configurar en pocos minutos un sistema de sonido que funciona bien a la primera, si el sonido no es suficientemente bueno? Ahí es donde Sonos tiene su mayor reto:

La calidad de sonido del Sonos Beam

Mis primeras pruebas con el producto fueron durante sesión en una habitación que simulaba la sala de una casa, creado por la propia marca, durante su presentación en San Francisco. Ahí me mostraron una serie de situaciones habituales como ver una serie de TV desde algún servicio de streaming, escuchar canciones o ver películas.

Esta última prueba, con la película, me llamó la atención, era un clip de Wall-E, donde el sonido surround juega parte importante de la escena. Cuando tuve la sensación de sonido envolvente, los representantes de Sonos me comentaron que fue una sensación totalmente simulada.

Minutos después, en una conversación con Chris Kallai (vicepresidente de producto de Sonos), me lo explicó en mayor detalle: el Beam recibe la fuente de sonido, entiende que se trata de una mezcla 5.1 y hace todo lo posible por reproducirlo de la mejor forma posible.

El Beam tiene cinco altavoces, dos woofers laterales en posición diagonal, dos frontales y un tweeter en el centro. Todos están impulsados por cinco amplificadores clase D. Además han incluído tres radiadores pasivos para ampliar graves. Además, por el diseño y posicionamiento, se siente como si el producto fuese mucho más grande de lo que realmente es.

Sonos logró crear un campo acústico lo suficientemente grande para llenar una habitación mediana y que un grupo de personas sentadas en el sofá frente a la TV puedan percibir una separación de canales lo suficientemente amplia, como si se tratara de altavoces mucho más separados de lo que realmente están. No podría decir que en términos de sonido surround, se puede prescindir de altavoces traseros, pero si el presupuesto está ajustado o el espacio físico impide ponerlos, Beam hace un trabajo decente en ese aspecto.

Debido al diseño del Beam, alargado, con los altavoces sumamente cercanos a la superficie donde se asienta, generan un poco más de bajo de lo que se espera. Sonos ofrece un sistema de montaje en la pared que está diseñado de tal forma que genera aún más sensación de bajo, es un accesorio extra de 69€ que funciona en casas donde la TV está montada también.

En la mayoría de las casas, donde la TV está sobre un mueble, el Beam se puede posicionar justo adelante, es lo suficientemente delgado como para caber en la mayoría de las situaciones.

Durante la presentación y briefings posteriores se hizo bastante énfasis en el trabajo que la compañía ha hecho para colaborar con algunos profesionales que han trabajado en producciones de mucho éxito como Game of Thrones, quienes ayudaron a diseñar la forma en que suena el dispositivo. Se presentó atención especial en la calidad de los diálogos, casualmente uno de los problemas más habituales del balance de niveles en sistemas de sonido 5.1 o 7.1.

El resultado, en la experiencia general de ver series y películas con el Beam es muy buena. La compañía que puso en el mapa los altavoces inteligentes enfocándose en la calidad del audio no defrauda y ofrece un nivel superior al que se esperaría por tamaño y precio.

De hecho estoy bastante seguro que cualquier persona que vea el Beam por primera vez le sorprenderá que el sonido se emita de ese aparato tan delgado, y se pensará que hay altavoces laterales escondidos por ahí.

Dicho eso, Sonos no puede irse en contra de la física del tamaño de los altavoces. Si esperas una experiencia explosiva de sonido, eso se encuentra en otros rangos de precio mucho mayores.

Al igual que otros productos orientados al audiovisual de Sonos, el Beam soporta configuración de altavoces múltiples. Se puede agregar dos altavoces traseros en modo surround (Play:1, Sonos One, Play:3 o Play:5 de los nuevos) y un Sub para una experiencia 5.1. Mis impresiones detalladas de las posibilidades y la calidad que se puede conseguir vendrá en otro artículo más adelante.

El Beam no soporta Dolby Atmos, pero tal y como funciona la configuración de altavoces múltiples de Sonos, técnicamente no sería posible aún. Aún así es verdad que la mayoría de las obras audiovisuales no están mezcladas o preparadas para esa tecnología. Tal vez en unos cuatro o cinco años se popularice más.## "Alexa, enciende la TV"

Sonos Beam incluye soporte de asistentes de voz, tanto Amazon Alexa que llegará este año a España como Google Home que está llegando tanto a España como a Latinoamérica cuando se publicó este análisis. Yo he tenido la oportunidad de probarlo con Alexa y resulta muy interesante el hecho que puedo controlar dispositivos, como la propia TV con la voz.

Así que, sentarte en el sofá y decir "Alexa, enciende la TV" o "Alexa, apaga la TV" es posible y funciona de forma totalmente normal. Todas las demás funciones que Alexa tendrá en el mercado español estarán soportadas, desde la posibilidad de hacer compras, pedirle el clima o hacerle toda clase de preguntas. Una vez que el soporte local haya sido lanzado, actualizaremos la reseña con nuestras impresiones.

Hay una cosa del micrófono del Beam que me ha sorprendido bastante: yo tengo otro dispositivo con Alexa en mi habitación que está bastante lejos de la sala de mi casa. Mientras caminaba de un lugar y otro, estando en el pasillo, mucho más cerca de la habitación que de la sala, hice una pregunta a Alexa, esperaba que me respondiera el dispositivo en la habitación, pero el Beam fue capaz de escucharme y responder también.

El micrófono puede desactivarse con el panel táctil encima del producto para aquellas personas que no quieren usar el asistente de voz o consideran tienen problemas con la privacidad al tener dispositivos escuchando todo el tiempo.

Diseño a prueba del tiempo

Es importante aclarar que soy consumidor habitual de productos de Sonos desde hace ocho años. Lo primero que tuve fue un Play:5 de primera generación que al día de hoy sigue funcionando y sigue recibiendo actualizaciones de sistema, agregando funcionalidades y mejorando desempeño general. Sonos a esto le llama diseño a prueba de tiempo y creo que es importante explicarlo y detallarlo porque es parte clave del valor que un producto como el Beam puede dar.

Tres ejemplos de cómo mis Play:5 de 2009 han cobrado mucho valor con el pasar del tiempo:

  1. En el inicio los Sonos funcionaban sí o sí con un producto llamado Bridge necesario para conexiones inalámbricas. Era requerido porque la compañía consideraba que las conexiones inalámbricas en casas no eran lo suficientemente rápidas y confiables. Creaba una red privada para sus propios productos.

    Pero en 2014 se dieron cuenta que las conexiones Wi-Fi se habían hecho lo suficientemente rápidas como para la necesidad de un producto extra. Una actualización de software fue suficiente para retirar uno de los productos y de ahí en adelante todos se conectaban directamente a la red inalámbrica y se comunicaban entre ellos.

  2. En 2015 lanzaron Trueplay, que permitía usar el micrófono de un dispositivo iOS para balancear mejor el sonido dependiendo de la habitación donde el producto se encuentra. De un día a otro todos los consumidores y dueños de productos comprados inclusive cinco años antes se vieron beneficiados por medio de una actualización de software y vieron como podían escuchar mejor música.

  3. Sonos es la única compañía que ha logrado que Apple ponga Apple Music en dispositivos que no son fabricados por la compañía. Cuando se lanzó el servicio y dejé Spotify, una actualización de software me permitió usar el servicio en los Sonos que ya tenía.

Sonos apunta a algo similar con el Beam. Quiere que sea un producto que aguante el paso de los años, que aguante el paso del tiempo. Es una filosofía muy ajena al ecosistema de hardware tecnológico que busca que se haga actualización o reemplazo de dispositivos en ciclos determinados.

El propio diseño minimal del Beam es una prueba de lo anterior. Cuando comenté lo anterior a Chris Kallai me explicó que diseñar a prueba de tiempo no es un mantra de marketing sino que está en el ADN de la compañía, no solo quiere que las cosas funcionen bien, sino que duren por muchos, muchos años.

Compatibilidad con AirPlay 2

Beam es un producto más en la familia de Sonos que tendrá soporte nativo de AirPlay 2 tal y como se anunció meses atrás. Eso significa que puede ser elegido como una fuente de sonido en los menús de iOS y macOS.

En su salida, Beam no viene con el soporte de AirPlay 2 incorporado, pero se agregará por medio de una actualización de software gratuita que llegará en próximas semanas. Sonos no ha anunciado una fecha específica, pero apenas esto suceda, actualizaremos el análisis explicando cómo funciona y su desempeño.9La primera vez que probé un producto de Sonos en 2010 me sorprendía que un dispositivo tan tecnológico, que era capaz de reproducir música en streaming sin necesidad de conectarlo a una computadora o a un smartphone, tuviese tan buena calidad de sonido.

Con el Beam las expectativas eran altas: ¿son capaces de reproducir audio de muy buena calidad, capaces de reemplazar un sistema de sonido para la TV? La conclusión es sí, siempre y cuando se instale en una habitación pequeña o mediana.

Habitaciones muy grandes probablemente se queden cortas y hay otras soluciones de la empresa que se ajustan mejor, aunque tal vez sea buena idea esperar a que el Playbar o el Playbase incorporen puertos HDMI-ARC.

La inversión es relativamente baja por el valor que ofrece: 399 dólares, 449 euros u 8.499 pesos mexicanos. Se posiciona en un lugar de casa que ninguna otra marca, en términos de productos de sonido inteligentes, no han sido capaces de entrar. Si Sonos logra convencer a posibles consumidores que es posible tener muy buen sonido en casa sin pasar días, semanas o meses investigando qué componentes comprar, sin dilemas terribles de configuración y sin pasar horas armando el sistema de sonido, entonces tienen un producto muy exitoso entre manos.

Quienes apunten a construir un sistema 5.1 deben saber que los costos aumentan de forma significativa. Se necesitan al menos dos Play:1 o One que son relativamente baratos, se llegan a conseguir por menos de 200 dólares/euros. Pero el subwoofer de la compañía cuesta 800 dólares/euros, más que el propio Beam pero su nivel de calidad es altísimo.

En unos días tendremos un artículo detallando la experiencia de armar un sistema 5.1 combinando productos Sonos)

Por mi parte, he disfrutado mucho de tener el producto en casa y me sin duda alguna me ha hecho repensar lo que significa armar y sobre todo tener un buen sistema de sonido en casa. Tal vez Sonos sea capaz de alejarme por completo de la idea que sistemas de sonido de calidad solo eran capaces de armarse por nerds especializados.* Calidad de sonido * Diseño * Precio * Soporte de asistentes de voz* Por su tamaño no vale para habitaciones grandes. Ojalá ofrecieran un "Sonos Beam Plus". * Si quieres un sistema 5.1 no puedes usar productos de otra marca, debes invertir bastante dinero en altavoces satélites y subwoofer de Sonos.

Vivo presenta un sensor de desbloqueo facial que realmente podría plantar cara al de Apple

$
0
0
Vivo presenta un sensor de desbloqueo facial que realmente podría plantar cara al de Apple

Es el primer fabricante de Android que parece estar dispuesto a apostarlo todo por esta tecnología.

Vivo ha dado a conocer hoy en el MWC de Shanghái una de las novedades en las que ha estado trabajando en los últimos meses y que puede suponer un gran avance para sus dispositivos. Se trata de un sensor de reconocimiento facial en tres dimensiones que, sobre el papel, supera de manera amplia a la tecnología Face ID de Apple incluida en el actual iPhone X.

Vivo ha bautizado a esta tecnología como TOF (time of flight o "tiempo de vuelo", en castellano), haciendo referencia a la cualidad que utiliza para trabajar. Esta consiste en enviar una "pulsación" lumínica y calcular el tiempo que tarda esta en volver de nuevo al sensor, algo que permite realizar un mapeo en 3D del entorno en una distancia de hasta tres metros. Desde la compañía aseguran que no se trata de un concepto y que ya se han realizado las pruebas necesarias para proceder a su implementación en un futuro próximo.

A la cabeza del sector, superando incluso a Apple

La tecnología TOF, según Vivo, es capaz de proyectar 300.000 puntos con los que realizar un escaneo facial al detalle, lo que supone aumentar por diez la cifra del actual sistema incluido en el iPhone X. El actual buque insignia de Apple marcó en septiembre un antes y un después tanto para la empresa de Cupertino como para toda la industria al incluir un sistema de desbloqueo facial realmente complejo y que ofrecía resultados excepcionales en la mayoría de las situaciones.

Desde entonces han sido numerosos los fabricantes que han decidido incluir la herramienta de desbloqueo facial directamente a través de la cámara del terminal, sin incluir sensores a mayores y, por tanto, denigrando la seguridad que debe ofrecer un sistema de autenticación. Hasta el momento, ningún fabricante de Android ha conseguido emular –bien sea por falta de recursos o interés en producir una tecnología más compleja para sus terminales– lo conseguido por Apple en el iPhone X, siendo este el único smartphone producido en grandes cantidades que puede presumir de ofrecer al usuario una calidad de reconocimiento facial a la altura de los estándares que en muchas ocasiones se suponen erróneamente implícitos.

El nuevo sistema de Vivo podría ser el elegido para dar el relevo a la tecnología tras Face ID y conseguir encauzar los pasos de los fabricantes de dispositivos Android en este sentido. Además, desde la tecnológica asiática hacen hincapié en que "tiene una estructura más simple y más pequeña", permitiendo facilitar la integración en los teléfonos.

“Los factores de impacto de las revistas científicas son fake news”

$
0
0
“Los factores de impacto de las revistas científicas son fake news”

El biólogo celular estadounidense Randy Schekman (Minnesota, 1948) ganó en 2013 el Nobel de Medicina. Aprovechó la ocasión para criticar duramente la burocracia científica y el sesgo en la evaluación de las investigaciones difundidas por las publicaciones más populares. Schekman continúa en esta lucha a la vez que avanza con sus estudios en los que busca explorar nuevas áreas “a mi propio ritmo, siguiendo mi propia intuición”.

Ha participado recientemente en un congreso en Barcelona para hablar de los exosomas. ¿Qué papel tienen en la investigación médica actual?

En la mayoría de las células de nuestro cuerpo, pequeñas vesículas transportan proteínas y lípidos. Las vesículas extracelulares, también denominadas exosomas, no son solo portadoras de proteínas, sino que contienen además pequeñas piezas de ARN que pueden controlar la expresión de los genes dentro de las células.

Dice que pueden revolucionar la biomedicina. ¿De qué forma?

De varias maneras. Cuando existe una enfermedad como el cáncer, el patrón de producción de estas vesículas extracelulares cambia y un pequeño tipo de ARN en ellas también. Esas moléculas de ARN podrían servir para predecir el desarrollo de tumores antes de que aparezca cualquier síntoma.

¿Cómo se haría el diagnóstico?

La esperanza es extraer la información de una muestra de sangre en una prueba rutinaria. Este pequeño ARN en los exosomas debería ser suficiente para diferenciar a una persona sana de otra enferma mucho antes de que la enfermedad le provoque síntomas. Así, cuando vas al médico para hacer un análisis, esta sería una de las pruebas que te harían. Si detectaran estos cambios, se podría comenzar un tratamiento.

¿Serviría solo para el desarrollo de nuevos fármacos o también para la prevención del cáncer?

El objetivo es intervenir terapéuticamente si se observa algún cambio que sugiera la enfermedad y tal vez, con el tiempo, también para prevenirla. Muchas compañías biotecnológicas ya están explorando los gases nucleares que están en las vesículas extracelulares en diferentes tipos de cáncer.

randy schekman
eLife (Flickr)

¿Y en un tumor avanzado?

Las vesículas extracelulares producidas por un tumor primario pueden moverse en el torrente sanguíneo y ser absorbidas por diferentes tejidos. Algunos los modifican de tal manera que se convierten en un receptor ideal para que un tumor primario migre y se establezca, provocando metástasis. Si se halla una manera de intervenir para bloquear la producción o la orientación de esta vesícula extracelular, tal vez se podría prevenir el cáncer metastásico en el futuro.

¿Es una técnica exclusiva para el cáncer?

Hay otras dolencias que pueden ser diagnosticables de esta manera. De nuevo, los cambios en las células enfermas que las causan o los diferentes tipos de ARN, se pueden observar muy pronto en el desarrollo de la enfermedad. Cuanto antes se pueda intervenir, más fácil será el tratamiento.

¿Qué avance médico le gustaría que se produjese en este siglo?

El mayor peligro ya no es tanto el cáncer –porque estamos logrando progresos– como las enfermedades neurodegenerativas. Mi esposa murió de párkinson hace un año y sufrió demencia durante mucho tiempo. Una vez que la demencia se establece es una carrera cuesta abajo. Puedes tratar algunos de los síntomas, pero no detenerla. Se han invertido miles de millones dólares en estas enfermedades sin resultados.

¿Qué dificultades encuentran las personas que cuidan de alguien con una enfermedad neurodegenerativa?

Es muy costoso cuidar a los pacientes. La atención primaria para alguien que padece demencia puede llevar a las familias a la bancarrota. A medida que la población envejece, estas enfermedades se vuelven más comunes, sin embargo, todavía no hay tratamientos efectivos. Las compañías farmacéuticas que invirtieron miles de millones de dólares en programas de investigación han dejado de hacerlo porque no ven resultados económicos. Ahora están resurgiendo iniciativas por parte de gobiernos, agencias privadas y entidades filantrópicas para invertir en el desarrollo de mejores terapias.

Ha sido muy crítico con las publicaciones científicas de pago, incluso publicó en The Guardian un duro artículo contra ellas. ¿En qué momento cambió su forma de pensar sobre estas revistas?

Sucedió con el tiempo. Hace doce años me convertí en editor de la revista Proceedings of the National Academy of Sciences (PNAS). La revista se mide por un número llamado factor de impacto diario, que básicamente mide la popularidad. Este índice fue creado con la idea de que los bibliotecarios lo usaran solo para decidir a qué revistas suscribirse. No está pensado para ponderar el conocimiento, por lo que es completamente inapropiado.

¿Qué alternativas existen?

Las revistas, particularmente las comerciales, se basan en el factor de impacto diario para vender. Contratan editores profesionales para que tomen decisiones sobre qué artículos se revisarán y qué artículos se publicarán. Sacan a la luz estudios importantes pero creo que estos editores no están cualificados para juzgar conocimientos realmente originales. Desafortunadamente, su política y su plan de negocio favorecen el uso de este tipo de expertos en lugar de académicos para tomar la decisión final sobre qué trabajo se publica. En mis años como editor de PNAS aumentó mi preocupación y decidí crear una nueva revista, eLife, para combatir el uso de este factor de impacto.

randy schekman
eLife (Flickr)

¿Cómo miden en eLife la calidad de los estudios?

Tenemos académicos en una junta editorial. Ellos deciden, basándose en su conocimiento, qué contribución es importante. Es una revista selectiva, pero no tan ridículamente como Nature o Science. Estamos tratando de reducir la influencia de las revistas comerciales y es una lucha muy difícil. El uso del factor de impacto numérico está profundamente arraigado en la cultura de los académicos, los gobiernos, las agencias de financiación y los equipos. Cuando gané el Premio Nobel decidí usar mi posición para hacer una declaración pública y de repente la gente me escuchó.

¿Ha encontrado apoyo de sus compañeros de profesión desde entonces?

Sí, muchas personas están de acuerdo conmigo, pero la mayoría se sienten impotentes para hacer algo al respecto. Yo viajo por todo el mundo, hablo con personas en posición de poder y trato de persuadirlas. El factor de impacto en sí para mí es un número falso, es una fake news.

¿Por qué unas investigaciones se ponen más de moda que otras?

Es una decisión muy personal del científico. A algunas personas les gusta trabajar en áreas populares para poder publicar en estas conocidas revistas. Otros prefieren trabajar por su cuenta en algo nuevo. A mí nunca me ha gustado dedicarme a temas en los que otras personas ya están trabajando. Prefiero ir a mi propio ritmo, siguiendo mi propia intuición y no estar condicionado por otros factores. El área de las vesículas extracelulares tiene mucho potencial, pero la mayor parte de los estudios existentes no poseen la calidad que esperaba. Creo que con mi experiencia en bioquímica puedo hacer un buen trabajo para comprender su funcionamiento.

¿Cree que el movimiento open access es el futuro?

Sí, cada vez más personas publicarán en acceso abierto. Pienso que es importante para difundir la ciencia hecha con inversión pública, pero no es el único problema que existe. De nuevo, las revistas comerciales y editores como Elsevier y Springer son muy poderosos porque tienen marcas muy fuertes. No van a renunciar a la lucha por los ingresos, obviamente tienen fines lucrativos, lo cual es totalmente lícito. No estoy en contra de eso, pero solo si lo que hacen es un producto mejor. Yo no creo que lo sea.

La mejor filtración de los Google Pixel 3 rompe las ilusiones de ver doble cámara

$
0
0
La mejor filtración de los Google Pixel 3 rompe las ilusiones de ver doble cámara

Los esperados Google Pixel 3 y Pixel 3 XL se llevan filtrando durante un tiempo, pero nunca se habían visto con la calidad que ofrecen los renders de Onleaks. La sorpresa: ambos terminales no contarán con doble cámara trasera

En esta época del año, dos son los terminales más esperados. Por una parte tenemos a Apple, a la cual queremos ver iterar su iPhone X, y sobre todo, ver si se acercar al liderato perdido de la función más aclamada tradicionalmente en los iPhone, su cámara. Por otra parte tenemos a los Google Pixel 3, con los que la compañía de Redmond tiene que reforzar su apuesta por el software y dejar atrás debilidades como las pantallas OLED de baja calidad.

Valorados estos últimos como los reyes casi sin discusión de la fotografía móvil, los usuarios se preguntaban a qué nivel llegarían si añadían un segundo sensor trasero a sus sistema de cámara. La respuesta es que no habrá posibilidad de comprobarlo, al menos en 2018, pues todas las filtraciones apuntan a que el único lugar donde habrá novedades significativas será en el frontal, donde tanto el Google Pixel 3 como el Google Pixel 3 XL sí contarán con dos cámaras.

En la mejor filtración hasta la fecha, que llega de la mano de OnLeaks, el mayor filtrador de renders hechos a partir de modelos CAD de la industria, pueden observarse esos detalles y otros como que el Pixel 3 pequeño cambiará su diseño dejando atrás esos marcos tan de 2013 que tenía el Pixel 2 para pasar a otros más cercanos a los del Samsung Galaxy S8, aunque recordando más a terminales económicos como los Honor o los Xiaomi. La pantalla sería de 5,4 pulgadas con proporción 18:9.

La otra gran sorpresa llega en el Google Pixel 3 XL, que contará con un panel de 6,2 pulgadas, y con un ratio más alargado, 19:9. Sin embargo, lo más relevante es que Google, tal y como dedujimos con el soporte en Android P, el terminal contará con un pronunciado notch en la parte superior que alojará dos cámaras y el altavoz.

Resulta curiosa la elección de la doble cámara delantera en lugar de haberlas situado en la trasera, pues el modo retrato en selfies ya funcionaba perfectamente con una sola cámara. Eso lleva a pensar en que quizá, además de ese cometido en el frontal, también sean protagonistas en desbloqueo facial, aportando más seguridad de la que hemos visto hasta ahora con soluciones alejadas del reconocimiento 3D de Face ID en el iPhone.

Por lo demás, podemos esperar lo mejor de lo mejor. El doble altavoz frontal se mantiene, y el conjunto será potenciado por el alabado y ubicuo Snapdragon 845, que en esta ocasión estaría acompañado de 6 GB de RAM, suficientes para las necesidades más altas en 2018, a diferencia de los 4 GB de RAM de los Pixel anteriores, que con frecuencia producían recargas con multitarea intensiva.

Si alguien esperaba el regreso del jack de audio, no hay ni rastro de él. Es lo que toca asumir en la nueva era. Para ver si todo esto es real, que viniendo de quien viene tiene todas las posibilidades, habrá que esperar con casi toda probabilidad a octubre, fecha en que Google tradicionalmente presenta nuevo hardware.

Adiós a los spoilers: Facebook está probando filtros para silenciar palabras clave

$
0
0
Adiós a los spoilers: Facebook está probando filtros para silenciar palabras clave

Facebook se suma a la estrategia de Twitter y está probando una nueva herramienta para que los usuarios puedan silenciar temas completos mediante palabras clave.

Facebook quiere poner coto a los spoilers y, de paso, dar mas herramientas a los usuarios sobre el contenido que ven dentro de su News Feed. Aunque ya podemos silenciar cuentas, tanto de forma definitiva como temporal, o directamente, bloquear ciertos contenidos que vemos en nuestro timeline, lo cierto es que Facebook quiere darle una vuelta de tuerca al sistema para silenciar contenido para que podamos eliminar de nuestra vista cualquier tipo de contenido asociado a un determinado término. Básicamente, la red social va a permitir silenciar temas completos.

Sí, directamente silenciar términos como Trump, Marvel o la actual Copa del Mundo, o el título de esa película o videojuego del que no quieres saber nada para no estropearte las sorpresas. La idea es similar a la que ya tienen otras redes sociales como Twitter, puesto que Facebook no viene a inventar nada en este sentido: silenciar palabras claves concretas asociadas a un tema durante un tiempo de 30 días tanto dentro de nuestro News Feed como en el de los grupos.

De momento es una prueba que está llevando a la compañía, es decir, no es una solución implementada o que esté próxima a llegar a todos los usuarios, pero generalmente una vez que se detecta este tipo de funciones no tarda mucho en llegar para todos los usuarios. Además desde el punto de vista de limpieza de nuestras redes es interesante, por lo que resulta extraño que Facebook no lo haya implementado ya, sabiendo que desde hace tiempo podemos silenciar desde personas hasta páginas o grupos durante períodos de tiempo.

Según las pruebas, esta función de silenciar palabras clave se aplica a cualquier contenido orgánico, pero no se pueden bloquear anuncios con ellas, es decir, por mucho que silenciemos "Juego de Tronos", toda la publicidad que contenga ese término seguirá mostrándose dentro de nuestro News Feed. Veremos qué sucede cuando llegue de forma definitiva para todos, si es que llega en algún punto del calendario cercano.


Samsung anuncia la fecha de presentación del Galaxy Note 9

$
0
0
Samsung anuncia la fecha de presentación del Galaxy Note 9

  • El nuevo modelo será presentado el 9 de agosto en Nueva York.
  • Tanto la cámara como el S-Pen sufrirían importantes mejoras.

Tal y como los rumores indicaban, la presentación oficial del Galaxy Note 9 se producirá el próximo 9 de agosto en la ciudad estadounidense de Nueva York.

El evento, bautizado como 'Unpacked', también podría ser el escenario perfecto para desvelar productos como el Gear S4 o la Galaxy Tab S4, aunque la trayectoria habitual del fabricante invita a pensar en un evento posterior para estos dos productos —probablemente durante IFA—.

Cámara, S-Pen y procesador mejorado

El nuevo Galaxy Note 9, de acuerdo a los rumores y filtraciones, adoptaría un diseño similar al del modelo anterior, tal y como ya ocurriera con el Galaxy S9 —y su semejanza externa con su predecesor—.

El S-Pen podría mejorar sustancialmente respecto al modelo anterior.En el interior, el nuevo teléfono de Samsung montaría unos componentes similares a los del Galaxy S9+. La única diferencia sería la capacidad de su batería, que ascendería hasta los 4.000 mAh de capacidad.

El Galaxy Note 8 fue uno de los primeros teléfonos en superar la barrera de los 1.000 euros, por lo que no sería descabellado que su reemplazo, el Galaxy Note 9, continúe el mismo camino.

Google Home y Chromecast dejan de funcionar correctamente

$
0
0
Google Home y Chromecast dejan de funcionar correctamente

  • Un incidente desconocido deja sin servicio a los dispositivos Home y Chromecast.
  • Google ya trabaja para resolver el error.

Si tu Google Home o Chromecast no funciona correctamente, puedes estar tranquilo: no eres el único afectado.

La empresa norteamericana, en declaraciones a TechCrunch, ha confirmado la existencia de una incidencia temporal en los servidores asociados al servicio.

Los detalles del error no han sido revelados por el momento, aunque Google asegura estar trabajando activamente para resolver el incidente lo antes posible.

Victoria para Disney: se queda con 21st Century Fox

$
0
0
Victoria para Disney: se queda con 21st Century Fox

La compañía de Mickey Mouse ha llegado a un acuerdo con el Gobierno de los Estados Unidos para resolver la demanda antimonopolio que impedía la fusión entre ambas empresas.

Es un hecho, The Walt Disney Company ha concretado este miércoles la adquisición de 21st Century Fox por 71.300 millones de dólares.

La casa de Mickey Mouse ha llegado a un acuerdo con el Gobierno de los Estados Unidos para resolver la demanda antimonopolio que impedía la fusión de ambas empresas de entretenimiento. La condición para efectuar la compra es que antes se vendan las 22 redes de canales deportivos regionales de Fox.

Así lo ha confirmado el Departamento de Justicia estadounidense este 27 de junio, según reportan medios locales como The New York Times. No obstante, para que la decisión sea definitiva, aún falta la aprobación de un juez federal y el visto bueno por parte de los accionistas de Fox.

Makan Delrahim, jefe de la división antimonopolio del Departamento de Justicia, dijo en un comunicado, según recoge el NYT:

El acuerdo de hoy garantizará que la competencia de programación deportiva se preserve en los mercados locales donde Disney y Fox compiten por la distribución de cable y satélite.

En diciembre, la primera oferta de Disney a Fox fue por 52.400 millones de dólares. Pero, hace dos semanas, Comcast le propuso unos jugosos 65.000 millones de dólares. Así que Disney incrementó su ofrecimiento a 71.300 millones de dólares la semana pasada.

¿Y qué ganamos como audiencia?

Fox cuenta con diversas joyas, tanto televisivas como cinematográficas. Entre ellas, canales de cable como FX y National Geographic, programas como Los Simpsons, franquicias de películas como Avatar y X-Men y personajes como Deadpool. Eso significa que las futuras películas de Avengers podrían incluir a Wolverine, Quicksilver, Mystique o Magneto, entre muchos otros.

Lo que queda fuera de esta fusión son los canales de noticias Fox News, así como las estaciones de transmisión de Fox y la red de deportes FS1. De hecho, se espera que las redes deportivas regionales, que quedan excluidas como parte de la condición del Gobierno estadounidense para realizar la compra, generen más de 2.000 millones en ganancias este año.

Con esta fusión, Disney ya pinta como el próximo rival más fuerte de Netflix cuando sea el lanzamiento de su propio servicio de streaming.

Los responsables de PUBG retiran su demanda contra Fortnite

$
0
0
Los responsables de PUBG retiran su demanda contra Fortnite

El conflicto legal ha llegado a su fin, pero la polémica entre ambos juegos continúa.

El pasado mes de mayo, PUBG Corporation interpuso una demanda por plagio contra Epic Games. Según la acusación que recibió la autoridad de Corea del Sur, Fortnite violaba el Copyright de PlayerUnknown's Battlegrounds, concretamente el del popular modo de juego "Battle Royale". Sin embargo, hoy el demandante ha decidido dar marcha atrás en sus acusaciones. La demanda ha sido retirada.

Según reporta Bloomberg, los abogados que representan a Epic Games recibieron una carta de confirmación por parte de PUBG Corporation, donde afirmaban precisamente el retiro de la acusación. Aunque los responsables de PUBG han confirmado el hecho al portal Eurogamer, ninguna de las dos partes involucradas ha dado a conocer si hubo un acuerdo extrajudicial para terminar el conflicto legal.

Si bien se desconocen los motivos exactos para no seguir adelante con el proceso legal, es curioso resaltar que tanto PUBG Corporation como Epic Games tienen una inversión importante de Tencent Holdings, un gigante de las telecomunicaciones en China. Este pudo haber sido uno de los principales motivos para terminar el conflicto.

Seguramente este no será el final la polémica que existe entre ambos juegos. Apenas la semana anterior, PUBG añadió algunas características muy distintivas de Fortnite, incluido el modelo de negocio por medio de los pases de temporada.

Muere Joe Jackson, padre de Michael Jackson

$
0
0
Muere Joe Jackson, padre de Michael Jackson

Joe Jackson, padre de Michael Jackson ha muerto a los 89 años después de varias complicaciones de salud.

Joe Jackson, padre de Michael Jackson y figura determinante en el éxito musical de sus hijos ha muerto hoy a los 89 años, según han reportado varios medios estadounidenses. Nacido en 1928 en Arkansas, y casado en 1949 con Katherine Jackson tuvo 11 hijos, muchos de los cuales alcanzaron fama internacional ya sea como solistas o como parte de los Jackson Five.

Jackson formó el grupo con cinco de sus hijos, Jackie, Jermaine, Marlon, Tito y Michael a finales de los 60. Logró firmarlos con la legendaria discográfica Motown y posicionaron tres singles, I Want You Back, ABC y The Love You Save, como número uno en la lista de éxitos de Billboard. Años más tarde se encargo de posicionar a Michael Jackson como artista solista y lanzarlo al estrellato.

Aún cuando Michael Jackson aceptó que jamás hubiese llegado a la cima del éxito que obtuvo durante su vida, también describió los insultos, maltratos y palizas que recibieron durante su niñez. En 1979 Jackson despidió a su padre como manager, poco después su carrera solista despegó hasta niveles que jamás imaginaría.

La relación entre Michael y Joe Jackson nunca fue del todo buena, de hecho después de su muerte Michael dejó a su padre fuera de la herencia. Sus hijos quedaron bajo la custodia de su abuela, Katherine.

La verdadera identidad de ‘Oumuamua, el primer viajero interestelar

$
0
0
La verdadera identidad de ‘Oumuamua, el primer viajero interestelar

Una investigación publicada en la revista Nature asegura que ‘Oumuamua —el primer viajero interestelar que visitó el sistema solar— no es un asteroide, como se había postulado tiempo atrás.

Cuando en octubre de 2017 un equipo de astrónomos descubrió un objeto inusual, al que apodaron C/2017 U1, pocos pensaban que su exploración nos daría tantas sorpresas. Pero lo cierto es que ‘Oumuamua —tal y como fue bautizado tiempo después— no solo contaba con una llamativa forma alargada, una tonalidad rojiza y una composición rocosa. Ese extraño objeto, observado por primera vez por el telescopio Pan-STARSS 1 de Hawái, iba a convertirse en un quebradero de cabeza para los investigadores.

‘Oumuamua procedía de un lugar fuera de las fronteras del sistema solar, lo que le convertía en el primer viajero interestelar de la historia conocido hasta la fecha. Además, la comunidad científica inicialmente aseguró que se trataba de un cometa, aunque posteriormente se desdijo afirmando que en realidad era un asteroide. La diferencia es importante, porque a pesar de que ambos tipos de objetos se crearon hace miles de millones de años, su composición es ligeramente distinta.

Un nuevo estudio publicado hoy en la revista Nature da una vuelta de tuerca más a la naturaleza de ‘Oumuamua. El equipo de investigadores, liderado por Marco Micheli, de la Agencia Espacial Europea (ESA), señala que el cuerpo con forma de cigarro alargado es en realidad un cometa. A pesar de que ‘Oumuamua no parecía tener la característica coma —una cola de gas y polvo— de estos objetos mientras cruzaba a toda velocidad el sistema solar, los científicos sostienen que esta aparente carencia no descarta que se trate de un cometa.

Sus observaciones han analizado el arco a lo largo del cual ha viajado ‘Oumuamua durante los últimos meses, en los que se protegió de nuestra estrella con una suerte de escudo. Normalmente, la fuerza de la atracción gravitatoria del Sol, los planetas y los asteroides domina los movimientos de los objetos celestes. Sin embargo, según los resultados que publican en Nature, parte de la aceleración es de tipo no gravitacional y se debe a la propulsión del gas que desprende el propio objeto a medida que se va desplazando. Este movimiento coincide con el comportamiento de los cometas, por lo que ‘Oumuamua no debería ser considerado como un asteroide.

Sus observaciones también han descartado que el cometa interestelar mantenga una aceleración no gravitacional por otros factores, como podrían ser la presión de la radiación solar o la interacción magnética con el viento solar. La falta de polvo observado, dicen los autores del artículo, podría deberse a una distribución atípica de los granos sobre su superficie o a una evolución superficial distinta durante su trayectoria, entre otras causas. No obstante, el equipo de científicos dice que estos aspectos sobre la naturaleza de ‘Oumuamua no podrán resolverse de forma concluyente hasta que no se lleven a cabo observaciones in situ, algo que de momento parece bastante improbable.

La NASA vuelve a retrasar el lanzamiento del sustituto del Hubble por enésima vez

$
0
0
La NASA vuelve a retrasar el lanzamiento del sustituto del Hubble por enésima vez

  • La nueva fecha de lanzamiento es el 30 de marzo de 2021.
  • El retraso obliga a la NASA a pedir nuevas autorizaciones al Congreso debido al sobrecoste económico.

La agencia espacial norteamericana convocó ayer una conferencia de prensa para dar a conocer las últimas novedades acerca del telescopio James Webb, especialmente las conclusiones de un comité revisor independiente sobre el estado del que será el sustituto del Hubble en el espacio. El anuncio realizado por la NASA vuelve a ser decepcionante, ya que supone un nuevo retraso en el lanzamiento del James Webb, fijado ahora para el 30 de marzo de 2021.

Esta no es la primera vez que la agencia norteamericana postpone el envío al espacio del telescopio James Webb. El pasado mes de marzo, los investigadores detrás del observatorio ya admitieron que el lanzamiento no tendría lugar en las fechas previstas y que su construcción podría exceder los 8.000 millones de dólares, un sobrecoste que podría obligar a la NASA a pedir una nueva autorización al Congreso de Estados Unidos. Entre las conclusiones del informe difundido hoy, los revisores independientes apuntan que el nuevo retraso se debe a múltiples factores, tales como errores humanos, falta de experiencia, exceso de optimismo y complejidad del proyecto.

El retraso en el lanzamiento del telescopio James Webb obliga a los científicos de la NASA a pedir nuevas autorizaciones al Congreso de Estados Unidos, ya que originalmente su envío al espacio estaba previsto para 2018. Según ha explicado la agencia en un comunicado, el nuevo coste total del ciclo de vida del telescopio, que incluye la nueva fecha revisada, se sitúa en 9.660 millones de dólares, mientras que el presupuesto para el desarrollo es de 8.800 millones de dólares —más alto del límite establecido en los 8.000 millones de dólares iniciales—.

La noticia, según han admitido los propios investigadores durante la conferencia de prensa, ha sentado como un jarro de agua fría entre la comunidad científica. El retraso en el lanzamiento del James Webb provocará que muchas investigaciones deban postponerse, un problema que la NASA espera que sea solo temporal —debido al tamaño y la complejidad de la misión—. Los científicos afirman que estos retrasos solo representan "resbalones" en una iniciativa de exploración espacial muy ambiciosa, pero que deben asegurarse de que el telescopio está completamente listo antes de ser lanzado. "Merecerá la pena esperar", ha dicho uno de los portavoces de la agencia.

El James Webb permitirá escribir un nuevo capítulo en la historia de la astrofísica y la astronomía. Su extraordinaria potencia —cien veces superior a la del Hubble— nos podría permitir descubrir la luz de las primeras estrellas y galaxias del universo o detectar las atmósferas de los exoplanetas, los mundos situados fuera de las fronteras del sistema solar. Este observatorio, que despegará a bordo de un cohete Ariane 5, se construye en colaboración con la Agencia Espacial de Canadá y la Agencia Espacial Europea (ESA). Las malas noticias de la NASA contrastan con las buenas nuevas anunciadas hoy mismo por su homóloga en el viejo continente, que ha publicado esta tarde en Nature nuevos resultados sobre la identidad de ‘Oumuamua, el primer cometa interestelar de la historia.


SD Express, tarjetas de memoria de 128 TB tan rápidas como un SSD

$
0
0
SD Express, tarjetas de memoria de 128 TB tan rápidas como un SSD

SD Express es la promesa que muchos fotógrafos y profesionales del vídeo esperaban: velocidad similares a discos SSD con hasta 128 TB de capacidad.

A lo largo de los años, las tarjetas SD (Secure Digital) han ido iterando para acabar mejorando mucho. En los inicios, ninguna marca apostó por ellas para soluciones profesionales, ese puesto lo ocuparon las tarjetas Compact Flash. El buen hacer de sus desarrolladores y su **universalidad^^, sin embargo, las acabaron estableciendo como líderes absolutas del mercado hasta hoy, momento en que la SD Association ha mostrado lo que depara su futuro: SD Express.

Y a falta de ser abandonadas, van a ser más rápidas que nunca. La tercera generación de Ultra Alta Velocidad (UHS-III) ya ofrecía resultados inesperados en un medios así, alcanzando los 624 MB/s, pero la presentada hoy, que también se conocerá bajo el nombre de SD 7.0, alcanza los 985 MB/s, lo que supone un aumento de velocidad del 57%. Como siempre, estos datos significan poco para muchos, pero mucho para unos pocos. En particular, para todos los profesionales que a día de hoy trabajan con archivos de vídeo con resolución 4K y en poco tiempo lo harán con 8K.

Las cámaras tendrán que actualizarse, al igual que los lectores externos e internos de los ordenadores, si es que siguen vivos, porque los cambios son muy profundos. SD Express utiliza el protocolo NVMe 1.3 bajo la interfaz más rápida que existe, PCIe Gen 3.

Eso sí, como en anteriores generaciones, la compatibilidad está garantizada hacia atrás. El único problema será que no se alcanzarán los 985 MB/s si los dispositivos no lo soportan. Como vemos, la velocidad es similar a la que ofrecen muchos discos SSD muy populares, e incluso superior a la presente en ordenadores tradicionales, que bajo SATA no permiten escribir y leer a más de 500 MB/s.

Otra parte brillante del anuncio ha sido los almacenamientos soportados, hasta 128 TB. Hay que recordar que, aunque ofrezcan una velocidad muy superior, los discos SSD que ahora mismo cuentan con el récord están sobre los 30,72 TB, por lo que a estas tarjetas SD Express se les perdonará cualquier pérdida de rendimiento, siempre que se priorice el espacio.

En estos momentos, no hay precios ni disponibilidad para tarjetas SD Express, pero como siempre ocurre, no puede esperarse que sean económicas, al menos durante un largo período cercano al lanzamiento.

IBM publicará dos gigantescas bases de datos para mejorar sistemas de reconocimiento facial

$
0
0
IBM publicará dos gigantescas bases de datos para mejorar sistemas de reconocimiento facial

La compañía quiere ayudar a otras empresas y entidades a mejorar sus sistemas de identificación.

IBM se suma a las preocupaciones de las grandes empresas por el reconocimiento facial y las implicaciones que puede tener este en todos los ámbitos de la sociedad. El escáner e identificación de los rostros es una de las tecnologías punteras en la actualidad, objeto de todo tipo de aplicaciones y siendo especialmente atractiva para los gobiernos, organismos de policía y departamentos dedicados a la defensa.

La polémica con estos nuevos avances está a la orden del día debido a la pobre calidad de los resultados que son capaces de ofrecer en la actualidad, donde se pueden encontrar fallos o errores de funcionamiento al reconocer a personas de raza negra, por ejemplo. Una polémica que ha salpicado de manera importante a Microsoft en los últimos tiempos al conocerse que su sistema de reconocimiento facial tenía una tasa de error de más del 20 % cuando se trataba de identificar a personas de color mientras que esta cifra descendía al 0 % cuando se trataba de hombres blancos.

El problema de todo esto se encuentra en las imágenes y parámetros de las bases de datos que se utilizan para entrenar a los sistemas de reconocimiento facial o, más concretamente, en la falta de ellos. Unos errores, precisamente, que ahora quiere ayudar a subsanar IBM.

Dos grandes bases de datos para poner fin a la controversia

Si bien Microsoft ha realizado grandes avances mejorando los sistemas de refinamiento y reconocimiento de identidades, IBM quiere que todos los sistemas de otras empresas puedan hacer lo propio. De esta manera, hará públicas las que ha calificado como las "bases de datos faciales más grandes del mundo" para que el entrenamiento de los sistemas pueda llevarse a cabo de manera propicia y "responsable", dando como resultado una utilidad libre del máximo número de errores posible.

La primera de las bases de datos contará con más de 1 millón de imágenes (la más grande hasta el momento contiene 200.000, según destaca IBM) y se centrará en los atributos –color de pelo o de ojos, por ejemplo– y la identidad –distinguir a un individuo entre el resto–, algo que tampoco se ha realizado de manera combinada en una base de datos, centrándose las existentes bien en un apartado o bien en otro. También aprovechará las etiquetas de Flickr que permitan enriquecer el aprendizaje a través de localizaciones geográficas.

La segunda de ellas es más específica que la primera y mucho más reducida en cantidad, incorporando 36.000 imágenes que componen una mezcla por igual entre etnias, géneros y edades, dando lugar a una muestra lo suficientemente diversa como para poner a prueba los sistemas existentes de una comapañía y ayudar a detectar los errores que se comenten en la identificación de sujetos. El correcto entrenamiento de estos sistemas, aseguran desde IBM, es "esencial".

Creemos que ninguna tecnología, sin importar cuán precisa sea, puede o debe reemplazar el juicio humano, la intuición y la experiencia. El poder de las innovaciones, como la IA, radica en su capacidad para refinar, no reemplazar, la toma de decisiones humanas. Por lo tanto, es fundamental que cualquier organización que utilice inteligencia artificial, incluidas capacidades de reconocimiento visual o análisis de vídeo, capacite a los equipos que trabajan con ella para comprender los prejuicios, incluidos los prejuicios implícitos e inconscientes, controlarlos y saber cómo abordarlos.

Este texto de la compañía es de especial relevancia en un momento en el que las principales compañías tecnológicas de Estados Unidos están teniendo que justificar su trabajo con el Gobierno en diferentes ámbitos en lo que al reconocimiento facial se refiere. Por un lado, Google se vio forzada a abandonar un proyecto que tenía con el Pentágono para proporcionar inteligencia artificial al departamento de Defensa.

Más recientemente, los empleados de Amazon emitieron una carta para Jeff Bezos en la que pedían que Rekognition, el sistema de reconocimiento facial de la compañía, dejase de ser proporcionado a la policía bajo la creencia de que estaría siendo utilizado de manera injusta con los inmigrantes que intentaban entrar en el país. Es de esperar que todo lo concerniente a este asunto adquiera mayores dimensiones con el paso del tiempo, poniendo en relevancia la importancia no solo de la mejora de los sistemas, sino de su correcto uso por parte de la sociedad.

Patty Jenkins publica primera foto de Kristen Wiig, la villana Cheetah, en ‘Wonder Woman 1984’

$
0
0
Patty Jenkins publica primera foto de Kristen Wiig, la villana Cheetah, en ‘Wonder Woman 1984’

La primera imagen de la actriz comediante como Barbara Minerva fue publicada por la directora de 'Wonder Woman', Patty Jenkins, en su cuenta de Twitter.

La directora de Wonder Woman (2016), Patty Jenkins, ha publicado este miércoles en su cuenta de Twitter la primera imagen de Kristen Wiig como la científica Barbara Minerva en la secuela WW84, que se estrenará el 1 de noviembre de 2019.

La actriz de comedia Wiig (Bridesmaids), quien es conocida por haber formado parte del programa Saturday Night Live de 2005 a 2012, se pondrá en la piel de la villana Cheetah, quien es la más antigua enemiga de la Mujer Maravilla, interpretada por la actriz israelí Gal Gadot.

¿Quién es Cheetah?

En los cómics, este personaje tiene varias facetas, de las cuales cuatro son sus principales encarnaciones. Sin embargo, Jenkins ha confirmado que solamente veremos en pantalla grande a la tercera. Eso significa que no veremos a las icónicas Priscilla Rich y Deborah Domaine de su era de oro.

DC Comics

Barbara Minerva es una arqueóloga británica que ha dedicado su vida a buscar la verdadera divinidad de leyendas como las amazonas. La revelación de que Diana de Temiscira y estas guerreras son reales la motiva a indagar otras pruebas de dioses antiguos.

En una expedición a África, encuentra al dios gato Urzkartaga, quien transforma su cuerpo y la dota de poderes como gran fuerza, garras y dientes, sentidos de caza de un depredador y reflejos felinos. Sin embargo, sus poderes también tienen un alto precio: sed incontrolable de sangre humana y, por tanto, deseos caníbales.

Además de Wiig y Gadot, como parte del elenco volverá Chris Pine como Steve Trevor, aunque aún no sabemos cómo encajarán esa pieza en el crucigrama. También estará Pedro Pascal (Narcos), cuyo personaje todavía se desconoce. La película estará ambientada en los años 80 y el título oficial es Wonder Woman 1984.

Google y Facebook manipulan a sus usuarios e incumplen la GDPR según un estudio

$
0
0
Google y Facebook manipulan a sus usuarios e incumplen la GDPR según un estudio

Las gigantes tecnológicas americanas complicarían el acceso a los ajustes de privacidad con el objetivo se seguir accediendo y compartiendo información de sus usuarios

El Consejo de Consumidores de Noruega publica hoy un estudio, avalado por el gobierno del país, en el que evidencian que Facebook y Google no cumplen lo establecido por la ley europea de protección de datos. Dicha organización ha descubierto que las gigantes de la teconología americanas han actualizado sus términos de privacidad pero éstos no cumplen lo establecido por el Reglamento General de Protección de Datos (GDPR).

Esta nueva ley, en vigor desde el pasado 25 de mayo, hace que el usuario deba dar su consentimiento inequívoco para que las empresas puedan usar sus datos y obliga a estas compañías a explicitar las diferentes elecciones que tienen sus usuarios a la hora de permitir o no la difusión de sus datos personales. Así las cosas, parece que Facebook y Google estarían distrayendo y manipulando al usuario para que terminara compartiendo su información mediante opciones limitadas e invasivas.

Finn Myrstad, director de servicios digitales del consejo, afirma que "estas compañías nos manipulan para que compartamos nuestra información, chocando de frente con la intención de los consumidores y lo establecido por la nueva regulación". En el informe, bautizado como "Engañados por el diseño", Myrstad describe "prácticas sin ningún respecto por los usuarios que eluden la obligación de dar a los usuarios el control de su información personal".

Dicho informe, que ha recopilado información desde mediados de abril hasta principios de junio, destaca que Facebook y Google suelen establecer como predeterminadas las opciones que no priorizan la privacidad de sus usuarios, sabiendo que la inmensa mayoría de sus clientes nunca cambian estos ajustes por defecto. Así, afirma que "las opciones centradas en la privacidad del usuario suelen estar más escondidas y requieren más clics" y, en definitiva, "son más incómodas".

Desde Google todavía no se han pronunciado al respecto mientras que un portavoz de Facebook ha afirmado "haber trabajado durante 18 meses en el cumplimiento de la GDPR, haciendo sus políticas más claras, facilitando el acceso a sus ajustes de privacidad e introduciendo nuevas herramientas para acceder, descargar y eliminar su información personal". Ambas compañías, ya denunciadas previamente, podrían hacer frente a multas de hasta 20 millones de euros o el 4% de su facturación global anual por incumplir la nueva ley de protección de datos de la Unión Europea.

La disputa legal entre Apple y Samsung llega a su fin, de nuevo

$
0
0
La disputa legal entre Apple y Samsung llega a su fin, de nuevo

La extensa batalla por patentes ha terminado.

La batalla legal entre Apple y Samsung se extendió hasta los siete años y hoy ha llegado a su fin. Ambas compañías llegaron a un acuerdo que hasta el momento no ha sido revelado. Recordemos que la disputa inició en 2011 y ha tenido episodios de todo tipo.

La batalla legal entre ambas partes comenzó en el 2011, cuando los de Cupertino acusaran a Samsung de violar varias patentes relacionadas con el iPhone. Aunque Apple ganara el juicio con una compensación por 1.049 millones de dólares en 2012, la compañía asiática rechazó el veredicto.

La autoridad redujo la cifra hasta los 548 millones de dólares. Samsung no conforme con la decisión, en 2016 decidió llevar el caso hasta la Corte Suprema de los Estados Unidos, donde se determinó iniciar un nuevo juicio que se extendió hasta mayo del presente año.

El pasado 25 de mayo, la corte de San José, California, determinó que la compañía surcoreana debía pagar 539 millones de dólares a Apple por infringir tres patentes de diseño y dos de utilidad. El 11 de junio, Samsung nuevamente rechazó el veredicto solicitando una revocación o un juicio nuevo. Tras lo anterior, se citó a los representantes de los involucrados para el próximo 26 de julio, situación que finalmente no ocurrirá después de la información dada a conocer hoy, pues ambas compañías alcanzaron un acuerdo mutuo del que no se dieron detalles.

Viewing all 20117 articles
Browse latest View live




Latest Images