Quantcast
Channel: Comentarios en: Alemania bate el récord de producción de energía solar: el 50% de la demanda eléctrica en un día
Viewing all 20117 articles
Browse latest View live

El youtuber que humilló a un vagabundo, denunciado

$
0
0
El youtuber que humilló a un vagabundo, denunciado

El Ayuntamiento de Barcelona denuncia penalmente a ReSet, el youtuber de 19 años que humilló públicamente a un vecino sin hogar ofreciéndole galletas Oreo.

El pasado 20 de enero, un vídeo publicado por el youtuber ReSet se hizo viral en las redes. En dicho vídeo, el youtuber humilló a un vecino sin hogar ni recursos económicos ofreciéndole galletas Oreo con pasta de dientes en su interior, además de realizar diversos comentarios sobre la situación de la persona.

Ante este suceso ocurrido en Barcelona, el ayuntamiento de la ciudad ha denunciado penalmente al youtuber de 19 años. La acción podría ser constitutiva de un delito de trato degradante y odio, agravada por la difusión en internet y medios de comunicación que el youtuber inició publicando el vídeo en la plataforma YouTube.

La persona afectada sufrió náuseas y malestar general tras la ingesta de las citadas galletas. El youtuber, por su parte, intentó justificar su acción como “broma” y trató de restar importancia al suceso. El daño, en sus diversas formas, ya está hecho.


¿Puede Donald Trump revocar el perdón de Chelsea Mannning concedido por Obama?

$
0
0
¿Puede Donald Trump revocar el perdón de Chelsea Mannning concedido por Obama?

  • Donald Trump llama "traidora desagradecida" a Chelsea Manning, que saldrá de prisión el próximo 17 de mayo.
  • El presidente puede revertir las políticas de conmutaciones e indultos que impulsó Obama.

El pasado 17 de enero, en una de sus últimas decisiones en el cargo, Barack Obama conmutó la condena a Chelsea Manning, quien colaboró activamente con Wikileaks filtrando información clasificada sobre las guerras de Afganistán e Irak y sobre las actividades diplomáticas de Estados Unidos. El perdón de Obama permitirá que la ex analista de inteligencia de las Fuerzas Armadas sea liberada el próximo 17 de mayo, en lugar de hacerlo en 2045 como estaba previsto. Manning podrá dejar así la prisión militar Fort Leavenworth (Kansas), donde permanece desde hace siete años tras ser condenada a 35 años, la más larga impuesta en EEUU por un caso de filtraciones.

La decisión fue duramente criticada en el seno del partido republicano. El vicepresidente Mike Pence la calificó como un "error", según informó Politico, afirmando que Manning era una "traidora" y que no debía convertirse en una "mártir". Quien no se había pronunciado al respecto sobre el tema era Donald Trump, que ha opinado al respecto esta mañana utilizando los mismos calificativos que Pence. El presidente de Estados Unidos ha afirmado que Manning jamás debería haber sido liberada. Trump también ha descrito a la ex analista como "desagradecida" por haber dicho que Obama era un "líder débil".

Los comentarios de Donald Trump llegan después de que la antigua militar publicase hoy mismo una tribuna de opinión en el periódico británico The Guardian. Manning ha señalado en la columna que Obama ha dejado huellas de un "legado progresista", pero que ha habido pocos "compromisos permanentes". Entre otras, sus críticas se centran en sus políticas sanitarias o asuntos exteriores. La ex analista reclama la necesidad de "un líder progresista sin remordimientos", que no se amilane ante las críticas del resto.

El artículo de opinión de Manning ha provocado la ira de Donald Trump, que en los últimos días ha firmado varias órdenes ejecutivas que desmantelan una parte del legado de Obama. El presidente republicano ha dado luz verde a la construcción del muro con México y ha anunciado que derogará el plan del clima impulsado por su antecesor. Donald Trump, conocido negacionista del calentamiento global, ha iniciado su mandato derribando también buena parte de la "herencia verde" de Obama.

Tras su mensaje en Twitter y sus primeras decisiones como presidente, surge la duda sobre si Trump podrá revocar el perdón político concedido a Chelsea Manning por Barack Obama. La Constitución de Estados Unidos reconoce el poder del presidente para realizar este tipo de conmutaciones e indultos a presos que hayan realizado ofensas al país, con la excepción de los casos de impeachment. Como recuerdan en el medio The Bustle, el máximo dirigente de EEUU puede revocar un perdón, algo que ya sucedió en el caso de Isaac Robert Toussie. Su perdón fue revocado por George W. Bush dos días después de concederlo, según informó The New York Times.

Trump

Gage Skidmore (Flickr)

Sin embargo, es poco probable que el presidente republicano revoque realmente las decisiones de perdones políticos concedidos por Barack Obama. "Trump podría decir que no quiere implementar nunca más una determinada política, pero no puede eliminar los beneficios y derechos de personas ya concedidos", explicó Stephen Vladeck, profesor de Derecho de la Universidad de Texas. No sucede lo mismo con las órdenes ejecutivas firmadas por Obama, que pueden ser desmanteladas por el actual dirigente de EEUU. Según señalan en The Marshall Project, los expertos en Derecho Constitucional plantean que las conmutaciones e indultos conceden unas garantías que no pueden ser eliminados de un plumazo.

Lo que sí puede hacer Donald Trump desde la Casa Blanca es revertir la política de perdones políticos impulsada por Obama. Su antecesor en el Despacho Oval ha sido uno de los pocos presidentes de la historia norteamericana que ha dejado su cargo con un menor número de prisioneros que cuando tomó posesión. Obama explicaba sus decisiones y reformas en un reciente artículo científico publicado en la revista Harvard Law Review. "He buscado revitalizar el uso del poder de clemencia, conmutando más sentencias federales que mis once predecesores juntos", afirmó. Chelsea Manning no es el único caso en el que se proclamó el perdón político, sino que mil personas encarceladas más se beneficiaron de su decisión, que difícilmente será abolida por el actual presidente.

La Sinfín de Yoigo: vine por el precio y me marché por las condiciones

$
0
0
La Sinfín de Yoigo: vine por el precio y me marché por las condiciones

La falta de claridad ha sido la constante con el nuevo cambio de condiciones.

Yoigo anunció hace un par de años su tarifa Sinfín, en pleno MWC 2015. 20 GB a un precio más que razonable, 29 euros. Dos años después, esta tarifa ha dado muchos volantazos, ha desaparecido y reaparecido en el catálogo de vez en cuando, hasta hacerse permanente recientemente, previa subida tanto de datos como de precio, 25 GB por 32 euros, que también incluye llamadas ilimitadas. ¿El problema? Que ahora han anunciado un cambio en las condiciones generales centrado en recortar las posibilidades del usuario de esta tarifa. Pero sobre todo, el cómo lo han hecho: sin ser claros, argumentando con tibieza, y tratando a sus clientes por defecto como potenciales "abusones" del servicio.

Las cláusulas de las condiciones a las que nos referimos son la prohibición de hacer tethering (compartir Internet con otro dispositivo), y la de forzar manualmente la red de Orange por encima de la propia de Yoigo:

h) La cesión o compartición del uso de los servicios de acceso a Internet en modalidad móvil a través, entre otros, de terminales o dispositivos diferentes al que tenga insertada la tarjeta SIM suministrada por YOIGO y, especialmente, con dispositivos o líneas asociados o pertenecientes a operadores distintos de YOIGO.

Es decir: no estaría permitido hacer tethering, "especialmente" cuando se haga con un terminal que utilice la red de otra operadora. Para el cliente, esto no tiene sentido alguno. Por otro lado...

i) El uso de los Servicios en las zonas en las que la red de YOIGO se encuentre implantada y con cobertura, a través de la red de otro operador por iniciativa del Cliente al configurar su terminal.

Esto hace referencia al truco con el que obtener mejor cobertura 4G, que se resume en forzar la conexión del terminal a la red de Orange incluso cuando la propia red de Yoigo esté disponible, ya que la de la operadora francesa es bastante mejor que la del operador del grupo Másmóvil.

Por favor, defina "abuso"

¿Qué es para Yoigo hacer un uso "abusivo" del tethering? No hay explicación oficial, no hay límites concretos. Cuando Yoigo llegó a España hace más de diez años, instauró las llamadas gratuitas entre números Yoigo. No tardó en aprender la lección, lo mismo que le costó ver cómo afloraban quienes hacían llamadas ininterrumpidas de hasta quince horas, o quienes lo usaban nocturnamente a modo de walkie-talkie con su bebé. Ahí puso límites concretos. Igual que con las llamadas ilimitadas de las tarifas Infinitas.

Con estas nuevas condiciones, se echa de menos más claridad, más transparencia. Saber si vamos a poder usar la tarifa como queramos, o no, y qué límites tendremos. Da la sensación de que Yoigo simplemente está reservándose una opción para aplicarla de forma arbitraria según se le antoje. E igual que los consumidores sabemos cuánto tendremos que pagar y a cambio de qué, también deberíamos saber de forma precisa qué condiciones tendrá el producto por el que Yoigo nos pasa una factura cada mes.

Estas condiciones, que no sabemos cómo se aplicarán porque ni ellas mismas ni la comunicación de Yoigo lo ha especificado, entrarán en vigor a partir del 16 de febrero para los nuevos clientes y a partir del 16 de marzo para los ya clientes. Habrá que ver a partir de entonces cómo mueve ficha Yoigo, a quién veta y por qué. Eso para los que sigan en la compañía, porque este movimiento no ha gustado, y muchos clientes ya están buscando una alternativa con tantos gigas como dudas dejan las nuevas condiciones. Seguiremos intentando saber qué es un "abuso" y qué es un "usuario normal".

Marvel y Square Enix se alían: habrá videojuego de Los Vengadores

$
0
0
Marvel y Square Enix se alían: habrá videojuego de Los Vengadores

El acuerdo de desarrollo de múltiples videojuegos entre Square Enix y Marvel empezará con Los Vengadores.

Lo lógico tras el teaser del día de ayer era pensar que hoy tocaría ver un mundo relacionado con Marvel en Kingdom Hearts 3 o algún anuncio 'menor' por el estilo. Por eso coge por sorpresa el importante anuncio del acuerdo de colaboración entre Marvel y Square Enix; tras años dando tumbos al respecto, parece que desde Disney y Marvel quieren asentarse en la industria del videojuego y su alianza con una compañía de desarrollo y publicación de la talla de Square Enix es un gran primer paso.

Así, el teaser mostrado anuncia que Crystal Dynamics (Tomb Raider, Rise of the Tomb Raider) y Eidos Montreal (Thief, Deus EX: Human Revolution) son los estudios que están trabajando en videojuegos relacionados con las propiedades intelectuales de la Casa de las Ideas. Se confirma, además, que este acuerdo para el desarrollo de múltiples videojuegos empezará por todo lo alto, con uno centrado en Los Vengadores. Por el momento, eso sí, no hay fechas o más información sobre el desarrollo.

La velocidad a la que se expande el universo apunta a una “nueva física”

$
0
0
La velocidad a la que se expande el universo apunta a una “nueva física”

  • Científicos miden de forma independiente la velocidad a la que se expande el cosmos.
  • La tasa coincide con la constante de Hubble observada, pero no concuerda con el modelo teórico del universo.

Un grupo internacional de astrónomos ha realizado una medición independiente de la velocidad de expansión del universo mediante el telescopio Hubble, utilizando las galaxias como si fueran "lentes gravitacionales gigantes", según un comunicado de la Agencia Espacial Europea (ESA). La tasa de alejamiento por la cual unos cúmulos galácticos se alejan de otros es coherente con mediciones realizadas anteriormente; sin embargo, la velocidad no coincide con el ratio que se atribuye a la expansión del cosmos en épocas pasadas.

"La tasa de expansión del universo está empezando a medirse de diferentes maneras con una precisión tan alta que las discrepancias reales pueden apuntar hacia una nueva física más allá de nuestro conocimiento actual del cosmos", explica Sherry Suyu, investigador del Instituto Max Planck de Astrofísica en Alemania. Los científicos realizaron una medición independiente de la constante de Hubble, la velocidad a la que se expande el universo, mediante la observación de cinco galaxias gracias al telescopio espacial Hubble y a otros telescopios situados en la superficie terrestre.

No coincide con el modelo teórico del cosmos

La medida coincide con otros estudios realizados utilizando un tipo de estrellas variables conocidas como cefeidas y las supernovas como indicadores de referencia. Sin embargo, la tasa determinada no coincide con las realizadas por el satélite Planck de la Agencia Espacial Europea. La razón es que este instrumento mide la constante de Hubble correspondiente al universo temprano mediante la observación del fondo cósmico de microondas. Esta radiación, invisible para el ojo humano, nos ayuda a comprender cómo era el cosmos hace miles de años, como explican desde el Instituto de Astrofísica de Canarias.

El valor de la constante de Hubble determinada por el satélite Planck se ajusta a nuestra comprensión actual del universo. Sin embargo, según explica la ESA en su comunicado, los valores de los distintos equipos de astrónomos para el cosmos local no concuerdan con el modelo teórico aceptado en la actualidad sobre el universo. "La constante de Hubble es clave para la astronomía moderna, pues puede ayudar a confirmar o rechazar si nuestra imagen del cosmos, compuesta de energía oscura, materia oscura y materia normal, es válida o si nos falta algo fundamental", asegura Suyu.

universo

Fuente: ESA/Hubble, NASA, Suyu et al.

La investigación actual fijó su objetivo en unas galaxias masivas localizadas entre la Tierra y núcleos de galaxias muy luminosos, conocidos como cuásares. Dado que el brillo de estos núcleos varía con el tiempo, los científicos pueden captar diferentes imágenes para determinar los retrasos, directamente relacionados con el valor de la constante de Hubble. "Nuestra técnica es la forma más simple y directa de hacer la medición, ya que solo utiliza la geometría y la teoría de la relatividad general", comenta Frédéric Courbin, otro de los científicos del equipo. A partir de estas precisas mediciones, junto con los modelos computacionales que emplearon, pudieron hallar el valor de la constante de Hubble con una precisión "impresionantemente alta" de 3,8%, afirman en la nota de prensa.

"El desafío más importante de la próxima década será conocer por qué el cosmos se expande forma acelerada", explicó a Hipertextual el Dr. Takaaki Kajita, premio Nobel de Física de 2015. La comunidad científica sigue tratando de entender a día de hoy la expansión del universo, que provoca que los cúmulos de galaxias se alejen unos de otros. Según la constante de Hubble, la expansión se produce "a un ritmo tal que por cada megapársec de distancia (o sea, cada 3 millones de años luz) la velocidad de alejamiento se incrementa en 71 kilómetros por segundo". Comprender por qué este ritmo no ha sido igual durante toda la historia del cosmos es uno de los desafíos de la ciencia actual.

Éxito en el primer experimento para fabricar órganos humanos en cerdos

$
0
0
Éxito en el primer experimento para fabricar órganos humanos en cerdos

  • Una investigación en Cell crea los primeros embriones mezcla de cerdos y humanos.
  • Estas quimeras podrían servir para fabricar órganos humanos en animales en el futuro.

Un grupo de científicos ha completado con éxito el primer experimento para fabricar órganos humanos en cerdos. Sus resultados, publicados en la revista Cell, muestran que es factible crear embriones mezcla de cerdos y humanos, un paso fundamental que abre la puerta hacia el futuro de los trasplantes. Las quimeras, desde que Homero las imaginase como monstruos mitológicos, están un paso más cerca para revolucionar la medicina.

“La idea de generar órganos y tejidos humanos usando quimeras humano-cerdo ha estado flotando en el aire desde hace unos años”, explica a Hipertextual la Dra. Aida Platero, del Instituto Salk de California. En 2010, el grupo del Dr. Nakauchi demostró en un estudio publicado en Cell que era posible generar un páncreas de una rata en el interior de un ratón. Al año siguiente, otro equipo logró fabricar un timo de rata en el cuerpo de un ratón. Las quimeras interespecies para trasplantes comenzaban a ser una realidad, pero el desafío era conseguirlo con células humanas.

De monstruos mitológicos al futuro de los trasplantes

Para crear estos embriones mezcla de cerdos y humanos, el grupo del Dr. Juan Carlos Izpisúa inyectó un tipo de células madre de origen humano en embriones de cerdos. El objetivo era que los animales incorporasen dichas células y pudieran hacer que se diferenciasen correctamente durante el desarrollo embrionario. Sus resultados muestran "la primera evidencia de la capacidad de contribución quimérica de células humanas en embriones de cerdo", afirma Platero. Sin embargo, como advierte la investigadora, "todavía estamos lejos de fabricar verdaderos órganos humanos en el interior de cerdos".

"Es posible que los experimentos de producción de quimeras interespecies, que podríamos pensar que rozan la ciencia ficción, pronto sean una realidad", explica a Hipertextual el Dr. Lluís Montoliu, del Centro Nacional de Biotecnología (CNB-CSIC). La idea de desarrollar quimeras entre especies diferentes, sin embargo, no es nueva. Desde los años setenta, el grupo de la Dra. Nicole Le Douarin creó quimeras entre embriones de pollo y codorniz para investigar procesos esenciales en el desarrollo embrionario de los vertebrados. Tras el éxito de las primeras quimeras de ratones y ratas para hipotéticos trasplantes, el equipo de Izpisúa trató, sin éxito, de realizar el mismo experimento entre ratones y cerdos.

Al no lograrlo, los científicos inyectaron un tipo de células madre, conocidas como células humanas inducibles pluripotentes, en embriones de cerdos y vacas que no iban a ser implantados en una hembra. Posteriormente consiguieron inyectar células madre de origen humano en embriones porcinos, que sí fueron implantados en una hembra de cerdo, dejando que se desarrollasen durante cuatro semanas. Al analizar las diferentes partes del embrión, detectaron algunas células humanas que, a pesar de implantarse con muy poca eficiencia, sí parecían poder incorporarse a un embrión de una especie diferente durante el desarrollo.

órganos

"Es un éxito parcial notable aunque todavía muy lejos de una aplicación biomédica", señala Montoliu. El trabajo publicado en la revista Cell demuestra que las células madre son capaces de colonizar de forma muy débil, aunque detectable, un embrión "anfitrión" de cerdo en desarrollo. El objetivo, como explicaba el propio Izpisúa en un artículo anterior en Nature, es que los científicos puedan en el futuro crear quimeras de dos especies diferentes como fuente de tejidos y órganos para trasplantes. Cada día, según datos de la revista Investigación y Ciencia, una media de 16 personas en Europa y 22 en Estados Unidos fallecen a la espera de un órgano de repuesto.

Los experimentos suscitan una controversia ética muy grande, ya que supone utilizar otras especies como auténticas “fábricas de trasplantes”. Pese a los potenciales beneficios terapéuticos que podrían tener estos estudios, lo cierto es que su realización no está permitida en Estados Unidos con fondos públicos federales procedentes de los Institutos Nacionales de la Salud (NIH), por lo que en este país deben llevarse a cabo con financiación privada. Aunque esta investigación solo es el primer paso, cada vez estamos más cerca de fabricar órganos humanos en animales. Homero nunca imaginó que sus monstruosas creaciones pudieran cambiar la medicina.

'Hidden Figures', tres mujeres fundamentales de la NASA

$
0
0
‘Hidden Figures’, tres mujeres fundamentales de la NASA

Theodore Melfi ha adaptado al cine la historia de tres mujeres afroamericanas que desempeñaron una labor imprescindibe durante la carrera espacial.

Cuando mejor se ve lo absurda que es la discriminación de una sociedad contra algún colectivo es en el momento, siempre crucial, en que impide a las personas realmente cualificadas que lo integran contribuir al progreso o a la consecución de un objetivo muy importante en cualquier campo. Es lo que nos muestra con suma claridad la película Hidden Figures (Theodore Melfi, 2016), que narra la historia de tres mujeres afroamericanas que trabajaron en el Langley Research Center de la NASA y fueron esenciales para el éxito del Programa Mercury (1961-1963), con el que Estados Unidos pretendía poner al astronauta John Glenn en órbita alrededor del globo, en el contexto de la carrera espacial de la Guerra Fría.

La gran contribución de Katherine Johnson, Dorothy Vaughan y Mary Jackson

Si en mayo de 2016 le pusieron el nombre de Katherine G. Johnson a las nuevas instalaciones informáticas en el Centro de Investigaciones de Langley que la NASA edificó en la localidad virginiana de Hampton, no fue precisamente por nada. En el verano de 1918, Johnson tuvo la fortuna de nacer en el seno de una familia, la de los Coleman de White Sulphur Springs, que valoraba la educación de sus hijos por encima de todo; no en vano, su madre era maestra; así que contó con la oportunidad de dar rienda suelta a sus capacidades para el estudio de las matemáticas.

Para que ella y sus hermanos pudieran seguir su escolarización, se trasladaron durante cada curso a Institute, pues en el Condado de Greenbier de Virginia Occidental, al que pertenecía White Sulphur Springs, no ofertaban secundaria para afroamericanos. A los quince años se matriculó en la Universidad Estatal de Virginia Occidental para aprender todo lo que pudo sobre matemáticas, empujando incluso a algún profesor a crear asignaturas específicas para ella, y en 1937, a su mayoría de edad, se graduó con summa cum laude. Luego, en 1938, fue la primera mujer afroamericana que realizó estudios de posgrado en la Universidad de Virginia Occidental, ubicada en Morgantown, habiendo puesto fin allí a la enojosa segregación.

hidden figures

Fox 2000 Pictures

Y precisamente a Morgantown se trasladó la familia de Dorothy Vaughan, nacida en Kansas City, Misuri, en 1910, para que continuase su educación secundaria. Más tarde, gracias a una beca y a su propio y decisivo esfuerzo, se graduó en Matemáticas a los diecinueve años en la Universidad de Wilberforce, Ohio, en 1929, institución a la que sólo asistían afroamericanos; y rechazó los estudios de posgrado en la Universidad de Howard, en la ciudad de Washington, para ayudar a su familia durante la Gran Depresión trabajando como profesora, igual que Johnson y Mary Jackson. Y no fue hasta 1943 cuando empezó su carrera como matemática y, tiempo después, programadora en el Langley Research Center de lo que unos años después sería la NASA, al que llegó Jackson en 1951, y Johnson, en 1953 bajo su supervisión en los cálculos de trayectorias de vuelo.

Hampton era la ciudad natal de Jackson, que había venido al mundo en 1921, así que su asignación al Departamento de Guía y Navegación no le supuso una mudanza como a las otras dos. Se había graduado en Matemáticas y Ciencias Físicas en el Instituto Hampton en 1942, y tras diversos empleos, se integró en el área de cálculos segregada, que Vaughan supervisó como pionera desde 1949 sin el cargo y la remuneración correspondientes durante varios años. En 1953, Jackson se unió al equipo del ingeniero Kazimierz Czarnecki para estudiar el efecto de vientos que casi doblan la velocidad del sonido sobre los aparatos en el Túnel de Presión Supersónico, y su jefe la alentó a que continuase su formación para convertirse en ingeniera aeroespacial, cosa que logró en 1958 tras vérselas con la segregación racial en los centros educativos de la misma Hampton.

Así, Jackson fue la primera mujer afroamericana ingeniera de toda la NASA, donde trabajó en diversas secciones. Le otorgaron más de una decena de galardones y reconocimientos por su labor y pudo ayudar a otras mujeres a estudiar y ascender como ella. Vaughan, su amiga y supervisora durante un tiempo, preparó a sus compañeras para la transición desde los complejos cálculos que efectuaban a mano hasta la programación y el uso de computadoras electrónicas, de cuya división formaron luego parte gracias a ello. Johnson estuvo poco con ellas porque pronto fue reasignada, y así calculó la trayectoria del primer vuelo espacial tripulado por un estadounidense, Alan Shepard, en 1959 o la ventana de lanzamiento, las fechas óptimas para el mismo, del Programa Mercury en 1961.

hidden figures

Barack Obama le pone la Medalla Presidencial de la Libertad a Katherine Johnson en 2015 - WeForum.org

Fue necesaria para verificar los cálculos de la órbita de Glenn a bordo de la Friendship 7 en febrero de 1962, ejecutados por computadoras, que más tarde utilizaría ella misma. También se encargó de los cálculos de la trayectoria de vuelo a la Luna del Apolo 11 en julio de 1969, y las instrucciones y cartas de navegación de respaldo para que el malogrado Apolo 13 regresara a la Tierra en abril 1973 también fueron obra suya. Y, además de haber publicado 26 artículos científicos en su campo, ha sido acreedora de múltiples premios, como la Medalla Presidencial de la Libertad en 2015, y fue incluida el año pasado en la lista elaborada por la BBC de las cien mujeres más influyentes del mundo. No me digáis, pues, que Johnson no merecía su nombre en un edificio del Langley Research Center de la NASA, inaugurado en 2009 por el 55 aniversario del vuelo de Alan Shepard.

‘Hidden Figures’, una nueva película necesaria

Si ya nos hacía falta que nos contasen la historia del matrimonio Loving y el modo en que echaron abajo uno de los puntales del racismo en Estados Unidos, igual de bien nos viene un filme como Hidden Figures, sobre estas tres grandes mujeres afroamericanas que lograron destacar en su trabajo de la NASA pese a la segregación racial que teóricamente acabó allí en 1958, y en medio de una época sacudida por la lucha justa contra ella de los activistas proderechos civiles. Se trata del tercer largometraje del neoyorkino Theodore Melfi tras la inencontrable Winding Roads (1999) y la gratísima comedia dramática St. Vincent (2014), y coincide con la primera en ser un drama protagonizado por otras tres mujeres que se enfrentan a sus propias cuitas, y con la segunda, en el buen rollo que le mete en el cuerpo a los espectadores.

No cabe duda de que Melfi no ha destacado aún como cineasta, si es que consigue destacar alguna vez; y en esta ocasión nos ha entregado la típica película que seduce a la Academia de Hollywood porque, primero, su factura resulta irreprochable, y segundo, la de sus heroínas es la historia de superación de toda la vida yanqui, aderezada con una indignante época opresiva para ellas y con un tono apacible que jamás incomoda al público, mostrándole de paso cómo se alcanzó uno de los grandes hitos tecnológicos de la historia de su país. Y, sin embargo, pese a su mediocridad rampante, Melfi se las vuelve a arreglar para que uno no considere su visionado tiempo perdido de tan agradable que es verla.

hidden figures

Fox 2000 Pictures

La base de la película es el libro homónimo que Margot Lee Shetterly, afroamericana nacida precisamente en Hampton y cuyo padre era un científico del Langley Research Center, publicó en 2010. Octavia Spencer está impecable como Dorothy Vaughan, tanto como de costumbre, y Janelle Monáe se defiende más o menos como Mary Jackson; pero es Taraji P. Henson la que destaca como Katherine Johnson, brindándonos una interpretación llena de matices gestuales. El cómico Jim Parsons, famosísimo por su Sheldon Cooper de The Big Bang Theory, y Kirsten Dunst no nos dicen demasiado con sus respectivos Paul Stafford y Vivian Mitchell, y el Al Harrison de Kevin Costner tampoco sobresale.

Vaughan se jubiló en 1971 y falleció en noviembre de 2008, a los noventa y ocho años de edad; Jackson se retiró en 1985 y murió en febrero de 2005, a los ochenta y tres; y Johnson dejó la NASA en 1979 y aún vive. Estas tres mujeres afroamericanas, que integran dos de los grupos humanos más históricamente discriminados, merecen que se conozcan sus aportaciones y triunfos a través del cine, y una sencilla película tan académica como Hidden Figures, sobre todo, da el gusto de ver cómo personas valiosas derriban la mezquindad de un sistema obtuso y consiguen cosas grandes.

BYD tiene que aumentar la producción de coches eléctricos para poder reducir costes

$
0
0
BYD tiene que aumentar la producción de coches eléctricos para poder reducir costes

En esfuerzo por reducir costos, BYD tiene como objetivo aumentar la fabricación de coches eléctricos.

Fabricar coches eléctricos es muy costoso para las marcas por el elevado precio de las baterías y el cambio por completo de los chasis para poder alojar las mismas. Para poder ser rentables el precio de las baterías debe reducirse o bien la producción de vehículos eléctricos debe ser tremendamente elevada, es la única forma para muchos de reducir los costes, y en este caso se encuentra BYD, el mayor fabricante de coches eléctricos.

Los fabricantes se encuentran además en la entrecruzada de ver cómo algunos países van a reducir las subvenciones, una situación que puede llevar a muchos planes de ventas al desastre si el único motivo para comprar un coche eléctrico es que el gobierno, con carga a los presupuestos, subvenciona una industria que aún no es rentable. Si los incentivos se eliminan antes de la rentabilidad de la industria, se puede acabar con ella. Por este motivo BYD tiene que vender muchos más coches eléctricos.

Al aumentar la producción, BYD espera disminuir los costos en una cantidad cercana a la mitad de la reducción de las subvenciones, un 20% en comparación con 2016, aunque desde la empresa solo confían en reducir sus costos entre un 5 y 10% para comenzar a prepararse para un escenario en el que no existan subvenciones. Y esto podría suceder antes de 2020.

Según BYD el precio de las baterías representa un 40% el coste de los coches eléctricos, y por ello van a comenzar a trabajar para poder fabricar ellos mismos sus baterías, una idea similar a la de Tesla que tiene como único objetivo reducir los costos de fabricación de un vehículo eléctrico.


Aplicando el sistema ‘Poka Yoke’ a la productividad personal

$
0
0
Aplicando el sistema ‘Poka Yoke’ a la productividad personal

"Tarde o temprano la disciplina vencerá a la inteligencia" — Proverbio japonés.

'Poka Yoke' es una técnica desarrollada a finales de los 50’s por Shigeo Shingo, y se usa para prevenir errores humanos que pueden ocurrir en el área de la manufactura. No se popularizó hasta los años 60’s en la línea de producción de Toyota dentro de lo que se conoce como Sistema de Producción Toyota, pero hoy en día, en su país de origen, Japón, es una metodología infaltable para las empresas. Algo similar a lo que pasó con las 5S que nombramos anteriormente.

El término, en japonés, significa: ‘Poka’: error no intencionado, y ‘Yoke’: evitar. Shingeo Shingo lo inventó ante la frustración de no lograr alcanzar 0 defectos al final del proceso de producción aún contando con los empleados más preparados. Se dio cuenta de que el error siempre es humano, no de la máquina, e ideó este método basado en procesos “a prueba de errores”, erróneamente traducido después como “a prueba de tontos”. Buscan la imposibilidad de que el operario pueda equivocarse o que, como mínimo, al equivocarse sea tan evidente el defecto, que se vea en la cuasi obligación de corregirlo.

Sin embargo, se ha visto que sus principios y bases pueden ser aplicados en cualquier ámbito de la vida cotidiana, ya sea comercial, industrial o familiar. De hecho, estamos rodeados de ejemplos de elementos diseñados así. Por ejemplo, los USB tienen un diseño 'Poka Yoke', pues sería total y absolutamente imposible, introducirlos del revés.

Pero cómo se puede aplicar esto a la productividad personal, dirás. Pues la cosa es que existen tres tipos de 'Poka Yoke’: de contacto, de número constante y de secuencia de desempeño. El primer caso es lo que había explicado del USB y se basa en ausencia. Los segundos dos casos, se refieren al proceso, pero los tres son directamente aplicables a la productividad.

Hope House Press Cambridge, United Kingdom.

Hope House Press Cambridge, United Kingdom.

  • De contacto: si lo piensas, con el asunto del USB, radica todo en la ausencia de otra opción. Es casi minimalismo funcional, un objeto una función, no encaja en ninguna otra cosa. Pues bien, esto es lo que se puede aplicar. Si no quieres ver la tele, no tengas tele. Si estás tratando de adelgazar, retira de tu casa la opción de comer cualquier otra cosa que no sea saludable. Si estás trabajando enfocado y no quieres que te interrumpan, apaga el móvil. Si no quieres distraerte, desenchufa el router —y ponlo lejos—. La premisa es lógica, que sea más difícil o requiera más esfuerzo, cometer el error que no cometerlo.

  • Numero constante: se refiere a que se necesitan un cierto numero de movimientos o actividades, previamente medidas, que si no son hechas, en su totalidad y en determinado orden, una señal de error se dispara al operario. Aplicado a personas, se refiere en tener un horario estricto, estandarizar una rutina de pasos consecutivos que valgan para todos los días —o casi—, de forma que sea evidente el error, cuando te sales de ella. Se supone que cuando tienes una rutina por escrito, fija e inamovible, te sale muy pocas veces de ella. Es casi un ultraje salirse de ella. Si bien parece demasiado, libera la necesidad de pensar. El sujeto sólo sigue su agenda a ciegas, y si la agenda está bien, en principio es totalmente a prueba de error —que en nuestro caso es sinónimo de procrastinación—. Es, por ejemplo, el sistema que siguen los grandes políticos y empresarios, los cuales ni tan siquiera suelen hacer sus planes del día ellos mismos, simplemente se subordinan durante las horas laborales a los pasos que la agenda especifique que hay que hacer.

  • Secuencia de desempeño: asegura que los pasos a realizar se ejecutan en el orden correcto. Por ejemplo, el checklist o la cadena que hay que seguir para las revisiones previas a un vuelo. En el caso personal serían los pasos estandarizados que se vuelven un hábito. Se puede aplicar a todo una lista tipo receta de cocina, sólo funciona bien así, es obvio. Y es útil en la medida que se realice de forma recurrente de la misma manera. En realidad, solemos hacerlo sin darnos cuenta, por ejemplo la rutina: “levantarse, cepillarse los dientes, desayunar, ducharse, salir a correr, volver, vestirse e ir al trabajo”, es poco lógica. Cepillarse los dientes antes de desayunar, hace que cepillarselos se vuelva inútil, lo mismo ocurre con ducharse antes de ir a correr. O bien lo haces dos veces, o no has hecho nada. Por esta razón nadie, o casi nadie, lo hace de esta manera. Pues bien, esto se puede aplicar a un flujo de trabajo, cualquier trabajo, donde en principio es más difícil ver cuál es el flujo más lógico y sí requiere “configurarlo”.

Con estas tres directrices, aplicables a casi todo, uno puede crear un horario y rutina a prueba de fallos. Cierto es que hay que pensarlo, planear, probar y frecuentemente caer en errores para notarlo. Tendrás que ver si te viene mejor contestar el email cuando llegas o al final de la jornada, si funciona mejor este programa que otro, o si las reuniones son más fáciles los miércoles que los lunes —basado en atascos, asistencias y demás—. Pero una vez encuentras tu configuración perfecta —salvo contadas actualizaciones— no deberías tener que cambiar nada y lo único que podrá destruir tu pacífica normalidad, serán las verdaderas urgencias.

Análisis de Resident Evil 7: el retorno del rey

$
0
0
Resident Evil 7

Anunciado por sorpresa, sin hacer ruido y llegando a las tiendas rodeado de secretismo, era difícil saber qué esperar de Resident Evil 7. Y más teniendo en cuenta el curriculum reciente de la franquicia. Por suerte, Resident Evil 7 es un survival horror de verdad. Resident Evil llegaba en 1996, acuñando el género del survival horror y marcando el camino a seguir durante los años venideros. Grandes franquicias de lo terrorífico como Silent Hill, Alone in the Dark o Project Zero bebieron clara y directamente de lo que Capcom puso sobre la mesa al presentarnos la incursión de Chris, Jill y compañía en la Mansión Spencer. La fórmula creció y mejoró en tiempos posteriores pero, con el salto de generación a PlayStation 3 y Xbox 360, llegó el acusado cambio de rumbo hacia la acción. Se llegaba así a una sexta entrega en la que los valores que habían hecho grande a la saga brillaban por su ausencia.

Cierto es que en ese proceso de mutación, el estudio nipón nos regaló uno de los mejores y más completos videojuegos de acción de la historia pero, con todo, la aventura de Leon S. Kennedy en la España profunda distaba mucho de esas raíces y valores, marcados e inamovibles, que auparon a la trilogía original al Olimpo del survival horror. El problema a partir de aquí es que la pérdida de identidad fue tal que Resident Evil 5 y, sobre todo, Resident Evil 6 parecían no tener claro en qué plato picotear más, si el del terror más puro o el de la acción más desenfrenada.

resident_evil_7_tgs_screen

Esa ristra de spin-offs que llegó luego (desde los más que dignos Revelations hasta el infame Umbrella Corps), claro, no hizo más que confirmar que la brújula que marcaba el rumbo de la saga llevaba demasiado tiempo estropeada. Así, cinco años después de la última entrega numerada llegaba al anuncio de Resident Evil 7. Casi sin hacer ruido, de forma inesperada, y de la mano de una demo como escaparate de alguno de los grandes cambios de esta séptima entrega.

Y si Resident Evil 6, sus cinco años de desarrollo, su equipo de hasta 600 personas, sus tres campañas y seis personajes jugables y el terrorismo biológico alrededor del mundo sonaban a exceso, Resident Evil 7 lo apuesta todo por ser comedido, una obra de terror casi intimista. Es, y se nota aquí el tiempo tomado para reflexionar sobre la ruta a seguir, una propuesta con una idea básica tan clara y contundente que se puede permitir no adornarse en exceso ni buscar convencer a base de cifras o contenido. Todo ello sin tener ningún miedo a cambiar componentes tan elementales en la forma del survival horror made in Capcom como la perspectiva. Esa tercera persona opresiva, primero con cámaras estáticas y luego al hombro, queda atrás y Capcom lleva la cámara a los ojos del personaje, imitando esa nueva oleada del terror en los videojuegos de la que salen Outlast, P.T o Alien Isolation, referentes claros e inequívocos de esta séptima entrega.

También se cambia el punto de partida. Controlamos a Ethan Winters y tenemos la misión de encontrar a su pareja, desaparecida tres años atrás: nada de terrorismo a gran escala ni alambicadas tramas conspiranoicas y, por primera vez en la saga, un protagonista sin ningún tipo de entrenamiento militar. Pero quizá, igual que ocurriera en el primer Resident Evil, el principal personaje de esta séptima entrega termina siendo el escenario a recorrer. Aquí, a la hora de crear una atmósfera terrorífica, desagradable y opresiva, en Capcom han rozado la perfección.

Porque aunque al primer contacto, encontremos en Resident Evil 7 una propuesta atípica dentro de la franquicia, poco a poco van llegando muchas de las mecánicas y conceptos sobre los que se construyeron las tres primeras entregas pero, como decimos, con una especial conexión a nivel mecánico con el título de 1996. El primer y principal punto de enlace, como decíamos, que el intrincado y laberíntico diseño de niveles en un solo escenario (amplio, eso sí) sea suficiente para mantener el ritmo y la tensión durante la mayor parte de la aventura.

Más allá, vuelven las peleas con la gestión del inventario, los baúles y las zonas seguras, las múltiples puertas y llaves, los viajes de ida y vuelta, la combinación de objetos e ingredientes, los puzles y un largo etcétera. Tras una primera hora de introducción, de ritmo alto y sorpresas varias, todo entra en un terreno mucho más familiar para el aficionado de la franquicia y totalmente disfrutable para el neófito.

Por el camino, eso sí, se han hecho ciertas concesiones: pese a que el despilfarro nunca es buena opción, la cantidad de munición y objetos de curación es elevada y será difícil que nos veamos apurados a ese respecto y, pese al retorno de los puntos de guardado manuales, cambiando las míticas máquinas de escribir por un reproductor de cintas, estos pueden ser utilizados de forma ilimitada al tiempo que el videojuego integra ciertos puntos de guardado automático. Facilidades, eso sí, que se pierden en la dificultad más alta, Manicomio, donde también nos topamos con más y peores enemigos y una menor cantidad de objetos.

Nada grave o que afecte de forma sensible a la experiencia en esos casos pero sí que, como en otros aspectos jugables de mayor peso, evidencia la resistencia a apostarlo todo por un sistema de juego de corte tan tradicional y exigente; muchos echarán de menos una mayor dificultad en los pocos puzles que encontramos en el transcurso de la historia (cuatro de ellos giran sobre un mismo y sencillísimo concepto) y, sobre todo, será fácil encontrarse algo incómodo en un tramo final más cercano al FPS de acción que al survival horror intenso y contenido de las dos primeros tercios. En un segundo plano de importancia quedan adiciones algo cuestionables aquí como ese tramposo juego del gato y el ratón que se da en ciertos momentos de la aventura, herencia indiscutible, y no tan refinada, del núcleo del excepcional Alien Isolation.

resident_evil_7_12 Con todo, Resident Evil 7 es un ejemplo de una cadena de acertadas decisiones: frenar tras el despropósito de la sexta entrega, alejarse de los fuegos de artificio y decidir volver al horror más tradicional tras tomar aire y echar un ojo a qué funcionaba y qué no en el género y, sobre todo, eliminar todo lo superficial para, con pocas y simples piezas, cuajar una aventura de terror tan intensa como efectiva. 8.5Resident Evil 7 consigue, al mismo tiempo, codearse con las mejores entregas de la franquicia y cambiar el rumbo de la franquicia hacia lugares sumamente interesantes. Todo ello a golpe de buen diseño, de claridad de ideas y de hacer mucho con ‘muy poco’. No necesitamos media docena de personajes jugables, veinte armas distintas o viajar por todo el mundo; una casa en ruinas, una familia demente y la misión de rescatar a nuestra novia son elementos tan básicos en esencia como funcionales y atractivos en lo jugable.

Seguimos encontrando dejes de esa época de desorientación y probaturas que vivió la franquicia en unos encuentros con jefes finales excesivamente clásicos y no demasiado bien planteados, en concesiones para llegar a todos los públicos como la escasa cantidad, variedad y dificultad de los rompecabezas o un último tramo demasiado cercano a la acción y el frenetismo pero, con todo ello, Resident Evil 7 consigue ser una excepcional reinvención de una franquicia que lleva más de veinte años con nosotros. Y, si sigue así, que vengan muchos años más. - Los Baker, unos muy interesantes antagonistas. - La atmósfera y la tensión constante que genera. - El retorno de mecánicas clásicas que funcionan a la perfección. - Su diseño de escenarios, sobre todo en la casa de los Baker, es excepcional. - El poco peso y lo sencillo de los puzles. - La mayoría de encuentros con jefes finales se sienten algo arcaicos y mal planteados. - El último tramo no sigue la excepcional línea marcada durante el resto de la aventura.

Youtubers y blablacars, en el punto de mira de Montoro

$
0
0
Youtubers y blablacars, en el punto de mira de Montoro

Lo más importante, en cualquier caso, es saber qué es para Montoro la economía colaborativa.

La Agencia Tributaria ya tiene deberes para sus inspectores a lo largo de este año. Una tarea que, además de todo lo que se les acumula de años anteriores, añade cinco nuevos puntos que afectan directamente a la actividad de nuevas empresas tecnológicas, modelos de pago y actividades profesionales hasta hace unos años desconocidas. Con vistas a cerrar este año con unos niveles de déficit mucho menores, Montoro quiere echar el lazo a todo aquello que sea susceptible de pagar impuestos y que, por una razón u otra, se haya estado librando hasta la fecha.

Como siempre, los grandes patrimonios y la economía sumergida están en el punto de mira del Plan Anual del Control Tributario para 2017. Pero, sobretodo, este año Montoro tiene entre sus planes poner a los inspectores a revisar punto por punto la actividad del sector digital. Y especialmente la de aquellas empresas que actúan "como meros intermediaros" entre usuarios. La entidad tributa como actividad de marketing y los clientes quedan exentos de pagar impuestos por lo que, según la Agencia Tributaria, supone una actividad lucrativa para ambas partes de la cual no está percibiendo nada, o lo está haciendo pero menos de lo que debería.

En este punto, a los inspectores se les viene una pila de trabajo encima bastante grande. Porque a golpe de revisión manual, la AEAT pondrá su punto de mira en las disonancias que existan entre las páginas web de las diferentes plataformas, sus redes sociales, y la información que su actividad económica que en ellas se publica. Todo tomando la referencia de las declaraciones oficiales que se hacen de las mismas.

Lazo a la economía colaborativa

Ha sido hasta ahora colaborativa entre usuarios y lo va a tener que empezar a ser también con la hacienda pública.

En este punto cabría destacar que, primero, desde las instancias públicas deberían dejar claro qué es lo que para ellos entra dentro del saco de la economía colaborativa y qué no. Porque si hay algo claro en esto es que la teoría no la tienen demasiado al día. Sería, por ejemplo, el caso de Uber o Cabify que, pese a no serlo ni de lejos, siguen entrando en el círculo de este nuevo modelo de consumo. En cualquier caso, Montoro también tiene un recado para ellos y similares porque también investigará los resultados financieros de estas entidades que tributan en el extranjero –en Estados Unidos en el caso de estos dos ejemplos–, y los comparará con su actividad dentro del país.

En cualquier caso, esto va directamente por BlaBlaCar y Airbnb que pasan por su propio via crucis al sur de los Pirineos. Los primeros con sus litigios abiertos con la patronal de autobuses y la Comunidad de Madrid; y los segundos por la obligación que, según los diferentes ayuntamientos implicados, deben tener los usuarios a la hora de declarar sus ingresos. Este aviso, además, atañe directamente al modelo de negocio que maneja la segunda multinacional; la cual sólo declara el IVA por el porcentaje de comisión que se llevan ellos y no por el total de la actividad económica que cubre; a diferencia de sus competidores directos de corte tradicional. Al similar hace BlaBlaCar y compañía. La cuestión es que esta estructura es parte de su éxito y los hombre de Montoro quieren tenerla bien clara y atada aunque eso suponga repercutir a los usuarios directamente.

Autor: Rego Korosi

Comercio electrónico, ese gran desconocido

Durante 2016, España registró un volumen de comercio electrónico de más de 7.000 millones de euros. Poco a poco, el modelo de negocio digital se come al físico, con todo lo que ello implica.

Desde la Agencia Tributaria saben que algo se les está escapando en todo este proceso, y ese algo es dinero por ventas que no aparecen registradas en ningún lugar. Para ello, quieren endurecer los controles de los nuevos modelos de pago vinculados al comercio digital. Y los que no son tan nuevos también, porque ya son casi 11 los años que Paypal lleva operando en España y este sigue siendo un gran desconocido para la instancia pública. Ya va siendo hora de entender su actividad... Ni qué decir tiene que los pagos a través del móvil, o los bitcoins, son el rival a batir para los próximos años.

Mucha atención al negocio de los referidos, más para grandes empresas que para usuarios particulares. Algo se escapa también por ahí, un gran volumen de impuestos concretamente. Una línea de negocio que supone el modelo de subsistencia para muchas empresas y que hasta ahora ha pasado de puntillas a la hora de la declaración.

Bloggers, youtubers, instagramers y una consecución infinita de nuevas profesiones vinculadas con el mundo digital, deberán ponerse al día con el tema de la declaración de impuestos de los productos que venden en sus apariciones en público, si es que no lo han hecho ya. Y en este caso, el rastreo es sencillo: tanto publicitas, tanto vendes, tanto cobras, tanto tributas.

Qué es inteligencia artificial en los bots y qué no

$
0
0
Qué es inteligencia artificial en los bots y qué no

La palabra bot suele ir asociada a inteligencia artificial, y aunque pueden llegar a estar relacionadas, en la mayoría de casos no se tocan.

Entre otras muchas cosas, 2016 ha sido el año en que dos términos que ya existían, como bot e inteligencia artificial, se han convertido en buzzwords, es decir, palabras usadas por todo el mundo y cada vez más vacías de significado en ese uso, pese a estar en boca de la industria y usuarios debido a su relevancia real ahora y en los próximos años. Siendo dos conceptos independientes, tienden a unirse cuando hablamos de bots. Parece que todo lo que hacen responde a inteligencia artificial, y no es así.

La mayoría de bots que el público usa a día de hoy no son capaces de tomar ninguna decisión autónoma ni compleja. Simplemente siguen órdenes sencillas respondiendo con una búsqueda en una base de datos más o menos amplia que tendrá en sí información más o menos precisa. Este es el caso, por ejemplo, de los bots de imágenes y vídeos en Telegram, así como por ejemplo el de Giphy en Slack. En ese sentio, hay avances tras el anuncio de la integración con Watson

Otros casos más proactivos y centrados en preguntar en vez de en seguir órdenes, con el fin de crear un perfil y de ir respondiendo en base a ello, tampoco son inteligentes. Dan una respuesta más precisa a la pregunta que se les hace porque de manera previa ya tienen información de la persona y sus intereses, de manera que pueden descartar un gran número de opciones. Cuando emplean algoritmos, "simplemente" siguen instrucciones paso a paso, como una persona cuando sigue órdenes de un libro de instrucciones. Seguir instrucciones de manera clara es lo que hace a un bot con una buena base de datos una herramienta excepcional.

Los bots de Slack amplían cada día sus posibilidades, pero de momento sin inteligencia artificial a la espera de Watson.

La inteligencia artificial también tiene que ver con algoritmos, por supuesto, pero de base, con aprendizaje, es decir, con algoritmos que se comportan de manera que puede ser considerada inteligente, que por ejemplo mejore con el tiempo. Así sería un bot que no sólo ha aprendido de ti porque le has dicho tu edad y el color de tu cabello, sino que simplemente analizando comportamientos, palabras usadas y otros datos cambiantes es capaz de irse adaptando a las necesidades.

En el pasado se ha llamado inteligencia artificial a muchas soluciones y servicios que solamente tenían una gran base de programación, un mundo cerrado del que esa "inteligencia" no era capaz de trascender: cada vez que se le presentara un problema lo resolvería de la misma forma. Con la inteligencia artificial no se crea un mundo per se, sino una forma de pensar y afrontar callejones sin salida, y además, se alejan de lo específico en muchas ocasiones, por lo que son aplicables en escenarios muy distintos, gracias, por ejemplo, al reconocimiento de patrones con paradigmas como las redes de neuronas artificiales del aprendizaje.

Se puede decir que en los bots más utilizados no hay elementos de inteligencia artificial, pues no existe aprendizaje ni se emplean habilidades cognitivas. Por ejemplo, el procesamiento de lenguaje natural puede obedecer a un set de reglas que seguir, o a un entrenamiento mediante aprendizaje. En cualquier cosa, lo importante no es si el bot puede ser considerado inteligencia artificial o no, sino si el motor que lo potencia tiene dichas capacidades de mejorar la comprensión. En ese sentido, las soluciones basadas en Watson, por cómo este es capaz de procesar e identificar patrones que se integran como conocimiento, sí pueden ser consideradas como parte de la inteligencia artificial.

Apple se une a Amazon, Facebook y Google en la investigación de inteligencia artificial

$
0
0
Apple se une a Amazon, Facebook y Google en la investigación de inteligencia artificial

Apple se une a la Partnership on AI, una colaboración entre las principales compañías del sector en la investigación sobre inteligencia artificial.

Partnership on AI anunció la incorporación de Apple Inc. como nuevo miembro fundador de la asociación. La empresa californiana se une así a otras compañías tecnológicas de primer nivel como Facebook, Amazon, Google o Microsoft en el desarrollo, la adecuación y la promoción de la inteligencia artificial como uno de los pilares de la sociedad futura.

En Partnership on AI trabajará Tom Gruber, padre de Siri —el asistente virtual que Apple incorpora en todos sus dispositivos tecnológicos—. Con esta incorporación, la compañía aumenta ligeramente su presencia en el segmento de la inteligencia artificial, donde compañías como Google, Microsoft o Facebook han dado pasos muy grandes durante los últimos años.

Asimismo, la incorporación de Apple muestra una mayor predisposición de la compañía californiana a la apertura y la colaboración entre gigantes del sector, algo que no siempre caracterizó a Apple en tendencias anteriores.

El hipo durante tres semanas que reveló una metástasis en el cerebro

$
0
0
El hipo durante tres semanas que reveló una metástasis en el cerebro

  • Un paciente con hipo durante tres semanas sufría una metástasis en el cerebro.
  • En ocasiones muy poco frecuentes el hipo está causado por un cáncer o un tratamiento antitumoral.

Un hombre de 68 años acudió a su médico después de sufrir durante tres semanas seguidas un hipo persistente. El paciente había sido intervenido anteriormente de un adenocarcinoma, un tipo de cáncer de pulmón, sin presentar signos de que el tumor maligno se hubiera diseminado más allá de sus pulmones y de sus ganglios linfáticos. Sin embargo, el hipo estaba causado por una metástasis en el cerebro. Su caso es descrito en el último número de la Revista Clínica Española.

El hipo es un movimiento involuntario del diafragma, el músculo que se encuentra justo debajo de los pulmones y que sirve para ayudarnos a respirar. La estructura, que tiene una forma similar a un paracaídas, reduce el volumen de la cavidad torácica cuando se inhala aire y lo aumenta al exhalar.

El hipo aparece cuando el diafragma se contrae de forma repentina e involuntaria entre respiraciones normales, originando un sonido muy característico. Este problema, descrito inicialmente por Hipócrates, suele ser benigno y desaparece al cabo de poco tiempo. Aunque normalmente su origen es desconocido, en ocasiones, especialmente cuando el hipo persiste, su presencia puede esconder otros trastornos más graves.

Los hipos raros que duran más de 48 horas

Las causas del hipo son múltiples e incluyen el consumo de alimentos picantes, bebidas gaseosas o alcohol, problemas como el estrés, la acidez de estómago o cambios repentinos en la temperatura ambiental. Sin embargo, como explican desde la Biblioteca Nacional de Medicina de Estados Unidos, existen otros factores más raros que explican la aparición de hipo. Entre otros motivos, destaca el haberse sometido a una cirugía abdominal, padecer enfermedades que irriten los nervios que controlan el diafragma, como pueden ser la pleuresía o una neumonía, y sufrir accidentes cerebrovasculares o tumores que afecten al cerebro.

No es la primera vez que se describe una historia clínica como la relatada por el doctor Esparza-Quezada, del Centro Médico Nacional de Occidente (Jalisco, México), y los doctores Bielsa y Porcel, del Hospital Universitario Arnau de Vilanova (Lleida, España). El año pasado, por ejemplo, otra investigación publicada en Journal of Health Specialties mostró el caso de un paciente de 70 años que sufrió hipo durante más de un mes por culpa de un tumor en el cerebro. Sin embargo, la aparición de este problema por culpa de un cáncer o una metástasis cerebral es muy poco frecuente. Según la entidad Cancer Research de Reino Unido, el hipo causado por un cáncer o como efecto secundario de un tratamiento antitumoral puede durar más tiempo que la contracción involuntaria y benigna del diafragma que nos afecta de vez en cuando.

Los hipos que duran más de 48 horas, según el Servicio Nacional de Salud (NHS) de Reino Unido, son muy poco frecuentes. Tras haber sido sometido a una cirugía para eliminar las partes de sus pulmones afectados por un cáncer, el hombre comenzó a sufrir un hipo recurrente. Como describen en la Revista Clínica Española, el paciente sufrió hipo persistente durante tres semanas seguidas sin que respondiera a las terapias que se suelen utilizar para frenarlo, que incluyen la administración de fármacos como la clorpromazina y la metoclopramida.

hipo

Fuente: J.M. Porcel y colaboradores, Revista Clínica Española.

Aunque inicialmente los médicos no vieron que su tumor se había diseminado al cerebro, según la prueba de tomografía computerizada realizada, los episodios de hipo cada vez eran más frecuentes, asociándose con somnolencias y caídas frecuentes. Pese a los resultados de los primeros exámenes, el cáncer pulmonar que sufría se había extendido hasta alcanzar su cerebro.

Como describen en el artículo científico, el adenocarcinoma metastiza al sistema nervioso central en un 16-20% de los casos, y solo en un 5% de las ocasiones llega al tronco encefálico. Según los autores, el hipo causado por una lesión estructural en esta zona del organismo es muy infrecuente. Los médicos lograron posteriormente controlar el problema mediante la administración de un medicamento llamado dexametasona y la aplicación de radioterapia; pero por desgracia, el paciente falleció un mes después por culpa del cáncer que sufría.

En la actualidad, uno de los retos más importantes de la medicina es, precisamente, diagnosticar de forma precoz la diseminación de un tumor maligno para tratar antes la metástasis. En raras ocasiones, un problema como el hipo puede servir como "señal de alerta" para detectar la extensión de las células malignas por el organismo. La medicina se enfrenta ahora al gran reto de diagnosticar de forma precoz la metástasis, uno de los principales desafíos en la lucha contar el cáncer, para el que también puede servir el desarrollo de tecnologías como la biopsia líquida.

Yoigo recula y suspende sus nuevas condiciones

$
0
0
Yoigo recula y suspende sus nuevas condiciones

Una pequeña victoria para los consumidores.

Las últimas horas han sido convulsas para Yoigo, cuya extraña e incompleta comunicación a la hora de explicar sus nuevas condiciones de uso de sus tarifas le ha costado un arreón general en prensa y redes sociales, unidas para pedir un criterio conciso y cuantificado a la hora de determinar qué es un "uso abusivo" de su servicio, y qué es un "uso normal". La operadora se apresuró para comunicar que se podría continuar viendo vídeos en streaming en alta calidad, y compartiendo los datos móviles.

Pero seguíamos en las mismas: ¿por qué entonces Yoigo se reservaba la opción en las condiciones? Para terminar de espantar los demonios hacía falta algo más tajante... como cargarse las nuevas condiciones y volver a las anteriores. Y eso han hecho:

Ahora sí que podemos decir que no tenemos dudas de las palabras de Yoigo. "Palabras no, obras", dijo alguien. Y ahora los clientes de Yoigo podemos estar tranquilos: vamos a poder continuar haciendo tethering y viendo vídeos en alta calidad.


Cifras que muestran que las vacunas son efectivas y seguras

$
0
0
Cifras que muestran que las vacunas son efectivas y seguras

A pesar de las reticencias infundadas, las vacunas son seguras y efectivas. A los datos nos remitimos. Números abrumadores que las avalan como excelentes medidas sanitarias de prevención.

A estas alturas, de todos es sabido que la presencia de Donald Trump en el sillón presidencial de EEUU es algo, como mínimo, inquietante. Sus decisiones políticas relacionadas con la ciencia despiertan la incertidumbre de muchos expertos, quienes están convencidos de que sus acciones traerán consecuencias muy negativas para el progreso científico. Una de estas decisiones está relacionada con las vacunas. Trump es un conocido antivacunas cuya opinión se basa en estudios falsos y el miedo promovido por intereses económicos. La evidencia científica aúna al consenso de expertos que indican que las vacunas son seguras y efectivas. Eso no quiere decir que no existan efectos secundarios o problemas como los podría haber en cualquier otro tipo de sustancia. Pero los números no dejan lugar a dudas, los antivacunas están equivocados.

5.000 millones menos de afectados

vacunas y enfermedades-986249" />

Desde 1980, según recoge la OMS la cantidad de incidencias de enfermedades tratadas con vacunas, en todo el mundo, se ha reducido en más de 5.000 millones de afectados. Algunas de ellas, de hecho, se han reducido hasta cero. Esto se aprecia fácilmente en las gráficas. Incluso cuando algunas enfermedades parecen haber salido de la nada (aunque más bien se refiere a los casos documentados), las vacunas han servido para reducir el número de enfermos en todo el mundo. En algunos casos, por suerte, han servido para erradicar algunas de las epidemias más letales de la historia. Se estima que la vacunación salva en torno a dos y tres millones de personas al año, al menos. Los casos más graves son los de los niños, que conforman una población muy vulnerable.

vacunas y enfermedades

Sólo en Estados Unidos, según los informes del CDC, las vacunas han salvado la vida de 730.000 personas, previniendo que más de 300 millones de niños cayeran enfermos. Las cifras, como vemos, muestran un descenso notable, que no puede pasarse por alto. Los casos de sarampión, por ejemplo, se han reducido. Al igual que se ha incrementado la supervivencia de los niños en más de 20.000, con respecto a los casos de incidencia. El 10% de los niños que sufren de sarampión suelen desarrollar una infección de oído que podría dejarlos sordos. Entre uno y dos de cada mil, morirán. Las vacunas han reducido ese número a unos pocos cientos en todo el mundo.

La poliomielitis ha disminuido en un 99%

La poliomielitis afecta sobre todo a los menores de 5 años. Uno de cada 200 niños sufrirá parálisis irreversible de las extremidades; del 5% a 10% de estos casos fallecen por parálisis de los músculos respiratorios. Gracias a las vacunas, los casos de poliomielitis han disminuido en más de un 99%, de los 350 000 estimados en 1988 a los 74 notificados en 2015. Sólo tres países siguen siendo endémicos: Afganistán, Nigeria y Pakistán, frente a más de 125 países en 1988.

Sarampión: más de diecisiete millones de vidas salvadas

El sarampión es una de las principales causas de muerte entre los niños más pequeños. Sólo en 2014, según los registros de la OMS, hubo 114.900 muertes por sarampión en todo el mundo. Esto se traducen en unas 314 víctimas cada día; o trece cada hora. La vacuna contra el sarampión ha reducido la mortalidad mundial por esta causa en un 79% entre 2000 y 2014. Se estima que más de diecisiete millones de personas se salvaron gracias a esa vacuna solo en esos catorce años.

Más de quince años y decenas de miles de dólares las hacen seguras

vacunación

Fuente: stanislave | Shutterstock

Los sistemas de calidad de los medicamentos se encuentran entre los más estrictos que existen en el mundo. Y de ellos, los de las vacunas son aún más duros de pasar. Esto tiene varias explicaciones: en primer lugar, para realizar una vacuna hemos de utilizar una especie patogénica, lo que resulta potencialmente muy peligroso. En segundo, como el resto de medicamentos, las vacunas pasa una lenta y exhaustiva fase de pruebas. Primero se prueba en el laboratorio con dianas químicas y con tejidos y modelos humanos. Por último, se prueba con humanos en un complicado proceso conocido como ensayos clínicos y que comprueban su seguridad. Solo así se permite su uso comercial. Tras esto, varios comités científicos se encargan de validar su aptitud y las condiciones existentes para vacunaciones masivas. El proceso requiere de decenas de miles de dólares y de más de quince años de estudios.

1000 vacunas, sólo efectos secundarios leves

Como cualquier sustancia, y más si hablamos de medicamentos, las vacunas pueden presentar efectos secundarios. Sin embargo, hasta la fecha y de forma general, los efectos secundarios atribuidos a las vacunas son de carácter leve o moderado. Entre las más de 1000 vacunas analizadas en 2011, se detectaron pocos casos de reacciones adversas severas y no todos enlazados claramente a la vacuna administrada. El CDC estadounidense afirma que el 90% de todas las vacunas administradas no tienen efectos secundarios de gravedad. Aunque sí se han registrado episodios de efectos secundarios asociados, normalmente, a reacciones alérgicas y cuadros autoinmunes, no se conocen más que unas pocas decenas de casos en los que las consecuencias hayan sido letales o permamentes y obedecen a situaciones particulares.

Cero evidencias sobre la relación entre vacunas y autismo

bexsero-vacuna

A pesar de que sigue siendo un bulo muy persistente, no existe evidencia científica sólida que relacione la vacuna triple vírica de la rubéola, el sarampión y las paperas con el autismo. De hecho, tanto el CDC como la OMS han realizado las investigaciones pertinentes, llegando a la conclusión, tras cientos de estudios y casi una década, de que no existe ningún indicio que pueda relacionar las vacunas o sus coadyuvantes con los casos de autismo.

La gripe sigue matando a cientos de miles de personas

Gripe en invierno

Aunque estamos muy acostumbradas a ellas, las gripes estacionales suponen en todo el mundo unos 3 a 5 millones de casos de enfermedad grave y entre 250.000 y 500.000 muertes al año. La vacunación, aunque no tan efectiva como en otras enfermedades, puede suponer la diferencia entre la vida y la muerte. Especialmente entre los grupos de riesgo, donde su eficacia es alta. Aunque no se tienen datos concretos de su efectividad, algunos estudios indican que entre la población de riesgo, la vacunación puede ser efectiva hasta en un 60 o 70%.

Más de un millón de lactantes mueren cada año

Según la OMS, más de un millón de niños menores de cinco años mueren cada año a causa de la enfermedad neumocócica o de la diarrea por rotavirus. Estas dos enfermedades, por ejemplo, son fácilmente evitables gracias a una vacuna. Por otro lado, se estima que hay casi veinte millones de niños menores de un año que no han recibido la vacuna triple vírica. Esta protege contra el tétanos, la tos ferina y la difteria, algunos de los agentes más letales que existen en edades tempranas. El 70% de esos niños viven en sólo diez países, en la Región de África y la Región de Asia Sudoriental. La vacunación podría salvar, como poco, al 90% de esos niños afectados.

Los hologramas más realistas hasta la fecha

$
0
0
Los hologramas más realistas hasta la fecha

La tecnología holográfica sigue mejorando a gran ritmo gracias a su gran camino recorrido. Los hologramas que produce un dispositivo de un estudio universitario son los más realistas gracias a la reducción y el manejo de la luz.

La tecnología holográfica siempre suena a futurista, pero como la realidad virtual, tiene un pasado más o menos brillante, que ha permitido llegar a las soluciones actuales. La primera vez que un holograma tuvo consideración de serlo fue en 1963, al ser pionera en mostrar objetos tridimensionales. Ahora, 54 años después, Lei Wang y su equipo han dado un gran salto adelante en la Universidad Nacional de Australia construyendo un dispositivo que ofrece los hologramas más realistas de la historia.

Para Wang la consecución es un sueño, desde que desde niño disfrutara como muchos otros con las representaciones que vio películas de Star Wars. Ahora intenta aplicar los principios que observó en ellas en la práctica. Frente a otras investigaciones, esta no está basada en el campo con mayor tracción ahora mismo, la realidad aumentada, sino que trabajar en aplicaciones para dispositivos minúsculos y cámaras, con el objetivo de minutuarizar el resto de dispositivos que hacen uso de los componentes que sustituirían.

El dispositivo diseñado está compuesto por pilares de silicio, que en comparación con el cabello humano tienen un tamaño 500 veces más pequeñas, gracias a lo que se beneficia de una pérdida de energía minúscula y es capaz de realizar las tareas necesarias con la luz. Gracias a la reducción a la escala nanoscópica consiguen las propiedades que permiten superar las limitaciones impuestas por materiales naturales.

Así, naves espaciales y otros objetos pensados para volar fuera de la atomósfera se beneficiarían de mucho ahorro en costes de combustible y fabricación al necesitar piezas mucho más pequeñas, hecho fundamental para misiones futuras como la que quiere emprender la conquista de Marte.

Alcanzando el éxito en la iMessage App Store

$
0
0
Alcanzando el éxito en la iMessage App Store

El desarrollador de Momento muestra algunos de sus consejos para alcanzar el éxito en la iMessage App Store.

Con iOS 10, Apple abrió a los desarrolladores las puertas de iMessage, su plataforma de mensajería instantánea. Las formas de hacer negocio se expanden; y el servicio de mensajería se nutre de nuevas características atractivas para el público. Una jugada (casi) de diez.

El desarrollador de Momento —una de las aplicaciones más populares de la iMessage App Store— publicó al respecto varias estadísticas y datos sobre esta nueva vía de negocio en las plataformas de Apple. Unos datos que ilustran y sostienen algunos de sus principales consejos para alcanzar —al menos temporalmente— el éxito en la tienda de aplicaciones de Apple.

Publicar el día del lanzamiento es siempre lo ideal. Se gana tracción de early-adopters, cobertura de la prensa y más.Uno de los principales debates entre desarrolladores para plataformas como Android o iOS se centra en el lanzamiento de sus aplicaciones. Genady Okrain sostiene e ilustra que siempre es mejor lanzar una aplicación el mismo día en el que se publica la versión del sistema operativo que aprovecha. En el caso de Momento, lanzarla el mismo día que llegó iOS 10 (con las extensiones de iMessage) se tradujo en una mayor cobertura por parte de la prensa, un mayor número de descargas procedentes de *early-adopters y la inclusión en la selección de Apple. Todo ello contribuyó a una mayor visibilidad y, por consiguiente, más descargas y beneficios.

El desarrollador también apunta a una desaceleración y abandono de la sección dedicada a iMessage en la App Store. Una situación que le llevó a lanzar una aplicación dedicada para iOS con extensión en iMessage, ganando en visibilidad, descargas y uso. Sin cifras públicas, afirma que el movimiento ha sido muy beneficioso.

Los datos proporcionados también dan algo de luz sobre los beneficios de las aplicaciones con modelo freemium y pagos in-app. La primera versión de Momento, con un pago inicial de 1,99 dólares, generó 3.635 dólares y 2.710 descargas. La segunda versión, con un modelo freemium y pagos in-app, generó 74.447 descargas pero un beneficio de solo 251 dólares.

Ford lanza SmartLink para evitar que un coche ‘caduque’ tecnológicamente

$
0
0
Ford lanza SmartLink para evitar que un coche ‘caduque’ tecnológicamente

Ford SmartLink ofrece a los propietarios de vehículos Ford fabricados a partir de 2010 una amplia gama de características de conectividad como el control remoto de algunas funciones.

Ford SmartLink es una tecnología que permite a coches que no podían incorporar en el momento de su lanzamiento opciones de conectividad avanzadas, recibir características que solo están disponibles en nuevos lanzamientos. El dispositivo se conecta al puerto OBD II situado bajo el volante y es compatible con coches Ford desde 2010.

Tras más de 2 años de investigación y desarrollo, el equipo de ingenieros de Ford en colaboración con Delphi Automotive Telematics y Verizon han asegurado que el dispositivo funcione sin problemas en los coches de la marca del óvalo azul.

Los usuarios podrán añadir capacidad 4G y Wi-Fi a sus vehículos, controlar de forma remota el arranque y la apertura/cierre del coche, recibir alertas sobre el mantenimiento y localizar de forma remota al coche. Cuatro nuevas funciones que permiten a coches lanzados a partir de 2010 disfrutar de las ventajas de los últimos modelos de la marca. Es la forma de evitar que un coche caduque por causas tecnológicas.

Según Stephen Odell, vicepresidente ejecutivo de Global Marketing, Ventas y Servicio de Ford, "Ford SmartLink sorprenderá a todos los propietarios de vehículos de los últimos modelos del año mediante la adición de algunas de las características de conectividad más populares de hoy en día. Ofrecer SmartLink a través de nuestros distribuidores es otra manera de mantenernos conectados con nuestros clientes y ganar su lealtad."

“Nunca aceptaremos estas condiciones”: la intrahistoria de la llegada del iPhone a España

$
0
0
“Nunca aceptaremos estas condiciones”: la intrahistoria de la llegada del iPhone a España

Al final, quien no aceptó fue Apple.

Hace algo más de dos lustros, las ventas de móviles en España se hacían mayoritariamente a través de las operadoras. Aunque esto sigue vigente, antes era algo mucho más pronunciado. No había apenas canales de distribución online y el mercado libre era algo atípico, cosa de nichos. Se estilaba firmar permanencias y conseguir “gratis” o de forma subvencionada (con muchos matices, esto) los terminales.

Además de eso, los teléfonos móviles también eran escaparates andantes de las telecos, y cebos para sus servicios. El logo de la operadora impreso en la carcasa, cargado en la pantalla de arranque, y un acceso directo en la pantalla de inicio al portal WAP de turno (Movistar Emoción, Vodafone Live!, Orange World…). Con un poco de suerte, incluso se modificaba la apariencia de los menús para acoplarse a los colores y opciones de conectividad de cada operador. De hecho, y según en qué países, los fabricantes desarrollaban teléfonos a medida para las marcas, quienes les indicaban demográficos del target y funciones requeridas. Hasta que llegó Apple.

“De ninguna forma vamos a aceptar estas condiciones”

Telefónica fue la primera teleco en sentarse a negociar con Apple tras la llegada del iPhone. Aunque el primer modelo nunca llegó a nuestro país, y de hecho solo desembarcó en un número de mercados muy reducido, el iPhone 3G fue el primero en aterrizar en los escaparates españoles, y lo hizo exclusivamente a través de Movistar. Para la operadora de Telefónica eran los buenos tiempos: superaba las 21 millones de líneas móviles. Menos de una década después, ha perdido más de cinco. Pero en aquel entonces, era el gigante de forma mucho más holgada, y acoger en soledad a lo nuevo de Apple solo podía salirle bien.

No obstante, aquellas negociaciones fueron duras. Telefónica no ha querido hacer declaraciones sobre este asunto, pero una fuente que pide anonimato y estaba en la empresa durante aquellas jornadas nos cuenta que las condiciones con las que Apple llegó a las reuniones despertaban perplejidad entre los responsables de la operadora. "Era increíble. No eran negociaciones, eran prácticamente imposiciones: o lo tomábamos, o lo dejábamos. Ni Nokia nos trataba así. De hecho con Nokia teníamos una relación excelente, nos llevábamos muy bien, nos ayudábamos mutuamente." Esas imposiciones venían en los márgenes que se reservaba la firma americana, pero también en elementos a los que directamente nadie había ni apuntado hasta entonces.

"Lo normal era que la marca nos diese unas guidelines básicas para usar su imagen, puntos a resaltar, la cartelería, etc. Pero lo de Apple nos pareció de una prepotencia impresionante: nos decían cómo teníamos que presentar su teléfono en las tiendas, en la página web, en marquesinas, todo con un rigor y una minuciosidad tan exagerados que rayaban lo absurdo. De verdad, nunca habíamos visto algo así con ninguna otra marca". Telefónica estuvo cerca de renunciar. "De ninguna forma vamos a aceptar estas condiciones", se comentaba en corrillos internos por los pasillos de la teleco azul. Al final pesó el hecho de contar con el terminal de Apple en exclusiva, y que quien realmente jamás aceptaría las condiciones ajenas. En aquel entonces, la exclusividad con una operadora en cada país era la fórmula de Apple. De hecho, Telefónica se marcó un buen tanto vendiendo en exclusiva el primer iPhone en Reino Unido, país de origen de Vodafone. En Estados Unidos fue AT&T quien se llevó el gato al agua e Italia fue la primera nación en la que dos telecos ofrecían simultáneamente el iPhone. Tras la fumata blanca, Telefónica aguantó dos años la exclusividad del iPhone en España (3G y 3GS) antes de que el iPhone 4 llegase a las tres grandes de forma simultánea.

Pero la madre del cordero fue la exigencia económica de Apple, que quería cobrar un porcentaje del gasto mensual del cliente en servicios de la operadora. Nokia, que tenía una cuota de mercado de en torno a un 30-35% en 2006, ya había intentado algo similar con Ovi, y se encontró con una mirada nada cómplice de las operadoras. No era de extrañar esta propuesta: su margen venía cayendo en los últimos tiempos, como para casi toda la industria, y había que tratar de compensar por otro lado. A quien sí le salió bien fue a BlackBerry, que cobraba sin problemas a través de la factura del operador por sus propios servicios, que en aquel entonces prácticamente se reducían a poder usar el correo electrónico. Con un target de ejecutivos era mucho más fácil. "Esto que ahora parece nuevo de cobrar por servicios es bastante viejo, lo que pasa es que ni los consumidores querían ni los operadores estábamos dispuestos la mayoría de veces".

Así vendía Movistar el iPhone 3G en España. Una "cuota iPhone" que se sumaba a contratos mínimos siempre que superasen cierto umbral de consumo por voz.

"Inimitable"

¿Qué fue lo que finalmente hizo que Telefónica aceptase las condiciones de Apple? "La palabra es 'inimitable'. El iPhone, incluso el 3G que fue el primero que vendimos, tenía sus carencias, pero al final vimos que era un producto inimitable. Los primeros datos de venta eran bastante buenos, y las previsiones de Apple para los siguientes dieciocho meses aún mejores, querían acabar 2008 con diez millones de móviles vendidos. Tampoco se pensaba que fuese un farol, su margen era de un 30%, un 35%, una barbaridad, mientras todos tenían márgenes menores que iban decreciendo, el de Apple era enorme y encima de un año para otro creció más todavía."

2007 empezó con los rumores de una reunión entre César Alierta y Steve Jobs. El propio Alierta reconoció públicamente en septiembre de ese año las negociaciones con Apple de cara a la incorporación del iPhone al catálogo, toda vez que advirtió que "no ocurriría en ningún caso hasta mediados de 2008". No era esperable una confirmación así si al otro lado de la mesa estaba Apple, empresa hermética donde las haya. "Aquello fue casi estratégico. No sentó nada bien, ni a Alierta ni a nadie en Telefónica, la prepotencia con la que llegó Apple, imponiendo condiciones. Para Telefónica la relación era al revés, éramos nosotros quienes decíamos a los fabricantes lo que podían o no podían hacer, porque éramos nosotros quienes poníamos sus terminales delante a los clientes, o no. Así que Alierta supongo que canalizó su enfado aireando la existencia de las negociaciones, una forma de demostrar a Apple que no se iba a pasar por el aro así como así."

Han pasado diez años desde aquellas negociaciones y escarceos que estuvieron cerca de acabar en papel mojado. Finalmente, Apple se salió con la suya, pero allanó el terreno como nadie había hecho antes para cambiar las relaciones entre operadoras y fabricantes.

Viewing all 20117 articles
Browse latest View live




Latest Images