Quantcast
Channel: Xataka
Viewing all 69842 articles
Browse latest View live

Nokia X71: agujero en la pantalla y cámara triple para un gama media con mejor diseño que su buque insignia

$
0
0

Nokia X71: agujero en la pantalla y cámara triple para un gama media con mejor diseño que su buque insignia

HMD Global sigue trabajando en mejorar el diseño de sus móviles Nokia. Con el Nokia 9 PureView teníamos un cuerpo de cristal con las cinco cámaras integradas y una pantalla 18:9 de marcos algo generosos. Ahora se presenta el nuevo Nokia X71, un móvil que por el momento está pensado para China pero que presumiblemente será la base del Nokia 7.2 que llegaría al resto de mercados.

Lo más interesante de este Nokia X71 es su mejorado diseño, claramente un paso adelante en Nokia para adaptarse a las tendencias que estamos viendo en los smartphones más recientes. Se apuesta por una pantalla perforada de 6,3 pulgadas, triple cámara en la parte trasera y un ratio de pantalla del 93%, según los datos teóricos de la marca. Vamos a ver qué nos ofrece el nuevo Nokia X71.

Ficha técnica del Nokia X71

Nokia X71

Pantalla

6,3" FullHD+ 19.3:9
2316 x 1080 píxeles
Cristal 2.5D, 500 nits

Procesador

Qualcomm Snapdragon 660

Memoria

6 GB

Almacenamiento

128 GB + microSD (hasta 256GB)

Batería

3.500 mAh + carga rápida 18W

Dimensiones y peso

157.2 × 76.45 × 7.98 mm
180 g

Software

Android 9.0 Pie

Cámara trasera

Principal: 48MP, f/1.8, lente 6P, píxeles 0.8µm
Secundaria: 8MP, gran angular 120º
Tercera: 5MP, f/2.4, flash dualLED

Cámara frontal

16MP, óptica ZEISS

Conectividad

Dual 4G VoLTE, WiFi 802.11ac, Bluetooth 5.0

Otros

GPS + GLONASS, USB tipo C, ranura híbrida, Audio OZO, jack 3.5mm, lector de huellas trasero

El agujero en la pantalla es el nuevo 'notch'

Diseno Nokia

Nokia ya nos mostró varios móviles con 'notch' durante el año pasado, aunque nos llamó poderosamente la atención que el Nokia 9 Pureview fuera tan tradicional y apostase por una pantalla 18:9. Esto afecta principalmente al tamaño de pantalla en relación con el cuerpo total del dispositivo.

El Nokia X71 ofrece un ratio del 93% según la marca, logrado por incluir un pequeño agujero en la esquina superior izquierda donde se aloja la cámara frontal. La parte trasera no es tan limpia, ya que estamos ante un gama media y por el momento el lector de huellas se encuentra detrás. Junto al logo de Nokia y una cámara triple trasera central colocada en posición vertical.

La pantalla elegida es un panel de 6,3 pulgadas con resolución FullHD+ y una relación de aspecto 19.3:9. La tecnología del panel es LCD IPS y tenemos un móvil bastante estilizado, con una altura de 157,2 milímetros, un grosor de casi ocho milímetros y un peso de 180 gramos.

Snapdragon 660 junto a 6GB de memoria

Nokia X71 Movil

Dentro del Nokia X71 nos encontramos el procesador Qualcomm Snapdragon 660 junto a 6GB de memoria RAM y 128GB de almacenamiento interno que serán ampliables utilizando una ranura híbrida, que permite o bien colocar una segunda SIM o una tarjeta microSD. Una microSD ampliable en este caso hasta 256GB.

El Snapdragon 660 se está posicionando como uno de los procesadores más utilizados por los fabricantes, pese a contar ya con un par de años y existiendo alternativas de Qualcomm más modernas. Curioso recorrido para un chipset que ni siquiera iba a existir.

Para la batería del Nokia X71 contamos con 3.500 mAh, que además podremos completar rápidamente con una carga de 18W. Para el software tenemos Android 9.0 Pie sin capa de personalización, una decisión que HMD Global mantiene en todos sus terminales y se ha convertido en una de sus señas de identidad.

Respecto a la conectividad, contamos con dualSIM, WiFi de doble banda, USB tipo C y se mantiene el jack de 3.5 milímetros.

Triple cámara con óptica ZEISS

Zeiss

Si el buque insignia tiene cinco cámaras, este Nokia X71 se queda con tres. Aunque el mecanismo es totalmente diferente. Si bien los dos móviles tienen una óptica firmada por Carl Zeiss y potenciada por inteligencia artificial, en este Nokia X71 tenemos una configuración más tradicional.

El sensor principal del Nokia X71 es de 48 megapíxeles, con una lente de apertura f/1.8 y píxeles de 1,6 micras después de realizar el pixel binning. Acompañando tenemos un sensor de ocho megapíxeles con gran angular de 120 grados y un tercer sensor de profundidad de 5 megapíxeles.

Para el frontal, la cámara que va dentro del agujero es una lente de 16 megapíxeles con una apertura f/2.0 y la posibilidad de hacer modo bokeh mediante inteligencia artificial.

Versiones y precio del Nokia X71

Nokia X71

El Nokia X71 estará disponible en China a partir del 10 de abril, en color negro y a un precio de NT$ 11,990, unos 339 euros. Sobre su llegada a Europa, todavía se desconoce cuándo se hará y bajo que nombre lo haría. Si bien, sirva este Nokia X71 para descubrir cuáles son los siguientes pasos de HMD Global en el diseño de sus terminales.

También te recomendamos

Estas son todas las muertes que habrías sufrido sin tecnología

Honor View 20: el primer móvil con pantalla agujereada ya es oficial, y viene con una cámara de 48 megapíxeles [actualizado]

Los pósters oficiales del Lenovo Z5s y algunas filtraciones apuntan a que tendrá pantalla perforada, tres cámaras y soporte 5G

-
La noticia Nokia X71: agujero en la pantalla y cámara triple para un gama media con mejor diseño que su buque insignia fue publicada originalmente en Xataka por Enrique Pérez .


La canción "Scary Monsters y Nice Sprites” de Skrillex reduce los ataques del mosquito Aedes aegypti y hace que tengan menos sexo

$
0
0

La canción

"Scary Monsters y Nice Sprites” es una canción de Skrillex. Se llevó un Grammy y fue usada en pelis, anuncios o videojuegos. Pero ya os digo que no será recordada por eso. Si me lo preguntáis a mi, "Scary Monsters y Nice Sprites” tiene algo mágico, portentoso, inmenso: que reduce los ataques del mosquito Aedes aegypti y hace que sus especímenes tengan menos sexo.

Sí, como lo oyes. Gracias a Pablo Malo llego a un estudio que, ahora que está a punto de llegar el buen tiempo y pese a todo lo que falta por investigar, me hace decir por primera vez en la vida: ¡Viva la música electrónica!

Cuando a los mosquitos les da por la música dance

¿Tiene sentido? Lo más curioso es que sí. Hace muchísimo tiempo que sabemos que el sonido tiene un papel muy importante en la reproducción, la supervivencia y el mantenimiento de la población de muchos animales. Nosotros entre ellos. En los insectos en concreto, sabemos que las vibraciones de baja frecuencia facilitan las interacciones sexuales, mientras que el ruido les corta el rollo.

Es decir, muchos insectos usan claves sonoras tanto para relacionarse entre ellos como para detectar a sus 'víctimas' y el ruido los despista. En el caso concreto de los mosquitos, sabemos que responden las canciones y que los machos y las hembras necesitan armonizar sus tonos de vuelo para conseguir una cena romántica. Sin embargo, no sabíamos demasiado sobre el impacto de la música en el comportamiento de los mosquitos. Hasta que llegó "Scary Monsters y Nice Sprites”.

El experimento O, mejor dicho, hasta que a un grupo de investigadores malayos se les ocurrió poner "Scary Monsters y Nice Sprites” a los mosquitos. Su idea era analizar los efectos de la música electrónica en el forrajeo, los ataques y la actividad sexual del Aedes aegypti, un mosquito con mucho peligro porque es vector del Dengue.

Para ellos, se sometió a un grupo de mosquitos adultos a un entorno silencioso y a otro grupo a un hilo musical compuesto por la canción de Skrillex una y otra vez. Luego se compararon las diferencias entre ataques, sangre consumid y patrones de copulación. Sí, a mi también me suena a Ig Nobel, no os preocupéis.

Los resultados. Según indican los datos, las hembras aegypti mantenidas en el entorno silencioso atacaron antes y más a menudo a sus víctimas que las que se encontraban bailando música dance. Además, consumieron más sangre en cada ataque y copularon con más frecuencias que los miembros del otro grupo. Esto es rarísimo, pero (aunque tenemos que seguir indagando en su mecanismo exacto de acción) tiene sentido.

Si lo de DJ no funciona, siempre nos quedará el control de plagas. El estudio presenta evidencias claras no solo de la sensibilidad auditiva de estos mosquitos al sonido, sino de que son vulnerables a la música electrónica. Es algo muy interesante para seguir desarrollando repelentes sonoros que ayuden a contener enfermedades como el Dengue, el Zika o la Malaria. Eso sí, antes de ponerle un monumento a los DJs del mundo, aún queda mucho por investigar.

También te recomendamos

Los científicos que soltaron tres millones de mosquitos en Australia para probar una teoría contra el dengue, la malaria o el zika

Estas son todas las muertes que habrías sufrido sin tecnología

Guía científica básica para evitar que nos engañen con el enésimo repelente antimosquitos (que, por supuesto, tampoco funciona)

-
La noticia La canción "Scary Monsters y Nice Sprites” de Skrillex reduce los ataques del mosquito Aedes aegypti y hace que tengan menos sexo fue publicada originalmente en Xataka por Javier Jiménez .

Más ofertas de primavera Amazon 2019: los mejores precios en móviles, informática y tecnología

$
0
0

Más ofertas de primavera Amazon 2019: los mejores precios en móviles, informática y tecnología

Nos encontramos en la segunda semana de las ofertas de primavera 2019 de Amazon, una campaña estacional que durará hasta el domingo 7 de abril. En estas dos semanas, Amazon está lanzando rebajas y descuentos en forma de ofertas destacadas, ofertas del día y ofertas flash en diversas categorías. Además, si eres usuario de Amazon Prime, podrás beneficiarte de acceso prioritario en las ofertas flash como es habitual. Estas son las mejores ofertas de primavera en electrónica, informática y tecnología.

Esta página estará en continua actualización durante las ofertas de primavera 2019 de Amazon.

Lo mejor de las ofertas de primavera 2019 de Amazon de hoy

Móviles, tablets y accesorios

  • Honor Play, pasa de 329 euros a 249 euros en Amazon, un gama media con hardware de gama alta, buen sonido y diseño. Lee aquí nuestra review.

  • Motorola Moto G7 baja un 8% hasta los 229 euros. Gama media con NFC, pantalla 6.2" FHD+, 4+64 GB y cámara dual. Y si nos vamos a la generación anterior, el Motorola Moto G6 Plus está 219 euros en Amazon, un modelo equilibrado con cámara dual y carga rápida. Lee aquí nuestra review.

  • Huawei 8X por 209,16 euros en colores azul y negro, es la versión española de 4GB/64GB. Gama media con pantalla de 6,5 pulgadas, Kirin 710 y batería de 3.750 mAh

  • Honor 10 Lite por 199 euros. Gama media con pantalla de 6,21", cámara dual 13 MP+2 MP, 3GB RAM y 64 GB de ROM

  • Si buscas un modelo más sencillo, el Nokia 5.1 Plus baja a 199 euros. Con panel de 5.86", procesador Mediatech Helio P60, cámara dual y 3/32 GB.

Suunto
  • Oferta del día: Suunto Core pasa de 329 euros a 179,90 euros. Reloj deportivo con GPS, altímetro y barómetro

  • Samsung Gear Sport a mitad de precio respecto a su PVP: 159 euros, es la versión española. Con SO Tizen, 768 MB de RAM y memoria Interna de 4 GB

  • Smartwatch Fitbit Versa por 171,90 euros, un 14% menos respecto a su PVP si elegimos el color blanco.

  • Otra oferta del día en relojes GPS, esta vez el sencillo Polar M200, que baja hasta los 85 euros.

Senn
  • Auriculares de diadema inalámbricos Sennheiser Momentum 2.0 Over Head Wireless por 203,94 euros. Ya hay un modelo nuevo, pero siguen siendo muy interesantes, con Bluetooth aptX, NFC y cancelación de ruido.

  • Los cascos con cable Sennheiser HD 25-1-II Basic Edition vuelven a su mínimo histórico: 124,90 euros

  • También en su precio mínimo histórico se encuentran los Sennheiser HD 4.50 Special Edition, por 119,95 euros, un 40% menos respecto a su PVP. Auriculares inalámbricos con cancelación de ruido, NFC y Bluetooth con códec aptX

  • Si buscas unos cascos verdaderamente inalámbricos (estilo AirPods), los Jabra Elite 65t están rebajados hasta los 129,99 euros, disponibles en varios colores. Con Bluetooth 5.0 y Alexa integrada

Informática y accesorios

Tuf2
  • Precio mínimo histórico en el portátil gaming ASUS TUF Gaming FX504GD-EN561 por 799,99 euros, un modelo con pantalla de 15.6"con procesador Core i7-8750H, 16 GB de RAM, 1 TB HDD + 128 GB SSD, y la gráfica GeForce GTX1050, algo ajustada para jugar a títulos potentes pero con buena relación calidad precio

  • Portátil gaming MSI GF72 8RE-062XES por 1.229,99 euros, con pantalla de 17.3" Full HD, procesador Intel Core i7-8750H, 16GB RAM, 1TB HDD + 256GB SSD y gráfica dedicada Nvidia GeForce GTX 1060 6GB.

  • Medion X7853 - MD 60709 Erazer por 1.549 euros, también con pantalla 17.3" FullHD, procesador Intel Core i7-7820HK, 32GB de RAM, almacenamiento combinado HDD de 2TB + SSD de 480GB y gráfica dedicada NVIDIA GTX1070-8GB.

  • Ultrabook LG Gram 15Z980-B por 989 euros, un equipo potente y ligero para trabajar en movilidad de 1 kilo de peso y con una autonomía de unas 20 horas según el fabricante. El LG gram 14Z980-B de 14" y procesador i5-8250 también está de oferta: 749 euros.

  • Acer Predator Helios 300 PH315-51-7581 por 949,99 euros. Portátil gaming con procesador Core i7-8750H, 8GB de RAM, almacenamiento combinado de 1TB HDD + 128GB SSD y la gráfica Nvidia GeForce GTX1060.

  • Oferta del día: portátil gaming Medion P6705, por 949 euros, con pantalla 15,6" FullHD, procesador Intel Core i7-8750H, 16GB de RAM, almacenamiento de 1TB HDD + 256GB SSD y la gráfica Nvidia GTX1050Ti-4GB.

  • Ordenador portátil MSI PS42 8M-072ES por 899,99 euros. Con pantalla de 14" Full HD, procesador Intel Core i7-8550U, 8 GB RAM, 512 GB SDD y tarjeta gráfica integrada. Viene con Windows 10 Home Plus

  • Oferta del día en la torre Lenovo T530, que baja de 1.055 a 859 euros, con
    procesador Core i7-8700, 8GB de RAM, almacenamiento de 1TB HDD + 128GB SSD y gráfica Nvidia GTX1050Ti-4GB

  • Huawei Matebook X por 849,99 euros, casi un 30% respecto a su PVP. Un ultrabook ligero con pantalla 2K IPS, procesador Core i5-7200U, 8GB de RAM y 256GB SSD.

  • Genial oferta del día: Lenovo Ideapad 330 por 729 euros, muy buena relación calidad precio: pantalla 17.3" FullHD, procesador Intel Core i7-8750H, 8GB de RAM, 1TB HDD y la gráfica dedicada Nvidia GTX1050-2GB.

  • Oferta del día en el portátil HP Pavilion 15-cw0001ns, que pasa de 699 a 599 euros. Portátil de 15.6" FullHD con procesador AMD Ryzen 5 2500U, 8GB de RAM, 256GB SSD y gráfica AMD Radeon Vega 8, viene con Windows 10. Ordenador versátil solvente para uso intensivo.

  • Otra oferta del día: Lenovo Ideapad 330-15ICH a 579 euros, un equipo con buena relación calidad precio teniendo en cuenta que integra procesador Core i5-8300H, 8GB de RAM, 1TB de HDD y gráfica dedicada Nvidia GTX1050-4GB.

  • Si buscas un All-in-One sencillo para tareas muy básicas, el Medion Akoya E23201 está rebajado a 289 euros, con pantalla de 23,8" FHD, teclado y ratón.

  • Oferta del día: Lenovo Ideapad 320S-14IKB por 299 euros. Lo mejor de este equipo básico es su pantalla de 14" Full HD y su SSD de 128 GB.

  • Medion E3213 - MD 61027 baja hasta los 199 euros, Un convertible de 13.3" FullHD con procesador Celeron N3350, 2GB de RAM y 64GB de almacenamiento. Más que un ordenador, es una tablet con Windows.

Lg
  • Una de las ofertas más atractivas en monitores: monitor 4K: LG 32UD59-B por 335 euros, de 32" pulgadas con modos especiales para productividad

  • Monitor gaming Samsung LC32JG51FDUXEN por 299 euros, con panel de 32", resolución Full HD y tiempo de respuesta 4 ms.

  • Oferta del día: monitor Lenovo L27q-10 por 249 euros, tiene un panel de 27" con resolución QHD

  • También en las 27 pulgadas de diagonal y resolución QHD encontramos rebajado el HP 27q a 239 euros, aunque esta vez con tiempo de respuesta menor

  • Monitor BenQ ZOWIE XL2411P por 199 euros, bajamos a las 24" y la resolución Full HD

Hp
  • Oferta del día: HP Laser Jet Pro M254nw a 149 euros, difícil dar con una impresora láser a color en este rango de precios y además, es multifunción y tiene Wi-Fi
Razer
  • Teclado mecánico gaming Razer BlackWidow Elite por 143,09 euros, con esfera digital multifunción, reposamuñecas ergonómico y switches mecánicos Razer Green

  • Kindle 2016 por 69,99 euros, una rebaja de 10 euros respecto a su precio habitual tras el lanzamiento del Kindle 2019. Eso sí, este modelo no tiene iluminación y su resolución es de 167 ppp, para lectores esporádicos.

  • Razer Mamba Wireless por 63,99 euros, un ratón gaming con con 7 botones programables, diseño ergonómico e iluminación chroma.

  • Unidad SSD Crucial MX500 CT500MX500SSD1(Z) de 500 GB por 62,99 euros.

  • Oferta del día en la tableta para digitalizar dibujos, apuntes y textos Wacom Intuos S, que se queda en 69,49 euros, es compatible con Windows y mac OSX

Imagen y sonido

Hisesne
  • Aunque tiene casi un año en el mercado, es muy difícil encontrar televisores de este tamaño a este precio: Smart TV Hisense H55N5705 por 440,64 euros, unos 100 euros menos respecto a su precio habitual. Con panel LCD y resolución 4K UHD.

  • Otro TV del año pasado rebajado es el el LG 50UK6750PLD, que encontramos casi a mitad de precio: 439 euros el modelo de 50". Hay más tamaños rebajados, pero este es el que tiene el mayor descuento. Tiene panel LCD con resolución 4K UHD

  • Ya en las 60" localizamos el TV Sharp LC-60UI9362E por 669,90 euros, un smart TV con resolución 4K y HDR+ y sonido Harman Kardon

  • Fire Stick TV en versión básica más barato que nunca: 29,99 euros, un precio muy atractivo para convertir tu TV en una smart TV y disfrutar de Amazon TV si eres Prime.

canon
  • Canon EOS 6D MK II por 1.359,35 euros, ojo porque solo es el cuerpo de esta reflex con sensor de 26.2 MP, pantalla táctil de 3", conectividad Wi-Fi y Bluetooth capaz de grabar vídeos time-lapse en 4K.

  • Fujifilm X-T20 con objetivo XC 15-45 mm por 762,36 euros.. Compacta con sensor de 24 MP, pantalla de 3" y grabación a 4K

  • Sony Cyber-shot DSC-RX100M4 por 549,99 euros. Cámara compacta de 20.1 MP con Wi-Fi/NFC, estabilizador óptico.

  • Cámara digital compacta Panasonic Lumix DMC-LX100EGK por 469 euros, con grabación de vídeo a 4K, estabilizador óptico y pantalla de 3".

  • Kit muy interesante para iniciarse en la fotografía: Cámara réflex Nikon D3400 + 18-55 AFP DX por 369,90 euros. Con sensor 24,2 MP, pantalla LCD 3", objetivo estabilizado y grabación de vídeo en calidad Full HD.

Consolas y videojuegos

Xbox
  • Una de las ofertas más atractivas de esta campaña de primavera es la consola más potente de Microsoft, la Xbox One X. Así, la Xbox One X + Fallout en color blanco por 349 euros. Y con dos juegos: Xbox One X + Fallout + Kingdom Hearts 3 por 408,95 euros

  • Si preferimos el modelo más ligero y no vamos a exprimir el 4K, la consola Xbox One S de 1 TB con 3 mandos inalámbricos y 3 meses De Game Pass (Edición Exclusiva Amazon) está rebajada hasta los 249 euros. Otra opción es el kit Xbox One S + Battlefield V + Far Cry New Dawn por 234,90 euros.

  • Volante de carreras para PS4, PS3 y PC Logitech Driving Force G29 baja hasta los 189 euros

  • Otro volante que también baja de precio con las ofertas de primavera es el Thrustmaster T300 RS, por 239,50 euros

  • Mando Xbox + Adaptador Inalámbrico está rebajado hasta los 39,90 euros, casi a mitad de precio respecto a su PVP

Casa conectada

Arlo
  • Sistema de seguridad y vídeo vigilancia de 4 cámaras Arlo VMS4430P-100EUS Pro 2, oferta del día en el que este kit baja desde los 1000 euros hasta los 729,99 euros. Graban a 1080p HD, son inalámbricas, sirven para interior/exterior, con visión nocturna, audio bidireccional y ángulo de visión de 130º.

  • Rebaja en los altavoces inteligentes de Amazon, que se encuentran en precios mínimos históricos: Echo Dot por 34,99 euros, Echo Input, el dispositivo que permite convertir cualquier altavoz en un altavoz inteligente pot 24,99 euros, Echo por 74,99 euros, el Echo Spot por 109,99 euros, Echo Plus por 119,99 euros y Echo Show por 209,99 euros.

  • Cámara de Seguridad para interiores TP-Link KC120 por 89 euros, un modelo sencillo y compacto que graba vídeo en 1080P. Es compatible con Alexa y Google Assistant

  • Echo Dot (3.ª generación) + Philips Hue White Kit por 74,99 euros, a mitad de precio. Kit de 2 bombillas LED E27, puente y el altavoz más sencillo de Amazon. Muy buen precio para iniciarse con la domótica.

  • Oferta del día: Philips Hue White and Color Ambiance Pack de Lightstrip Plus por 51,99 euros. Tira de luz LED 2 con enchufe y extensión de 1 Metro. Compatible con Amazon Alexa, Apple HomeKit y Google Assistant

Neato
  • Ojo a los robots aspiradores de Neato porque están muy rebajados: Neato Robotics D701 por 499 euros. Robot Aspirador con navegación láser inteligente, especial mascotas, control desde el teléfono o el Apple Watch y también con asistentes de voz. Algo más sencillo es el Neato Robotics Botvac D5 Connected, rebajado hasta los 349 euros, también es compatible con Alexa, navegación inteligente y control mediante app.

  • Echo Dot gris antracita + iRobot Roomba e5154 por 434,99 euros, una oferta interesante para aprovechar el control por voz de este robot aspirador con cepillos de goma y control mediante aplicación .

  • Robot friegasuelos iRobot Braava 390T por 259 euros, un 26% respecto a su PVP. Con múltiples mopas para diferentes suelos y recambios.

  • Oferta del día: iRobot Roomba 671 pasa de 349 euros a 229 euros. A pesar de pertenecer a la gama alta de iRobot (no tiene cepillos de goma ni navegación inteligente), se controla a través de la aplicación y es compatible con Alexa

  • Si buscas un robot aspirador sencillo, el ILIFE A6 ha bajado hasta los 164 euros como oferta del día. Con navegación aleatoria y pared virtual, no es programable

  • Rozando su precio mínimo histórico iRobot Braava jet 240 por 162 euros. Robot fregador (ojo, no aspira) con recambios, tiene 3 tipos de fregado y una navegación bastante eficiente.

  • ECOVACS Robotics DEEBOT N79S por 139 euros, con navegación aleatoria. Lo más interesante es que a pesar de su precio, cuenta con una aplicación para controlarlo desde el móvil

Taurus
  • Dos robots de cocina a buen precio: Taurus Mycook Touch por 749 euros, robot de cocina por inducción de 40 a 140º C con pantalla táctil de 7", 10 velocidades y cuatro funciones especiales, 1600 W. Algo más sencillo es el Taurus Mycook baja desde los 799 euros hasta los 399 euros. Un robot con más de 3.000 recetas, cocina de inducción, báscula de precisión y pantalla. No tiene aplicación para controlarla, pero por la rebaja merece la pena

Otros

Moma
  • Oferta del día: patinete eléctrico Moma Bikes E-500 a [299 euros](https://www.amazon.es/dp/B07GDVHNVT/ref=gbpstitm-872b0281a57bf?smid=A1AT7YVPFBWXBL&pfrdp=fb8db271-60a5-4b59-a79a-4e708e6f72b0&pfrds=merchandised-search-8&pfrdt=101&pfrdi=16216863031&pfrdm=A1AT7YVPFBWSoporta 120 kg de peso, autonomía de 30 km y velocidad máxima de 25 km/hora

  • El patinete eléctrico i-Bike Mono rebaja su precio un 17% hasta quedarse en 369,90 euros, con ruedas de 8,5 " 350 W de potencia, autonomía de 20 km y velocidad máxima de 25 km/h.

  • Otro patinete eléctrico rebajado: SMARTGYRO Xtreme Baggio Black pasa de 349 euros a 309 euros, con autonomía de 25 km, velocidad máxima de 25 km/h, aplicación, selector de 3 velocidades, freno de disco. De la misma marca encontramos el SMARTGYRO Xtreme XD por 219,90 euros, con menor autonomía y menor velocidad punta.

Puedes estar al día y en cada momento informado de las principales ofertas y novedades de Xataka Selección en nuestro canal de Telegram o en nuestros perfiles de Twitter, Facebook y la revista Flipboard.

Nota: algunos de los enlaces aquí publicados son de afiliados. A pesar de ello, ninguno de los artículos mencionados han sido propuestos ni por las marcas ni por las tiendas, siendo su introducción una decisión única del equipo de editores.

También te recomendamos

Siguen las ofertas de primavera de Amazon con un precio mínimo histórico: Xbox One X + Fallout por 349 euros

Xiaomi Mi Robot Vacuum 2 a 342 euros desde España y 2 años de garantía, una de las mejores ofertas del aniversario de Aliexpress

Estas son todas las muertes que habrías sufrido sin tecnología

-
La noticia Más ofertas de primavera Amazon 2019: los mejores precios en móviles, informática y tecnología fue publicada originalmente en Xataka por Eva Rodríguez de Luis .

Reactores nucleares más pequeños, limpios, seguros y baratos: esto es lo que nos promete la fisión nuclear de cuarta generación

$
0
0

Reactores nucleares más pequeños, limpios, seguros y baratos: esto es lo que nos promete la fisión nuclear de cuarta generación

La energía nuclear no está atravesando su mejor momento. El gravísimo accidente que se produjo en la central nuclear de Fukushima (Japón) como consecuencia del tsunami de marzo de 2011 provocó que se alzasen muchas voces en contra de esta tecnología, que nos permite obtener una gran cantidad de energía a partir de las reacciones nucleares de fisión.

En nuestra serie de artículos dedicada a la fusión nuclear descubrimos que el itinerario fijado por los organismos involucrados en la puesta a punto de esta tecnología tan prometedora anticipa que, aun manteniendo el ritmo de inversión adecuado, no estará disponible comercialmente hasta mediados de este siglo. Afortunadamente, hay una alternativa muy interesante a las centrales de fisión que utilizamos actualmente: la fisión nuclear de cuarta generación. Sí, sigue siendo tecnología de fisión, pero puede conseguir que nuestra espera hasta que la fusión nuclear comercial esté lista sea mucho más llevadera.

Esta es la fisión nuclear que tenemos ahora

Los reactores nucleares tienen un propósito bien definido: transformar la energía nuclear contenida en los átomos en energía térmica. No importa si son reactores de fisión o fusión; su objetivo es exactamente el mismo, aunque la forma de obtener la energía térmica y las tecnologías implicadas son radicalmente distintas.

Después, la energía térmica que obtenemos en las centrales nucleares de fisión, que son las que tenemos actualmente, sufre otras transformaciones. Primero se transforma en energía cinética, después esta se transforma en energía mecánica, y, al final de la cadena, esta última se transforma en la energía eléctrica que llega a nuestras fábricas, oficinas y hogares.

Todas las centrales nucleares tienen los mismos objetivos, al margen de las tecnologías a las que recurren y de si son más o menos sofisticadas: maximizar el aprovechamiento del combustible nuclear, obtener la mayor cantidad posible de energía, reducir al máximo los residuos radiactivos, ser lo más seguras posible y, por último, reutilizar la energía térmica generada durante el proceso de fisión nuclear en aplicaciones secundarias que van más allá de la obtención de energía eléctrica y que nos permiten sacar más partido a la energía térmica.

La mayor parte de las centrales nucleares en actividad tanto en España como en los demás países del mundo que han apostado por esta forma de obtención de energía pertenece a la Generación II

Las centrales nucleares se clasifican en cinco generaciones atendiendo al grado de desarrollo de las tecnologías que utilizan. Las de Generación I llegaron durante las décadas de los años 50 y 60 del siglo XX, y, como podemos intuir, fueron las primeras centrales nucleares desarrolladas al amparo del conocimiento en física nuclear que obtuvieron los científicos, sobre todo, durante los años 40. Ese mismo conocimiento fue el que también permitió diseñar y fabricar las primeras bombas atómicas, entre las que se encuentran las dos que contribuyeron decisivamente a poner punto y final a la Segunda Guerra Mundial al ser lanzadas sobre las poblaciones japonesas de Hiroshima y Nagasaki, en agosto de 1945.

La mayor parte de las centrales nucleares en actividad tanto en España como en los demás países del mundo que han apostado por esta forma de obtención de energía pertenece a la Generación II. Se diseñaron para resolver las deficiencias introducidas por algunos diseños de primera generación, que tenían problemas debido a que algunos materiales se degradaban con rapidez por la acción de las altas temperaturas y las elevadas presiones, y también porque el refrigerante utilizado deterioraba algunos componentes.

Centralnuclear1 La central nuclear que aparece en esta toma aérea es Vandellós II, en Tarragona.

Los ingenieros que trabajaron en las centrales nucleares de Generación II tomaron como punto de partida los mejores diseños de la anterior generación e introdujeron las mejoras que permitieron resolver las deficiencias más acuciantes. Y tuvieron éxito. De hecho, como he mencionado, muchas de las centrales de esta generación siguen activas debido a que su rendimiento y fiabilidad se adecuan a nuestras exigencias actuales, al margen de que, por supuesto, el problema derivado de la gestión de los residuos radiactivos resultantes del proceso de fisión sigue estando presente.

Los sistemas de seguridad pasivos de las centrales de Generación III+ recurren a fenómenos físicos naturales, como la gravedad o la transferencia de calor mediante convección

Las centrales nucleares que se han construido aproximadamente durante las últimas dos décadas pertenecen a la Generación III. De nuevo se afianzan sobre los diseños más exitosos de la anterior generación, pero van un paso más allá en materia de seguridad, operatividad, capacidad de control de la propia central y fiabilidad. Además, su construcción y puesta en marcha exigen una inversión menor que la que requerían los diseños de Generación II.

Actualmente se están desplegando las centrales nucleares de Generación III+, que introducen un conjunto de mejoras sobre las centrales de tercera generación con la suficiente entidad como para asignarles su propia categoría. Aun así, el alcance de estas innovaciones no es lo suficientemente amplio para saltar a una generación completamente nueva, de ahí que los organismos involucrados en el desarrollo de estas centrales nucleares hayan decidido identificarlas como un paso intermedio entre la Generación III y la Generación IV.

Saladecontrol Este es el aspecto que tiene la sala de control desde la que se supervisan todos los sistemas de una central nuclear.

La principal aportación introducida por los diseños de Generación III+ involucra a los sistemas de seguridad pasivos, que son aquellos que entran en funcionamiento cuando, por la razón que sea, el reactor nuclear se desvía de su itinerario normal de operación. Hasta la llegada de estos diseños estos sistemas de seguridad requerían la activación expresa de equipos externos, pero el problema es que esta estrategia introduce un posible punto de fallo adicional si estos últimos no llegan a entrar en funcionamiento correctamente.

Para resolver este problema los sistemas de seguridad pasivos de las centrales de Generación III+ recurren a fenómenos físicos naturales, como la gravedad o la transferencia de calor mediante convección, para conseguir actuar por sí mismos, sin que nadie los active y sin necesidad de utilizar fuentes de energía externas. De la última generación de centrales nucleares hablaremos unos párrafos más abajo, pero antes merece la pena que dediquemos unas líneas a repasar en qué consiste y cómo se lleva a cabo el proceso de fisión nuclear.

Cómo funciona la fisión nuclear

Este proceso, que es el que utilizan actualmente las centrales nucleares, como hemos visto, consiste en romper el núcleo de un átomo relativamente pesado en dos o más núcleos para liberar una parte de la energía que contiene. Lo ideal es actuar sobre un núcleo atómico que sea relativamente fácil romper, y el del uranio-235, un elemento químico que podemos encontrar en la naturaleza en concentraciones muy bajas, lo es.

La obtención de este isótopo del uranio es cara y su procesado complejo porque exigen llevar a cabo procesos químicos capaces de separarlo de los demás elementos y las impurezas con las que suele convivir. Los isótopos son átomos que pertenecen a un mismo elemento químico, por lo que tienen el mismo número de protones en su núcleo, pero difieren en el número de neutrones, lo que provoca que su masa sea distinta. Curiosamente, las propiedades químicas de los isótopos son las mismas, pero sus propiedades físicas no son idénticas como consecuencia de su distinta masa atómica.

Al bombardearlo con un neutrón, el núcleo de uranio-235 se transforma en uranio-236, que es inestable

El uranio-235 tiene 92 protones y otros tantos electrones orbitando en torno al núcleo, y este último incorpora, además de los protones, 143 neutrones. La razón por la que en los reactores de fisión nuclear se utiliza un átomo de uranio-235, y no otro isótopo de este elemento o cualquier otro elemento químico, consiste en que al bombardear su núcleo con un neutrón (un proceso que se conoce como fisión inducida) el uranio-235 se transforma en uranio-236, que es un elemento inestable. Esto significa, sencillamente, que el uranio-236 no puede permanecer mucho tiempo en su estado actual, por lo que se divide en dos núcleos, uno de bario-141 y otro de criptón-92, y emite, además, tres neutrones.

Aquí viene lo realmente interesante: la suma de las masas de los núcleos de bario-141 y criptón-92 es levemente inferior a la del núcleo de uranio-236 del que proceden. De hecho, durante el proceso de fisión nuclear «desaparece» alrededor del 0,1% de la masa original. ¿Adónde ha ido la masa que nos falta? Sencillamente, se ha transformado en energía. La fórmula E = m c2, que es, probablemente, la más popular de la historia de la física, relaciona la masa y la energía, y lo que dice es, simplemente, que una cierta cantidad de masa equivale a una cantidad concreta de energía, incluso aunque la masa se encuentre en reposo.

Esquemafision

Pero la equivalencia entre la masa y la energía propuesta por Albert Einstein en 1905 nos dice algo más muy importante. La c de la fórmula representa la velocidad de la luz en el vacío, que, como todos intuimos, es un número muy grande (aproximadamente 300.000 km/s). Además, está elevado al cuadrado, lo que significa que incluso una masa muy, muy pequeña, como puede ser una porción del núcleo de un átomo, contiene una cantidad muy grande de energía aunque esté en reposo. Esto es lo que conocemos como energía en reposo.

Si la masa está en movimiento su energía total es mayor que su energía en reposo. Y, si observamos la equivalencia entre la masa y la energía, es sencillo darse cuenta de que la masa de un cuerpo en movimiento también es mayor que su masa en reposo, un fenómeno que nos introduce de lleno en la física relativista. En cualquier caso, la energía que obtenemos al fusionar o fisionar núcleos atómicos procede de la fuerza que mantiene unidas las partículas que lo forman: la interacción nuclear fuerte.

Reactor Este es el aspecto que tiene el interior del reactor de fisión utilizado en las centrales nucleares actuales.

Entender con cierta precisión la relación que existe entre la masa y la energía es importante porque nos ayuda a comprender cómo es posible que una masa tan pequeña como la de un átomo nos permite obtener una cantidad de energía tan grande. En cualquier caso, el proceso de fisión nuclear no termina aquí. Y es que cada uno de los neutrones que hemos obtenido como resultado de la descomposición del núcleo de uranio-236 en los núcleos de bario-141 y criptón-92 puede interaccionar con otros núcleos fisionables, provocando, así, una reacción en cadena.

No obstante, no todos los neutrones emitidos durante la descomposición del núcleo de uranio-236 van a interaccionar con un núcleo fisionable. Pero tampoco hace falta. Basta que uno solo de esos neutrones lo haga para que obtengamos un número de fisiones estable, y, por tanto, una reacción controlada, que es el objetivo de los reactores de las centrales nucleares.

Esto es lo que nos prometen los reactores de fisión nuclear de cuarta generación

Como hemos visto, las centrales de fisión nuclear de las generaciones III y III+ han tomado como punto de partida los diseños anteriores, refinándolos para mejorar su seguridad, su operatividad, la capacidad de control de la propia central y su fiabilidad. Sin embargo, los diseños de cuarta generación proponen tomar un nuevo rumbo para no verse lastrados por las deficiencias introducidas en las generaciones anteriores.

Antes de seguir adelante es importante que tengamos algo en cuenta: todavía no hay ninguna central nuclear de Generación IV en funcionamiento. Los físicos y los ingenieros involucrados en su desarrollo están trabajando para proponer nuevos diseños que conceptualmente pueden ser muy diferentes a los de las generaciones anteriores. Eso sí, los requisitos que deben cumplir estas nuevas centrales nucleares están claramente definidos.

Los diseños de Generación IV conceptualmente pueden ser muy diferentes a los de las generaciones anteriores

El primero de ellos consiste en alcanzar la máxima sostenibilidad posible, de manera que el combustible se aproveche al máximo para producir energía, se minimice la cantidad de residuos radiactivos resultantes del proceso y su gestión sea lo más eficiente posible. El segundo requisito atañe a la inversión económica que es necesario afrontar para poner en marcha y mantener la central nuclear, que debe ser lo más baja posible para que pueda equipararse al gasto que exigen otras fuentes de energía, reduciendo, de esta forma, el riesgo financiero.

Y el tercer y último requisito estipula que la seguridad y la fiabilidad deben ser lo suficientemente altas para minimizar la probabilidad de que el núcleo del reactor sufra daños. Además, si se produjese un accidente no debería ser necesario tomar medidas de emergencia más allá de las instalaciones de la central nuclear. Como veis, las exigencias que introducen las centrales nucleares de Generación IV son ambiciosas porque aspiran a erradicar de un plumazo muchas de las deficiencias que lastran a los diseños anteriores.

Aún queda mucho trabajo por hacer para que estas centrales sean viables desde un punto de vista técnico y comercial, pero ya hay varias aproximaciones muy prometedoras que se apoyan en seis diseños de reactores de fisión diferentes. Profundizar en cada uno de ellos excede el alcance de este artículo, pero creo que merece la pena que los mencionemos para que, al menos, nos suenen a medida que una o varias de estas propuestas alcancen la viabilidad comercial.

Edificiodeturbinas Este es el edificio que contiene las turbinas que reciben el vapor de agua procedente de los generadores de vapor para transformar su energía cinética en energía mecánica de rotación a través de los álabes.

Uno de los diseños más prometedores es el reactor de muy alta temperatura (VHTR), que está refrigerado por helio y que se puede adaptar para producir hidrógeno. También es muy interesante el diseño del reactor rápido refrigerado por gas (GFR), que puede utilizar como combustible buena parte de los residuos que tenemos actualmente. Y el reactor rápido refrigerado por sodio (SFR), que también puede usar como combustible los residuos radiactivos actuales.

Otro diseño atractivo es el reactor supercrítico refrigerado por agua (SCWR), que trabaja por encima del punto crítico termodinámico del agua. O el reactor rápido refrigerado por aleación de plomo (LFR), que utiliza un ciclo de combustible cerrado para afrontar una transformación eficiente del uranio fértil. Y, por último, también es interesante el diseño del reactor de sales fundidas (MSR), que utiliza como combustible las mencionadas sales fundidas y el resultado del reciclaje de los actínidos, que son un grupo de elementos pesados de la tabla periódica del que forman parte, entre otros, el uranio, el plutonio y el torio.

Aún queda mucho trabajo por hacer para que las centrales nucleares de cuarta generación sean viables desde un punto de vista técnico y comercial, pero ya hay varias aproximaciones muy prometedoras

Como acabamos de ver, el nombre de la mayor parte de estos diseños se construye tomando como base el sistema de refrigeración que utilizan. Esta característica es muy importante porque gracias a las innovaciones introducidas en la refrigeración los reactores de Generación IV serán modulares y tendrán un tamaño muy inferior al de los reactores utilizados en las centrales nucleares que están trabajando actualmente.

Además, también se espera que su construcción, puesta en marcha y mantenimiento sean sensiblemente más económicos que los de las centrales actuales. Si finalmente cumplen todos estos requisitos, las centrales nucleares de Generación IV pueden erigirse como una opción atractiva que, junto a las energías renovables, podría resolver nuestras necesidades energéticashasta que la fusión nuclear sea viable desde un punto de vista comercial.

Aún tendremos que tener paciencia

En España, al igual que en otros países, la energía nuclear está atravesando un momento de relativa incertidumbre. Y es que el parque nuclear español está abocado a un proceso de cierre paulatino de las centrales que están operando actualmente después de una vida media de unos 45 años. Si se cumple el calendario vigente este proceso comenzará con el cierre de la central nuclear de Almaraz, en 2027, y concluirá con la clausura de la central de Trillo, en 2035.

Según el Foro Nuclear Español las centrales de Generación IV llegarán en unos 25 años, aunque el diseño PBMR podría estar listo en 10 años

Todavía es demasiado pronto para saber si las centrales nucleares de cuarta generación tendrán un hueco en los países que están defendiendo la adopción de otras tecnologías de obtención de energía. Con las políticas actuales esta opción parece poco probable, pero a medio plazo… nunca se sabe. Quizá cuando llegue la Generación IV de reactores nucleares, si realmente demuestra que su sostenibilidad, fiabilidad, seguridad y economía son las prometidas, las políticas de algunos países cambien. Por el momento solo podemos especular.

En cualquier caso, hay una pregunta importante a la que aún no hemos respondido. ¿Cuándo serán viables comercialmente las centrales nucleares de cuarta generación? Si la inversión actual se mantiene y el grado de desarrollo sigue su curso, según el Foro de la Industria Nuclear Española las centrales de Generación IV llegarán en unos veinticinco años, aunque hay un diseño en particular, conocido como PBMR (Pebble Bed Modular Reactor), que podría adelantarse y estar listo aproximadamente en una década.

Centralnuclear2 Esta es la central nuclear Vandellós II, en Tarragona.

La entidad de las organizaciones involucradas en el desarrollo de las tecnologías que es necesario poner a punto para que las centrales nucleares de cuarta generación sean viables es muy importante. Y esto nos invita a ser razonablemente optimistas a la hora de aceptar que las promesas de la Generación IV finalmente se cumplan.

De hecho, en el itinerario que describe los pasos que debe ir dando esta tecnología participan la Unión Europea, Estados Unidos, Canadá, Japón, Corea del Sur, Rusia y China, entre otros países. Y uno de sus promotores más destacados es, curiosamente, Bill Gates, debido a que es uno de los propietarios de TerraPower, una de las empresas enfrascadas en la puesta a punto de los futuros reactores nucleares de Generación IV. Les seguiremos la pista y continuaremos contándoos cuando haya más novedades jugosas.

Imágenes | Foro de la Industria Nuclear Española | Fastfission

También te recomendamos

Estas son todas las muertes que habrías sufrido sin tecnología

El paladio ya es más caro que el oro: por qué este metal precioso es tan valioso para nuestros coches y dispositivos electrónicos

Hay al menos una razón por la que merece la pena volver a la Luna: recoger su abundante helio-3 y usarlo en la fusión nuclear

-
La noticia Reactores nucleares más pequeños, limpios, seguros y baratos: esto es lo que nos promete la fisión nuclear de cuarta generación fue publicada originalmente en Xataka por Juan Carlos López .

Bitcoin sube un 17% por sorpresa y todo ha podido deberse a una inocentada

$
0
0

Bitcoin sube un 17% por sorpresa y todo ha podido deberse a una inocentada

Ayer se celebró en Estados Unidos el llamado April Fools', el que equivaldría a nuestro día de los Santos Inocentes. Es habitual encontrar en diversos medios noticias exageradas y bromas sobre todo tipo de temáticas, y una de ellas puede haber causado un efecto singular en el mercado de las criptodivisas.

Y es que en las últimas horas el valor de bitcoin ha crecido cerca de un 17% y ha alcanzado niveles que hacía meses que no se veían. Eso ha arrastrado al resto del mercado, pero esa subida podría no durar mucho si como parece el incremento en valor se produjo debido a una noticia que era en realidad una broma.

La volatilidad vuelve a ser protagonista

Desde noviembre de 2018 bitcoin no llegaba a estos niveles. El valor de esta criptodivisa está ahora situado en cerca de 4.800 dólares, y según algunos medios como Reuters incluso llegó a superar los 5.000 dólares en algún momento.

Coindesk

Eso supone una subida de cerca del 17% respecto a los 4.000-4.100 dólares que estaba teniendo en las horas previas, y ese auge del bitcoin ha provocado el mismo efecto en otras muchas criptodivisas que han subido también de valor. Hoy en Coinmarketcap se puede ver como prácticamente todas ellas están en verde y con crecimientos significativos.

En Bloomberg indican que la subida de precio puede haberse debido a los usuarios que tenían órdenes de stop-loss en el nivel de 4.200 dólares, pero también a una noticia en un sitio web poco conocido que afirmaba que el SEC en Estados Unidos había aprobado por fin un ETF (Exchange-Traded Funds) basado en bitcoins, un producto financiero que hace meses -incluso años- que se baraja pero que jamás ha logrado pasar el escrutinio de los reguladores.

Ahora, como siempre, queda por ver si esta subida es solo flor de un día o si realmente ese nivel se mantiene y las criptodivisas logran recuperar parte de todo lo perdido en 2018.

De aquella época mágica de finales 2017 en la que todo parecía posible se pasó a unas pérdidas constantes que hicieron que el mercado de las criptodivisas se derrumbase. Ahora ha quedado relegado a un claro segundo plano en el que eso sí, sigue habiendo movimiento. Muchos creen que bitcoin y las criptodivisas siguen teniendo un futuro brillante, pero los problemas de este tipo de monedas virtuales por ahora no logran superarse.

Vía | FastCompany

También te recomendamos

Estas son todas las muertes que habrías sufrido sin tecnología

Bitcoin, ether y ripple en mínimos de 2018, el pánico no deja tranquilas a las criptodivisas

La historia del supuesto hacker de 20 años que está siendo acusado de robar más de 5 millones de dólares en bitcoins

-
La noticia Bitcoin sube un 17% por sorpresa y todo ha podido deberse a una inocentada fue publicada originalmente en Xataka por Javier Pastor .

El teclado de los MacBook ante la duda: las críticas parecen indicar que afecta a algo más que a "una pequeña cantidad de usuarios"

$
0
0

El teclado de los MacBook ante la duda: las críticas parecen indicar que afecta a algo más que a

Un ingenioso artículo de Joanna Stern en el WSJ volvía a levantar la liebre hace unos días: el teclado de su nuevo MacBook Air se había roto, y eso parecía demostrar que el problema con los teclados de los portátiles de Apple seguía más presente de lo que la propia compañía quería reconocer.

En Apple lanzaron un comunicado rápidamente disculpándose e indicando que solo "una pequeña cantidad de usuarios" estaban afectados, pero las críticas están llegando por doquier, y lo hacen desde los sectores más afines a la empresa. Algunos expertos como John Gruber califican estos teclados como "el peor producto de la historia de Apple", y los casos de usuarios con este tipo de conflictos parece ser más importante de lo que la empresa de Cupertino quiere reconocer.

Cuando el río suena...

Es difícil validar esos problemas, pero las críticas no paran de aparecer, quizás maginificadas tras la aparición de varios casos notorios como el de The Wall Street Journal. En la empresa Basecamp la mayoría de empleados hacen uso de MacBook Pro 13 de 2018 o de MacBook Air de 2016, y en una encuesta interna respondían para indicar si habían tenido problemas con sus teclados.

Macbook1

En esos resultados se veía cómo el 30% de los 47 empleados con MacBook estaban afectados, y que los nuevos modelos de 2018 con la tercera generación de los teclados mariposa no se libraban del problema: seis de los trece equipos de este tipo (casi la mitad) tenían un teclado con algún tipo de problema.

David Heinemer Hansson, el responsable de la encuesta interna, lanzaba la pregunta en Twitter y recibía miles de respuestas que mostraban cómo solo el 37% de los que contestaban tenían un MacBook de 2018 o posterior sin problemas en el teclado. Los datos de la encuesta no están validados y por tanto es difícil creer en esas cifras tan altas: que 6 de cada 10 usuarios estén afectados por el problema parece a priori exagerado.

Twit

O podría no serlo, claro. Todo tipo de foros están repletos de críticas y comentarios al respecto, y Reddit es un buen ejemplo. Allí un usuario que afirma trabajar como 'genius' en el servicio técnico de Apple indicaba que "cerca de la mitad de las reparaciones de los Mac son por los teclados de mariposa".

Hasta demandas judiciales

Las críticas en los medios especializados al teclado que debutó en los MacBook en 2015 han sido frecuentes, y los periodistas que trabajan con MacBook han hablado a menudo de esos problemas en medios como The Outline.

Aquel artículo acabó desembocando de hecho en un programa de reparación y sustitución de teclados que Apple puso en marcha en junio de 2018 y que recordó al problema con las baterías de los iPhone 6.

Esos problemas han provocado algo más que críticas en foros o quejas más o menos públicas en medios de comunicación: en California un grupo de usuarios han realizado una demanda conjunta por este problema en la que por ejemplo se expone que "Apple sabía que el Macbook era defectuoso antes o en el momento en que comenzó a vender los modelos afectados al público". Cerca de 36.000 personas han firmado una petición en Change.org exigiendo a Apple una solución al problema, pero de nuevo es imposible saber cuántas de ellas están realmente afectadas por el problema (o si hay más).

Memb Fuente: iFixit

Los expertos de iFixit analizaron la última generación de teclados de mariposa integrados en los últimos MacBook en sus distintas variantes y detectaron que efectivamente las modificaciones ayudaban a evitar a que entrara polvo y provocara problemas.

Lealtades en peligro

Mientras tanto incluso algunos célebres analistas como el citado John Gruber que en muchos casos elogia los productos de Apple se mostraba inmisericorde. Consideraba esos teclados "los peores productos de la historia de Apple. Los MacBooks deberían tener los mejores teclados de la industria; en lugar de eso son los peores. Están causando un daño duradero a la reputación de la marca MacBook". Otros como Marco Arment también criticaban la decisión de Apple en cuanto a esa tecnología de teclados.

Teclado

En Xataka nos hemos puesto en contacto con los responsables de Apple en España, que han confirmado las declaraciones de hace unos días. En ellas un portavoz de Apple indicaba que "somos conscientes de que una pequeña cantidad de usuarios están teniendo problemas con su teclado Butterfly de tercera generación, y lo sentimos. La gran mayoría de los clientes de portátiles Mac están teniendo una experiencia positiva con el nuevo teclado. Recomendamos que cualquier cliente que tenga algún problema contacte a AppleCare”.

Y sin embargo, que tantas críticas estén amontonándose no ayuda a la imagen de unos productos que hasta no hace mucho eran impecables, sobre todo para sus leales usuarios. Ahora hasta ellos se rebelan, y eso es mala señal para una Apple que en materia de hardware —el caso del AirPower cancelado lo confirma— ya no parece la de antes.

También te recomendamos

Genial oferta de Worten en eBay: MacBook Air Retina por 1.149 euros y el MacBook Pro por 1.319 euros

Estas son todas las muertes que habrías sufrido sin tecnología

La ciencia española está en una situación nefasta: así es el plan del gobierno para tratar de aliviar sus problemas

-
La noticia El teclado de los MacBook ante la duda: las críticas parecen indicar que afecta a algo más que a "una pequeña cantidad de usuarios" fue publicada originalmente en Xataka por Javier Pastor .

Del casco de Iron Man a los ojos de un gigante. Los nuevos títulos para Playstation VR demuestran que lo virtual está refinando su lenguaje

$
0
0

Del casco de Iron Man a los ojos de un gigante. Los nuevos títulos para Playstation VR demuestran que lo virtual está refinando su lenguaje

Es un placer ver sonreír a Sean Murray; aunque es una sonrisa distinta a la de hace cinco años. Hace cinco años, 2014, Sean Murray se subía al estrado de la Gamescom con un montón de manierismos en sus gestos; nervios que demostraban cuán poca experiencia tenía como speaker, pero que también probaban su pureza ante el público.

Recuerdo perfectamente el impacto que tuvo en mí esa charla. Fue la siguiente que vi a la de un viejo zorro, Sam Lake, que nos fue a vender el fallido 'Quantum Break'. Qué contraste entre ambos: Sam Lake, en completo control de sí mismo; Sean Murray, en completo descontrol. Pero recuerdo perfectamente que fue la charla de Murray y no la de Lake la que se grabó indeleble en mi memoria. Porque Murray venía a contar, con una pasión que solo puede sentirse si uno ama desmedidamente lo que hace,** uno de los juegos más ambiciosos de todos los tiempos**: 'No Man's Sky'.

Antes de volver a hablar con él la semana pasada, durante el evento de los nuevos juegos de PlayStation VR que ahora vencen su embargo, me pasé un rato observándolo mientras le explicaba a otro periodista los detalles de la fascinante versión de realidad virtual de su obra. Y me di cuenta que ese speaker virginal, al que se le subía y le bajaba la voz, al que le costaba hasta mirar a la prensa por su timidez, había muerto. Demasiado sufrimiento. Demasiadas cicatrices.

Pero cuando lo vi sonreír, justo antes de que me pusiera el casco para sumergirme, como nunca, en 'No Man's Sky', respiré aliviado. Sean Murray niño no había muerto; seguía habitando un Sean Murray adulto más preparado para lidiar con la infinita dureza del mundo ante los creadores. Sí, a él se le fue la lengua prometiendo demasiado. Pero un marketing completamente desnortado ayudó muy poco y la rabia furibunda de las redes sociales machacó a seis personas, Hello Games, que habían creado una de las experiencias más únicas y extraordinarias de la historia de los videojuegos.

No Man Palpar desde dentro una cabina de 'No Man's Sky' es una de las mejores experiencias virtuales hasta la fecha.

Hello Games, con Sean Murray a la cabeza, resistió, escuchó y moldeó 'No Man's Sky'. Lo moldeó para cumplir todo lo prometido (y mucho más) a la comunidad. Lo moldeó hasta esta versión definitiva, Beyond, que alcanza ahora en su encarnación virtual (que estará disponible también para PC) todo su esplendor. Pero el juego ya era extraordinario antes; era extraordinario desde esa primera vez en que un jugador experimenta el descenso sobre un limbo planetario y pasa de observar el astro desde el cosmos a sumergirse en su atmósfera y, finalmente, tocar tierra.

Sean Murray me sonrió como un niño; y me dijo: "Eso es el juego también para mí. Eso es lo esencial. Pero claro, nos vendieron como 'Star Wars' y nosotros éramos '2001. Una odisea en el espacio'. Luego estalló en carcajadas y me invitó a visitar su mundo, uno de la media docena en la que me sumergí ese día. En él más que ningún otro pude sentir que sí, que lo de la realidad virtual va muy en serio. Y que falta poco, muy poco, para que la madurez de la experiencia se convierta en algo tan extraordinario y diferencial como para justificar los engorros que trae el medio.

Un mundo palpable

Da igual que fuera abrir el maletín de Tony Stark apretando con los dedos su peculiar cierre de seguridad; o abrir el cockpit de una nave de 'No Man's Sky' imitando el gesto exacto que haríamos en la realidad: el asir de una agarradera y el impulso vertical para desplazarla; o acariciar a una criaturilla con nuestro dedo índice en 'Ghost Giant'. Todos estos nuevos juegos de realidad virtual mostrados por Sony están refinando un aspecto que le es único al medio: su naturaleza táctil.

Ghost Giant 'Ghost Giant' es uno de los títulos que mejor aprovechan los Move.

Es algo de lo que uno se da cuenta cuando lleva muchas horas de vuelo de realidad virtual. Sí, lo inmersivo, el percibir los objetos en su tamaño real y ocupando todo nuestro campo visual (o casi), es el primer mazazo del medio. Pero lo verdaderamente poderoso es que uno, mediante el motion tracking de sus manos, puede estar allí presente con un nivel de inmersión que nos hace creer en sus personajes y mundos como no podemos creer en una pantalla.

El año pasado fui uno de los pocos, que no el único, que manifestó una fascinación total por 'Déraciné'; hasta el punto que en mi entrevista de una hora al genio de nuestros tiempos, Hidetaka Miyazaki, le confesé que tal vez este título de PSVR era mi favorito de From Software. Miyazaki me sonrió cuando le describí lo que sentí al tocar, como un hada traviesa, de manera íntima a sus personajes. Que alzar un sombrero de un personaje se me hacía algo más fascinante que disparar el arma más poderosa de la galaxia.

Estos nuevos títulos del casco de Sony comprenden, perfectamente, la naturaleza de este poder. Empiezo por 'Iron Man', que pinta muy, muy bien, una superproducción de VR que podría esperar a ser lo más parecido a un megatítulo de Naughty Dog o Insomniac; esto es: una videopeli. Un videojuego donde la interacción y lo jugable está sometido a una experiencia lineal variada, espectacular y aventurera.

Moverse como 'Iron Man', aunque requiere de su adaptación, es un placer. Pasa una cosa con los mandos Move, esas maracas que sustituyen a nuestras manos en el mundo virtual; los recuerdos que generan no son de mandos, sino de manos. Al verlas representadas en el mundo digital y poder moverlas exactamente como nosotros las movemos, lo que se siente, al evocar la experiencia, es que realmente eran nuestras manos.

Iron Man La demo de 'Iron Man' terminaba con una espectacular secuencia a lomos de un avión.

Con 'Iron Man' esto era espectacular porque nuestras manos son, evidentemente, los thrusters del personaje. Volar como él es hacer un cosplay virtual de Tony Stark. El impulsor está realmente en la palma de nuestra mano, así que lo único que hay que entender es que este nos lleva al lado contrario en el que apuntemos. ¿Que queremos girar a la izquierda, pues estiramos el brazo derecho paralelo al suelo? ¿Que queremos deslizarnos a toda velocidad hacia delante: inclinamos nuestras manos hacia atrás en esa pose inolvidable? ¿Que queremos parar en seco o retroceder: las dos palmas alzadas? Y disparar, evidentemente, es el toque de un botón y apuntar con nuestras manos.

Pero fue sin duda con 'No Man's Sky' cuando estas sensaciones fueron más maravillosas. Por ejemplo, usando la pistola tanto para cavar un túnel como para pintar con material el nombre de mi hijo sobre la superficie de un planeta. No digamos ya subirse a la nave y advertir que sí, se puede pilotar al fin como si estuviéramos realmente en ella. Nuestra mano agarra el joystick para dirigir y el thrust para impulsar y nos vamos a las alturas; al cosmos. 'No Man's Sky' está destinado a ser ese gran juego virtual de la generación, el único que creo que puede competir con el estratosférico 'Tetris Effect'. Y lo es sobre todo por sus sensaciones táctiles.

Otro título que las potenciaba mucho es 'Ghost Giant'. Habrá que ver cómo funciona en la versión final este curiosísimo título de Zoink Games, pero el par de escenas que me jugué fueron realmente estimulantes. La idea, muy Pixar, ## muy de sense of wonder, es que habitamos el cuerpo de un gigante azul que solo puede ser visto por una adolescente gatuna que es un manojo de nervios.

La jugabilidad, muy variable pero basada fundamentalmente en palpar con el mundo, es de aventura gráfica, de point and click en primera persona. Claro que marca un abismo, como bien entendió From Software, pasar del point and click al touch and feel. Como gigante podemos arrancar flores, alzar vehículos, menear casas del árbol y acariciar la cabecilla atolondrada de la protagonista. Y son sensaciones, insisto, que evocan lo que realmente es genunio de la realidad virtual.

Ghost Giant 'Ghost Giant' sabe cómo trasladar las fortalezas narrativas de la aventura gráfica al VR.

A lo grande

"Sí. Será como un juego completo. Un AAA'. Me lo dijo con una sonrisa que delataba un cierto hastío ante la inevitable pregunta: Ryan Payton, game director del 'Iron Man' de Camouflaj, aseveraba rotundamente que estaba haciendo exactamente esto: un AAA en realidad virtual.

Lo cierto es que 'Iron Man' se siente exactamente así desde que uno empieza a jugarlo. Arranca desde el interior del traje, con la mansión de Malibú (esa que se fue al pairo en 'Iron Man 3') dominando el horizonte y Petter Potts en el auricular. Y las gigantescas letras de Marvel Entertaiment acercándose a nosotros para subir el hype.

Algo después, ya hacia el final de la demo, vivimos el momento más 'Iron Man'de todos. Nos largan de un pepinazo de nuestro avión y nos desplomamos, con lo puesto, desde los cielos. Entonces nuestro Mark III empieza a acoplarse a nosotros, pieza a pieza, hasta acabar por encajarnos el casco con ese clang tan fantástico. Es un momento 10. Y también un síntoma para el sector.

Los últimos dos grandes eventos a los que he asistido de realidad virtual, este de PlayStation y otro de Oculus a finales del año pasado, me han revelado que la confianza de los estudios ha crecido mucho. Las sensaciones que ofrece un 'Iron Man' se parecen mucho a lo que esgrime, en la competencia del casco de Facebook, Insomniac Dreams con 'Stormlands'. Juegos largos, ambiciosos y pensados para sesiones de juego dilatadas.

Sean Murray, al acabar la demo de 'No Man's Sky', le decía a cada periodista: "Sé que no lo sentirás así, pero llevas media hora jugando". Claro que no lo sentías así. Yo sentía que, como mucho, un tercio de ese tiempo, porque ya sabemos que en videojuegos Cronos se vuelve elástico y las tareas que acometemos se comen las horas como si fueran canapés. Y en realidad virtual, más, porque, aunque uno lleve ya muchos juegos a sus espaldas terminados con el caso (es mi caso) es siempre fascinante esa sensación de estar dentro.

Otro desarrollador que entiende perfectamente la potencia inmersiva del medio es London Studio. Tras 'London Heist', su nueva videopeli, que en el fondo es una evolución de lo que vivimos hace décadas con Namco y sus 'Time Crisis', se titula 'Blood & Truth'. Da lo que promete: acción a raudales peliculera y múltiples mininteracciones que nos hacen sentirnos parte del espectáculo. Algo tan simple como plantar un C4 y no simplificarlo al pulsar de un botón sino realizar todo el proceso, le da otro nivel a la experiencia.

Estoy deseoso de ver qué hace un estudio experto en lo cinemático y las mininteracciones como Quantic Dream con esta tecnología; puede ser memorable. Si los tiros de PS5, como se rumorea, apuntan a lo virtual, creo que veremos a estudios de ese calado llevando mucho más lejos sus habilidades en este contexto. Naughty Dog, Insomniac, Santa Monica, Hideo Kojima... Las posibilidades son cuasi infinitas.

El despegue

Hace apenas semanas, descubrimos que ya pululan más de cuatro millones de cascos PSVR por el mundo. Es toda una cifra, por ridícula que parezca comparada con los más de 90 millones de PS4 que hay por el mundo. Porque es una masa suficiente para llevar las cosas, probablemente en la próxima generación, al siguiente nivel.

En esta generación, cierto es, no vamos a alcanzar esa claridad de imagen que tiene un televisor de 4K. No al menos en un casco de PSVR. Ese aspecto de lo retratado un poco de monitor de recreativa de los 90 visto muy de cerca va a ser imposible de remediar.

Pero lo que sí que parece que vamos a vivir son los primeros títulos que nos llevan más allá. Para mí, 2018 no fue el año de 'God of War', 'Red Dead Redemption 2' o 'Spider-Man' (que también); fue el año, sin duda, de 'Déraciné' y 'Tetris Effect'. Para mi pasmo, dos experiencias de VR me hacían sentir más que cualquier AAA del año.

Parece que fueron solo el aperitivo. Parece que el despegue de lo virtual va a llegar. Y ese despegue es un vértigo, un cosquilleo en las vísceras, mientras pulsamos el thrust de nuestra nave espacial y nos disparamos rumbo a quién sabe dónde.

También te recomendamos

Estas son todas las muertes que habrías sufrido sin tecnología

Va siendo hora de llamar a la "relación entre videojuegos y violencia" como lo que es: un mito urbano

'State of Play' de PlayStation: aquí están los 11 tráilers que nos dejó el primer evento digital de Sony

-
La noticia Del casco de Iron Man a los ojos de un gigante. Los nuevos títulos para Playstation VR demuestran que lo virtual está refinando su lenguaje fue publicada originalmente en Xataka por Ángel Luis Sucasas .

El nuevo tráiler de los 'Vengadores: Endgame' muestra por fin a Thanos y su nueva arma

$
0
0

El nuevo tráiler de los 'Vengadores: Endgame' muestra por fin a Thanos y su nueva arma

¿Preparados para la batalla final? Los 'Vengadores: Endgame' llegará a los cines el próximo 26 de abril, aunque en España podremos disfrutarla la tarde de antes. Para celebrar que las entradas ya están a la venta, Marvel Studios ha lanzado un nuevo tráiler con material inédito hasta la fecha y donde por fin aparece Thanos, el principal villano de la saga que todavía no se había mostrado en el anterior tráiler.

Además de su aparición, podemos ver que Thanos llega con una nueva armadura y con una nueva arma en forma de espada de doble filo que ya se ha dejado ver en juguetes basados en la película.

El nuevo tráiler de los 'Vengadores: Endgame' tiene un minuto exacto de duración y llega en formato panorámico 21:9. Aquí lo tenéis en su versión original y subtitulado al español.

Nuevo tráiler de los 'Vengadores: Endgame': original y subtitulado

Tras exterminar al 50% de la población y hacerse con las Gemas del Infinito, Thanos está preparado para enfrentarse a todos los Vengadores. Lejos de quedarse igual, el villano ha renovado su equipo y llegará con una nueva armadura dorada y una nueva arma[Cuidado: spoilers!].

La nueva arma de Thanos se ha dado a conocer a través de los juguetes de la marca Hot Toys; una espada de doble filo que recuerda al doble sable láser de Darth Maul, en 'La Amenaza Fantasma'. No teníamos confirmación que Thanos, interpretado por Josh Brolin, utilizaría esta arma en la película, pero al final de este nuevo tráiler se puede apreciar en la lejanía la figura de Thanos sentado junto a esta nueva arma.

Thanos Vengadores

También te recomendamos

Todo lo que se espera que cambie en el Universo Marvel después del final de 'Los Vengadores: Endgame'

Estas son todas las muertes que habrías sufrido sin tecnología

Loki y la Bruja Escarlata tendrán serie propia: serán las primeras producciones originales del streaming de Disney, según Variety

-
La noticia El nuevo tráiler de los 'Vengadores: Endgame' muestra por fin a Thanos y su nueva arma fue publicada originalmente en Xataka por Enrique Pérez .


Los tres tipos de zoom del Huawei P30 Pro en detalle: óptico, híbrido y digital probados a fondo y enfrentados

$
0
0

Los tres tipos de zoom del Huawei P30 Pro en detalle: óptico, híbrido y digital probados a fondo y enfrentados

Es curioso lo que nos ha venido a demostrar el Huawei P30 Pro y sus cinco cámaras en el análisis a fondo que hemos hecho: no cuantas más cámaras es mejor con un zoom que vuelve a dejar el listón bien alto, pero la versatilidad sin duda aporta mucho a la experiencia fotográfica. De ahí que hayamos querido mostraros algo más de lo que da de sí el zoom del Huawei P30 Pro, ampliando las muestras en diversos escenarios.

De este modo, igual que solemos hacer con las comparativas fotográficas, hemos puesto a prueba el zoom óptico, híbrido y digital del Huawei P30 Pro, mostrándoos en cuáles se desenvuelve mejor y algunas claves para lograr el mejor resultado si se requiere el uso de esta herramienta por estar a distancia del objetivo. Os mostramos ejemplos en cada caso y al final un enlace con las fotografías a tamaño real para que podáis verlas en detalle y sin compresión.

Ficha técnica de las cámaras del Huawei P30 Pro

El Huawei P30 Pro da un salto con respecto al Huawei P20 Pro y al Huawei Mate 20 Pro e incorpora cuatro cámaras traseras: un gran angular, un ultra gran angular, un teleobjetivo y una cámara TOF 3D. Haciendo el desglose de las mismas, tenemos:

  • Un sensor de 40 megapixeles con lentes SuperSpectrum de 27 milímetros y apertura f/1.6 con estabilización óptica de imagen (gran angular).
  • Un sensor de 20 megapixeles con lente de 16 milímetros y apertura f/2.2 (ultra gran angular).
  • Un sensor de 8 megapixeles con zoom periscópico óptico de 5 aumentos, con lente de 125 milímetros, apertura f/3.4 y OIS (que es ese cuadrado que veíamos al inicio).
  • Un sensor Time of Flight Huawei TOF lens (colocado bajo el flash).

En este resumen de las ópticas y los sensores ya se vislumbra uno de los protagonistas que veremos a lo largo de este post: ese zoom óptico 5x, el cual actuará junto al digital para crear un zoom híbrido de 10x y que quede hasta 50x únicamente el digital. Pero hay otras novedades importantes como esos sensores RYYB, que alternan píxeles amarillos en lugar de verdes, y la introducción del ultra gran angular que ya vimos en el Huawei Mate 20 Pro.

Huawei P30 Pro 01

Resultados de día en varios escenarios

Como ya dijimos en el análisis, el resultado del zoom se va a ver favorecido especialmente con la abundancia de luz (sobre todo al haber una subexposición natural a medida que nos acercamos). El mejor rendimiento lo dan en exteriores con luz abundante incluyendo contraluces, bastante más que en interiores con una iluminación similar.

Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom

Lo más interesante son los resultados entre 5x y 10x

Lo que vamos a ver bastante pronto es que el zoom 50x suele dar imágenes muy pobres, no más de lo que cabría esperar, pero al final es una herramienta más bien anecdótica (y quizás pensada más como un logro que como una opción práctica real). Lo más interesante son los resultados entre 5x y 10x, especialmente en el primer caso, viendo las fotografías en tamaño real o incluso los recortes comparando la misma área en los distintos aumentos.

Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom

Los colores no nos parecieron demasiado realistas ya en el primer análisis y esto se mantiene, si bien lo importante es que el hecho de saltar de una lente a otra (o de combinar distintos zoom) no va a ocasionar en este sentido un gran cambio. Solamente lo hemos observado en algún disparo nocturno en el que el disparo a 1x salía más rojizo, pero en la mayoría de disparos esto no sucedía, sobre todo con mejores condiciones de luz.

Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom

Otra consideración a tener en cuenta es el enfoque. En todo caso aquí hemos recurrido a automático, con alguna ayuda en situaciones más exigentes (aunque si lo deseamos podemos disparar hasta 5x en modo pro y recurrir al enfoque manual), y ha resultado ser un enfoque muy rápido. Pero eso no quita que cuando la escena es más exigente (y/o menos estable por nuestra parte, sobre todo usando los zoom) el enfoque pueda fallar en último término.

Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom Fotografía con HDR.
Huawei P30 Pro zoom Fotografía con HDR.
Huawei P30 Pro zoom Fotografía con HDR.
Huawei P30 Pro zoom Fotografía con HDR.

El zoom con objetos en movimiento

Justamente esto que comentábamos va a ser algo de importancia si estamos enfocando a un objeto en movimiento. A mayor aumento, más difícil va a ser encuadrar y a su vez estabilizar el disparo, por lo que el trípode o algún punto de apoyo fijo improvisado puede ser nuestro mejor amigo.

Pero no nos anticipemos y antes veamos algunos ejemplos de fotografías de ítems en movimiento. Cuanta más velocidad tengan esos movimientos, mayor reto va a suponer, pero hablando de personas y del zoom 5x los resultados están bastante bien.

Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom

Cuando baja la luz esos contornos se van a perder más e irán apareciendo las acuarelas (o casi más bien óleos), sobre todo hablando de 10x y mucho más de 50x. A estos aumentos vale la pena valorar casi mejor la identificación de las formas sobre todo en referencia al 50x, ya que con este zoom además suele haber una gran cantidad de ruido y se hace imposible enfocar al elemento en movimiento (como ahora veréis), pero el rendimiento del 10x no está mal dadas las condiciones (y sin trípode).

Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom

Aquí resulta imperceptible casi en casi todas las vistas, pero si os fijáis a 1x podréis ver el avión que intentábamos cazar:

Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom

Luz media, baja y de noche

Cuando baja la luz las cámaras se ponen a temblar, pero cada vez lo aguantan mejor e incluso sacan pecho. El desempeño de la del Huawei P30 Pro no nos pareció diferencial en estas condiciones en su modo automático (habrá que ver si ese modo nocturno mejorado ha subido puestos con respecto al del año pasado), de ahí que con más razón haya que probar el zoom en estas condiciones.

El rendimiento en este caso será inferior simplemente por esos escenarios más exigentes. Se pierde la nitidez y hay un poco más de subexposición a medida que nos aproximamos y el resultado ya no es tan impactante al menos a primera vista.

Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom Fotografía con HDR.
Huawei P30 Pro zoom Fotografía con HDR.
Huawei P30 Pro zoom Fotografía con HDR.
Huawei P30 Pro zoom Fotografía con HDR.

Si aumentamos sobre el resultado vemos que empiezan a salir las "verdades": tenemos acuarelas y ruido, ni el zoom 5x se salva de esto. Pero pese a esto no rinde peor de lo esperado y el 10x aún queda en un buen lugar con escenas con luz media-baja.

Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom

El HDR puede ser un recurso según lo que busquemos, porque a costa de aumentar el rango dinámico hay también un aumento de los contornos sobre todo en los exteriores en días nublados. Pero eso, al mismo tiempo, da la falsa sensación de obtener más definición, y viendo los aumentos al "microscopio" parecen mejores tomas que las hechas en modo automático al definirse mejor las formas dentro de lo que cabe.

Comp Hdr Zooms

De noche el resultado es bastante bueno hablando del 5x, destacando levemente el 10x de manera más puntual y con un desempeño del 50x que lo deja casi inservible por la imposibilidad de enfocar/encuadrar sin trípode, la invasión de ruido y la huida de las formas. Aquí vale la pena buscar estabilidad y no abusar del zoom para que sea lo más óptico posible (y aquí ojo con el HDR porque de 5 a 10x puede exagerar demasiado los contornos hasta hacerlo casi un cómic).

Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom (Para los curiosos, la Luna y Venus.)
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom
Huawei P30 Pro zoom

De hecho, el resultado cambia bastante si usamos o no un trípode. Hay estabilización óptica y asistida por la inteligencia artificial, pero cuanto más exigimos menos se nota su actuación, y obtenemos tomas bastante más definidas usando un punto de apoyo, habiendo mucha más diferencia que de día.

Tripode Com

Buscando los mejores resultados entre un valor y otro

Algo bastante interesante es jugar con los zoom para conocerlos al máximo y entonces encontrar el punto óptimo, que no siempre viene definido por los accesos directos de la app. Recordando lo que comentamos también en el análisis, en la interfaz (configurando para disparar a 10 megapíxeles) vemos en la parte de abajo un indicador 1x con varios puntos alrededor, pertenecientes al ultra gran angular, el zoom 5x y el 10x, pudiendo establecer otro número de aumentos intermedio o superior deslizando.

Recortes Comp

Lo cómodo es saltar de 0,6x (ultra gran angular) a 1x, 5x o 10x, pero puede haber bastante diferencia en el resultado si en vez de disparar a 10x lo hacemos a 9,9x. No es algo determinante, pero es curioso como ocurre sobre todo cuando estamos usando el zoom más bien como una lupa (con alguna de las peticiones que nos dejasteis por YouTube, por cierto).

Comp 10y99

Esto es bastante incómodo y en ocasiones a prueba de cirujanos; no hay botón para 9,9x ni hay manera de saltar de décima a décima. La única posibilidad es deslizar y quedarse en un cierto número de aumentos requiere en ocasiones muy buen pulso.

Huawei P30 Pro Zoom Deslizador

Un trío de zoom que da mucho juego

Para quienes estáis interesados en ver las fotografías con más detalle, están disponibles en esta carpeta en Drive sin compresión. Lo único añadido es la etiqueta de los aumentos, pero están guardadas a tamaño original y sin ediciones.

Huawei P30 Pro 04

La verdad es que el zoom óptico 5x de este Huawei P30 Pro da un resultado llamativo y sobre todo atractivo: con sus más y sus menos es un vicio, sobre todo si nos gusta fotografiar animales o estructuras alejadas. Hasta los 10x ya es un uso más puntual y casi más útil si queremos visualizar mejor algo lejano que buscando una buena foto, y hasta 50x como hemos dicho no compensa demasiado, pero al final todos éstos junto con el ultra gran angular y modos como el de apertura o el de noche proporcionan la versatilidad buscada y esperada.

Huawei P30 Pro 03

Los zoom tienen margen de mejora porque en fotografía todo lo tiene, pero cierto es que este 5x nos ha dejado más contentos de lo que lo hizo el 3x el pasado año y da la impresión de que el listón ha quedado realmente alto en este área. Lo veremos en próximas comparativas, en la que tanto esta función como el resto tendrán que enfrentarse en combate a los buques insignia ya lanzados y por venir.

También te recomendamos

Huawei P30 Pro, análisis: el zoom que enamora vuelve en este rival a batir en fotografía móvil de 2019

Huawei P30 Pro, primeras impresiones: una construcción excelente para una evolución fotográfica que pinta muy bien

Estas son todas las muertes que habrías sufrido sin tecnología

-
La noticia Los tres tipos de zoom del Huawei P30 Pro en detalle: óptico, híbrido y digital probados a fondo y enfrentados fue publicada originalmente en Xataka por Anna Martí .

Acabamos de aprender a reescribir la vida con un algoritmo: un genoma diseñado por ordenador para entender mejor la vida sintética

$
0
0

Acabamos de aprender a reescribir la vida con un algoritmo: un genoma diseñado por ordenador para entender mejor la vida sintética

Eso que no ves ahí, lo que hay dentro del 'capuchón' de plástico es una forma de vida que nunca antes había existido. Es más, es el primer genoma diseñado completamente por un ordenador. Es verdad que la vida sintética lleva más de una década entre nosotros, pero cosas como la Caulobacter ethensis-2.0 nos dejan claro que aún está todo por hacer.

Hace unos diez años, Craig Venter y su equipo crearon la primera bacteria "sintética". Fue capaz de copiar y sintetizar el genoma de la bacteria 'Mycoplasma mycoides'. Fue un momento histórico. Ahora, los hermanos Christen de la ETH Zurich han hecho algo ligeramente distinto: utilizar un algoritmo para simplificar la producción del genoma al máximo sin perder información. Han creado un genoma nuevo y (bastante) funcional.

Reescribir la vida para entenderla

Adrien Converse 484763 Unsplash

Mejorar la C. Ethensis. Esta bacteria es un microorganismo muy común que vive en el agua de manantiales, ríos, lagos de agua dulce de todo el mundo. Es inofensiva y suele utilizarse como modelo bacteriano en los laboratorios de medio planeta. Por eso, está sorprendentemente bien estudiada. Por ejemplo, sabemos que, aunque tiene unos 4.000 genes, solo 680 son cruciales para su supervivencia en condiciones de laboratorio.

¿Cómo fabricar un genoma? Precisamente eso es lo que la hacía una bacteria muy interesante para hacer lo que los Christen pretendían hacer: hacer más sencillo el proceso de síntesis del genoma yendo al origen del problema. Es decir, quería simplificar el genoma de tal forma que fuera sencillo de sintetizar sin perder información importante.

Y lo cierto es que "la síntesis de estos segmentos no siempre es fácil. Las moléculas de ADN no solo pueden adherirse a otras moléculas de ADN, sino que, dependiendo de la secuencia, también pueden retorcerse en bucles y nudos, lo que suele dificultar el proceso de producción e, incluso, hacer imposible la fabricación”, explicaba Matthias Christen.

Y voilà Los investigadores metieron el genoma en el algoritmo y recogieron un nuevo genoma (una sexta parte más pequeño) que les permitía sintetizarlo fácilmente con solo con 236 segmentos. Es decir, el algoritmo recompuso el algoritmo para hacer exactamente lo mismo de forma más sencilla. El resultado no fue óptimo, pero fue sorprendentemente bueno: aproximadamente 580 de los 680 genes artificiales que demostraron ser completamente funcionales.

¿Por qué es importante? Este trabajo, como otros muy interesantes que van en la misma línea, es parte de un esfuerzo clave por empezar a reescribir las bases de la vida. Y no para "jugar a ser Dioses", para eso ya tenemos a otros iluminados; sino para poder entender mejor cómo funciona ese complejo conjunto de letras que llamamos la naturaleza humana.

También te recomendamos

La desagradable verdad de los secadores de manos: no solo absorben las bacterias del baño, sino que las lanzan en nuestras manos

Estas son todas las muertes que habrías sufrido sin tecnología

Las bacterias de nuestro estómago también pueden producir electricidad

-
La noticia Acabamos de aprender a reescribir la vida con un algoritmo: un genoma diseñado por ordenador para entender mejor la vida sintética fue publicada originalmente en Xataka por Javier Jiménez .

El nuevo vídeo teaser de la última temporada de Juego de Tronos nos muestra las secuelas de la Batalla de Invernalia (y apunta a un ganador)

$
0
0

El nuevo vídeo teaser de la última temporada de Juego de Tronos nos muestra las secuelas de la Batalla de Invernalia (y apunta a un ganador)

HBO nos presenta un nuevo adelanto de la octava temporada de Juego de Tronos. No es un tráiler completo, ya que dura únicamente un minuto. Pero nos ha puesto la piel de gallina ya que nos muestra un escenario completamente desolador.

Muy atentos a los que no quieran recibir spoilers, ya que pese a que los directores podrían estar jugando con nosotros, podríamos estar ante una situación bastante trascendental para el devenir de los Siete Reinos.

Titulado "Aftermath" o "Secuelas de Guerra" en español, el nuevo vídeo teaser nos muestra una Invernalia vacía. Completamente envuelta en la nieve y donde aparentemente habría sido conquistada por los Otros. En la escena final, de hecho se puede observar la sombra de un personaje. Después de que en el suelo aparezca "Garra", la espada de Jon Nieve y el símbolo de la Mano de la Reina de Tyrion.

Aquí os dejamos con el nuevo vídeo teaser de la última temporada de Juego de Tronos.

Nuevo vídeo de la octava temporada de Juego de Tronos

El vídeo comienza mostrando el estandarte de la Casa Stark, dueños de la fortaleza de Invernalia. Pero seguidamente aparece el castillo completamente vacío, plagado de nieve aunque sin cadáveres. Se escuchan varios cuervos, el sonido de ambiente relacionado con Los Otros y finalmente la espada de acero valyrio de Jon en el suelo abandonada. Una situación que anticipa el desenlace de la Batalla de Invernalia aunque teniendo en cuenta las numerosas referencias, podría tratarse de simplemente una visión o material promocional que después no aparezca.

"Lucha por los vivos" es el lema de este nuevo teaser de la octava y último temporada de Juego de Tronos, que se estrena el 15 de julio.

También te recomendamos

La última temporada de 'Juego de Tronos' llegará en abril: HBO confirma la fecha del épico final y estrena nuevo teaser

HBO lanza un nuevo teaser tráiler de la última temporada de 'Juego de Tronos' que nos deja con ganas de más

Estas son todas las muertes que habrías sufrido sin tecnología

-
La noticia El nuevo vídeo teaser de la última temporada de Juego de Tronos nos muestra las secuelas de la Batalla de Invernalia (y apunta a un ganador) fue publicada originalmente en Xataka por Enrique Pérez .

El estado del arte del software para transcribir entrevistas, clases magistrales y juicios

$
0
0

El estado del arte del software para transcribir entrevistas, clases magistrales y juicios

Os voy a contar un secreto. Cuando a los que nos dedicamos a esto de escribir nos dicen que tenemos que hacer una entrevista con algún profesional del sector, muchos nos echamos a temblar. No porque sea difícil prepararla (que también), sino porque una vez grabada toca pasarla a texto. Si son un par de declaraciones en un audio de cinco minutos no pasa nada, pero ¡ay!, qué momento cuando te sientas delante del ordenador y te espera un audio de dos horas.

Hay algunos programas que permiten controlar la reproducción del audio conforme escribes, de forma que la tarea se hace algo más sencilla si tienes una ratio de pulsaciones / segundo medianamente alta, pero ¿no es curioso que teniendo asistentes virtuales que nos entienden casi a la perfección no haya un software conocido para transcribir audio a texto? Nosotros hablamos de entrevistas, pero si lo piensas, este software sería útil para casi cualquier contexto que implique transcripción.

Un software de transcripción es útil para cualquier situación, ya sea una entrevista, una clase o un vídeo de YouTube

Algunos ejemplos podrían ser cuando grabas una clase magistral para poder escucharla de nuevo en casa y tomar apuntes o, sin ir más lejos, los taquígrafos de tribunal, a.k.a. las personas que toman nota de todo lo que se dice en un juicio. Estos últimos juegan con ventaja, ya que usan taquigrafía y una máquina estenográfica, es decir, que usan atajos y lo registran todo a una velocidad de vértigo. Sea como fuere, ¿no sería más sencillo que, en lugar de hacerlo tú, un software lo hiciera por ti? Sin duda.

Software hay, pero no es completamente gratuito (ni tampoco caro)

Basta con echar un ojo en la red para encontrar decenas de programas, aplicaciones web y móviles que permiten transcribir un audio a texto. Sin ir más lejos, Amazon y Google tienen su propio servicio a disposición de cualquier usuario (no necesariamente desarrolladores) a un precio realmente asequible. Aun así, no es necesario irnos a grandes corporaciones para encontrar un software adecuado.

Amazon y sus AWS

Amazon Aws

Empecemos por Amazon. La empresa de Jeff Bezos, más allá de facturar una (o varias) millonadas vendiendo productos a través de su tienda online, tiene uno de los servicios más populares de Internet: Amazon AWS (Amazon Web Services). Se usa para, literalmente, todo, desde almacenamiento en la nube a bases de datos, potencia de cómputo, realidad aumentada, aprendizaje automático y, cómo no, transcripción de texto. El servicio que se encarga de esto último es Amazon Transcribe, y es realmente asequible.

Amazon Transcribe se define como “un servicio de reconocimiento de discurso automático (ASR) que facilita a los desarrolladores agregar capacidades de voz a texto en sus aplicaciones”. Los desarrolladores pueden acceder a una API, integrarla en sus apps y ofrecer funciones speech-to-text, aunque el resto de los mortales podemos subir un archivo MP3 y recibir la transcripción en cuestión de unos minutos si tenemos algo de paciencia para configurar la herramienta. Generalmente se usa para servicios de atención al cliente, subtitulación de contenido y catalogación de archivos de sonido.

El precio de transcribir un audio usando el servicio de Amazon es de 0,0004 dólares por segundo

Funciona en inglés, francés, italiano, portugués y español (de Estados Unidos), aunque puedes usar un archivo en español de España y recibir la transcripción igualmente. Para ello, basta con subir el archivo a Amazon S3 y dejar que el software haga su trabajo. Eso sí, tiene que tener menos de dos horas de duración. Amazon es capaz de identificar diferentes voces, por si hay varios interlocutores, e incluso puedes crear un vocabulario personalizado.

Esta función es realmente útil para audios técnicos, por ejemplo, una entrevista sobre física cuántica en la que se usen palabras como gigaelectronvoltio, kaón, leptón, neguentropía o spin. Si introduces esas palabras, cuando Amazon Transcribe detecte una coincidencia las sustituirá y el texto será más correcto, que no perfecto. Casi siempre, salvo que sean cosas sencillas, requerirá que lo revises. Para facilitarte la vida, Amazon te devuelve el texto con marcas temporales para que sepas en qué segundo del audio se dice tal o cuál cosa, de forma que no tengas que escucharlo entero para encontrar un error y modificarlo. Como dato interesante, Amazon Transcribe usa Deep Learning para añadir puntuación, como comas, puntos, signos de interrogación y exclamación.

A mayor longitud del audio, mayor velocidad de transcripción

Curiosamente, funciona mejor cuanto más largo es el audio. Según Amazon, las transcripciones están optimizadas para audios de más de 30 segundos y, a partir de los dos minutos, la velocidad de transcripción mejora exponencialmente. Por ejemplo, un audio de 10 minutos tarda unos cinco minutos en transcribirse, mientras que un audio de dos horas tarda unos 35 minutos.

Su precio es de 0,0004 dólares por segundo con un cargo mínimo de 15 segundos por solicitud. Para que te hagas una idea, subtitular el último tráiler de “Los Vengadores: Engadme”, que dura 2:30 minutos, costaría cinco céntimos. Si te interesa, durante los 12 primeros meses puedes acceder gratis a 60 minutos de transcripción mensuales. Si la superas o termina el año, pasarás a pagar en función del uso, aunque ya ves que no es algo demasiado caro. Una hora de audio son 3.600 segundos, es decir, poco más de un euro, una cifra asumible teniendo en cuenta el coste de oportunidad y el tiempo que te ahorras.

La nube de Google

Google

Google, además de con su buscador, gana dinero con sus servicios de procesamiento en la nube, inteligencia artificial y aprendizaje automático. Uno de ellos es la transcripción de voz, que es una API a la que los desarrolladores pueden acceder para, como ocurre en Amazon, integrarla en sus aplicaciones y ofrecer reconocimiento y transcripción de voz. ¿Punto positivo? Soporta hasta 120 idiomas y variantes, mientras que Amazon funciona con solo un puñado de idiomas. ¿Punto negativo? Por el momento, no se lleva bien con la puntuación y no tiene un sistema sencillo de subida de archivos.

¿Qué quiere decir esto? Que, si eres estudiante o periodista y no tienes ni idea de programación, no podrás usar una herramienta en la web o un software sencillo. Como mucho podrás crear un proyecto en la Consola de Google Cloud y, si te llevas bien con los tutoriales, crear tu propia app con la API de Google y, entonces sí, transcribir el audio. Por eso uno de los usos a los que Google hace referencia es la transcripción de llamadas de servicios de atención al cliente, ya que su servicio se integra en otras herramientas.

Usar la nube de Google implica tener ciertas habilidades de programación y desarrollo, no es tan sencillo como apretar un botón

Por otro lado, Google detecta el idioma en el que se pronuncia una frase (hasta un máximo de cuatro idiomas), transcribe audios de formato corto y largo en tiempo real, sean grabados en el momento o de un archivo grabado previamente, e incluso es capaz de transcribir nombres propios, fechas y números de teléfono en el formato correcto. Según la empresa, “el número de nombres propios que reconoce Google es más de 10 veces mayor que el número de palabras que recoge el diccionario Oxford de la lengua inglesa”.

Image 2019 03 17 15 49 22 Demo de la API speech to text de Google.

Asimismo, el motor de Google ofrece modelos prediseñados en función de las necesidades. No olvidemos que estamos hablando de un sistema que se integra en las apps y que una aplicación de navegación no recibirá los mismos inputs de audio que una app de música. Así, la nube de Google ofrece diversos modelos contextuales para que una app de navegación responda mejor a audios como “llévame a la calle tal o cual” y una app de música responda mejor a órdenes y comandos como “reproduce la playlist tal o cual”. Otra de las ventajas es que lleva a cabo un tratamiento del ruido, de forma que el motor de transcripción es capaz de procesar un audio grabado en entornos ruidosos.

El precio del uso de la API se determina mensualmente y se mide en incrementos redondeados a los siguientes 15 segundos, es decir, que tres audios de 10 segundos no se facturarán como 30 segundos, sino como 45 segundos. El reconocimiento de voz es gratuito hasta los 60 minutos mensuales en aplicaciones de sistemas personales (es decir, una app que instales en tu móvil). A partir de entonces, se cobran 0,006 dólares por cada 15 segundos. En el caso de que quieras usar el sistema para reconocer voz en vídeo, hasta 60 minutos al mes es gratis y, a partir de ahí, son 0,012 dólares por cada quince segundos. El límite mensual es de un millón de minutos de audio al mes.

Google Docs tiene una herramienta llamada "Escritura por voz" que escribe todo lo que vayas diciendo en tiempo real

Ahora bien, que no tengas ni idea de programación y no sepas crear una app que haga uso de esta API no significa que no la puedas usar. Google Docs tiene integración con el motor de reconocimiento y transcripción de voz de Google y funciona realmente bien. Simplemente debes crear un documento nuevo en Google Drive, ir a “Herramientas” y seleccionar “Escritura por voz”. Conforme hables, Google irá escribiendo el texto, aunque lo de la puntación no lo lleva demasiado bien. Tienes que ser tú el que, expresamente, diga “Hola coma me llamo Jose” para que Google escriba “Hola, me llamo Jose”.

Donde también funciona es en Google Keep. En la app de notas de Google puedes guardar notas de audio y recibir una transcripción instantánea. No es el sistema más útil para entrevistas y juicios, desde luego, pero para un uso casual puede valer.

IBM y los servicios de Watson

Watson Así son las entrañas de Watson.

Seguramente hayas oído hablar de Watson, y no, no nos referimos al acompañante de Sherlock Holmes, sino a la inteligencia artificial de IBM. Watson está particularmente especializado en reconocimiento e interpretación del lenguaje natural y, como ocurre con Amazon, su sistema de IA se puede usar para infinidad de cosas, incluyendo transcripción de voz a texto.

Funciona en inglés, japonés, árabe, mandarín, portugués, español, francés y coreano y, según IBM, funciona hasta en audios de calidad baja. Evidentemente, a mayor calidad de audio, mejores resultados. Entre las características de este sistema está el modo de reconocimiento preciso, que requiere de algo de intervención por parte del usuario, pero mejora cuantiosamente los resultados.

Una de las bondades del sistema de IBM es que añade marcas temporales al texto y ofrece interpretaciones alternativas

¿Cómo funciona? Como Amazon. Puedes crear un modelo con palabras personalizadas (recuerda el caso de la entrevista de física cuántica del que hablábamos antes) para que la IA mejore la comprensión y ofrezca una transcripción más veraz. También es capaz de reconocer varios interlocutores, ofrecer timming para ver en qué momento del audio se dijo algo e incluso ofrecer alternativas con su respectivo porcentaje de probabilidad. Por ejemplo, en un audio en inglés puede detectar “these” o “this”, según la pronunciación de la persona. Por defecto elige la más probable, pero permite consultar qué otras opciones podrían haber sido y el porcentaje de veracidad de la opción elegida.

Image 2019 03 17 15 51 20 La IA de IBM es capaz de detectar varios interlocutores hasta en la demo gratuita (que, por cierto, funciona bastante bien).

Como ocurre en el caso de Google, estamos hablando de una API que debe usarse mediante una interfaz de comandos a desarrollar por parte del usuario, no es una plataforma con un botón de “Subir audio” que funcione mágicamente. Es complicado, sobre todo si, como un servidor, no te manejas demasiado bien con el código, pero puedes probarlo por ti mismo gracias a una demo gratuita que tienen en su web. No respeta la puntuación, pero detecta las voces, añade marcas temporales, detecta las palabras clave que tú elijas y ofrece palabras alternativas.

Ahora bien, si te animas a crear tu propia aplicación, te interesa saber que tienes 100 minutos al mes gratis creando una cuenta y eligiendo el plan Lite, aunque no ofrece modelos de personalización. El precio de los planes superiores depende del número de minutos que vayas a necesitar. Así, el precio por minuto en el plan de estándar más sencillo es de 0,02 dólares, mientras que el precio por minuto por el plan de más de un millón de minutos es de 0,01 dólares.

Microsoft y Azure

Image 2019 03 17 15 56 56 Microsoft también permite probar su software gratis en la web.

Microsoft, además de Windows y Office, tiene una completa suite de servicios de inteligencia en la nube conocida como Azure. Es de las más extendidas a nivel global con 54 centros de datos repartidos por todo el mundo y la usan el 95% de las empresas Fortune 500, véase Coca Cola, Adobe, Reuters, Samsung o BMW. Como el resto de empresas que hemos visto anteriormente, el motor de reconocimiento de voz y transcripción a texto es una API, lo que se traduce, como ya puedes imaginar, en que tienes que desarrollar una app en la que integrarla.

Esta herramienta se enmarca en los “Servicios Cognitivos” de Azure y puede usarse tanto en vivo, es decir, obteniendo el audio del micrófono, o desde un archivo previamente grabado. Entre sus funciones destacadas están Custom Speech Service, que permite crear un modelo de reconocimiento eliminando las barras del estilo del habla, el vocabulario y el ruido. Esto usa diferentes APIs para ayudar al sistema a entender la pronunciación y dar una respuesta veraz.

El servicio speech to text de Microsoft es capaz de ignorar acentos creando modelos personalizados

Otra de las funciones interesantes que Microsoft Azure incorpora en su API de transcripción es la traducción instantánea de varios idiomas. Esta usa traducción automática estadística (SMT) y traducción automática neuronal (NMT), siendo la segundo la más precisa, fluida y natural, ya que usa el contexto de la oración para traducir la frase. Aun así, solo se usa en los idiomas más populares, dejando SMT para los idiomas que se usan con menos frecuencia.

El precio del servicio de conversión de voz a texto es gratuito cuando se hace una sola solicitud simultánea, es decir, que no transcribes varios audios a la vez, con un máximo de cinco horas al mes. Si requieres servicios más potentes, el plan estándar admite hasta 20 solicitudes simultáneas y ofrece conversión de voz a texto por 0,844 euros la hora, 1,181 euros la hora si quieres usar modelos personalizados (Custom Speech Service).

Los ponemos a prueba

Prueba Voz

Todo lo visto hasta el momento está muy bien, pero ¿cómo se comportan en una situación real? Salvando a Amazon Transcribe, que nos dio problemas con la tarjeta de crédito (necesaria para verificar la cuenta) y no nos dejó acceder por más que lo intentamos, hemos probado los servicios de transcripción de Google, Microsoft e IBM.

Para ello, en lugar de coger un fragmento de un libro o de un artículo ya publicado, hemos elegido el primer párrafo de este artículo. Este dice lo siguiente:

Os voy a contar un secreto. Cuando a los que nos dedicamos a esto de escribir nos dicen que tenemos que hacer una entrevista con algún profesional del sector, muchos nos echamos a temblar. No porque sea difícil prepararla (que también), sino porque una vez grabada toca pasarla a texto. Si son un par de declaraciones en un audio de cinco minutos no pasa nada, pero ¡ay!, qué momento cuando te sientas delante del ordenador y te espera un audio de dos horas.

Es un párrafo difícil porque tiene comas, puntos, signos de exclamación y hasta un paréntesis. Luchando contra mi marcado acento andaluz, lo he leído y grabado hablando despacio, claro, pronunciando todas las letras y haciendo las pausas correspondientes. Posteriormente, he subido el archivo a Google e IBM y lo he leído de nuevo para Microsoft (la demo no te deja subir archivos). Los resultados han sido los siguientes (se han copiado tal y como los han devuelto los servicios):

  • Google: "os voy a contar un secreto cuando los que nos dedicamos a esto de escribir nos dicen que tenemos que hacer una entrevista con algún profesional del sector mucho nos echamos a temblar no porque sea difícil preparar la que también sino porque una vez grabada toca pasar la texto son un par de declaraciones en un audio de 5 minutos no pasa nada pero hay que momento cuando te sientas delante del ordenador y te espera un audio de 2 horas".
  • IBM: "Os voy a contar un secreto cuando los que nos dedicamos a esto escribir nos dice que tenemos que hacer una entrevista con algún profesional del sector mucho nos echamos a temblar no porque sea difícil preparar la que también sino porque una vez grabada toca pasar la texto sí son un par de declaraciones y un audio de 5 minutos no pasa nada pero hay que momento cuando te sientas delante del ordenador te espera una unión de 2:00 horas.".
  • Microsoft: "¿Voy a contar un secreto cuando lo que nos dedicamos a escribir nos dicen que tenemos que hacer una entrevista con un profesional del sector mucho nos echamos a temblar no porque sea difícil preparar la que también sino porque una vez graba esto? ¿Tengo un audio de cinco minutos no pasa nada pero hay que momento cuando te sientas delante del ordenador espera un audio de 2 horas?"

Como puede comprobarse, los tres servicios tienen una seria dificultad a la hora de entender los puntos y seguido, comas y signos de exclamación. Google e IBM devuelven un solo párrafo que cuesta leer en voz alta sin respirar. Microsoft, por su parte, ha entendido que todo es una pregunta. Tampoco han comprendido el "¡ay!, qué momento...", aunque sí han sabido interpretar, más o menos, "cinco minutos" y "dos horas".

Aunque comprenden bien todas las palabras, hay margen de mejora en la interpretación de la puntuación

En definitiva, es verdad que son servicios útiles para transcribir una entrevista rápido (fíjate en que, salvando la puntuación, casi todas las palabras transcritas se corresponden con las del texto original), pero no puedes fiarte completamente de ellos. Funcionar funcionan, pero tienen margen de mejora.

Aplicaciones a disposición del usuario

Siri

Si algo tienen en común los cuatro grandes servicios que hemos visto hasta ahora es que requieren de ciertos conocimientos de programación que, para bien o para mal, no todo el mundo tiene. Ahora bien, existen infinidad de servicios, aplicaciones y herramientas user-friendly que cumple este propósito y funcionan más o menos igual.

Una de ellas es Otter, una aplicación de notas de voz. Su argumento es que usa IA para transcribir el audio y convertirlo a texto. Se puede usar en escritorio, iOS y Android de forma totalmente gratuita durante 600 minutos al mes, esto es, 10 horas, que no son pocas. Puedes o bien grabar audio y recibir la transcripción en vivo o subir un archivo, dejar que lo procese y obtener el texto con marcas temporales. Solo funciona en inglés, por desgracia, pero lo hace muy, muy bien, hasta añade los signos de puntuación.

La escritura por voz de Google Docs funciona en casi cualquier idioma y puede valer para transcribir cosas cortas, aunque no funciona demasiado bien para convertir clases o sesiones de audio largas. Para más inri, no permite subir archivos y recibir la transcripción y no se lleva bien con la puntuación, por lo que acabarás teniendo un texto de un solo párrafo sin puntos ni comas. Puedes usar la extensión SoundWriter para mejor la interpretación de la puntuación. Ahora bien, hay un truco interesante para “emular” la subida de audio.

Los iPhone y móviles Android tienen reconocimiento por voz integrado por fábrica y puede usarse en cualquier app, aunque no es válido para entrevistas o audios largos

Hay un software gratuito llamado Audio Virtual Cable que permite configurar un driver de sonido “ficticio”, sea de entrada o salida. Así, puedes modificar la configuración de audio del ordenador para que tome como entrada de micrófono el audio de un archivo en reproducción, de forma que Google Drive creerá que “le estás hablando” cuando, en realidad, el audio viene de un archivo pregrabado. Solo hay que instalarlo y, en la configuración de sonido del ordenador, elegir “CABLE Output” como dispositivo de entrada. Luego abres el archivo en cualquier programa como VLC, y listo, Google Docs empezará a trascribirlo. Muy interesante, siempre y cuando no te importe obtener un texto sin una sola coma.

Windows y Mac también tienen sus propias herramientas de dictado para convertir voz en texto. El problema es que, como ocurre con el dictado de Google, no sabe interpretar las comas, los puntos, las preguntas y las exclamaciones. Puedes usar el mismo truco para emular el audio y dictar desde un archivo, pero no es la opción más recomendable puesto que es poco precisa, lenta y requiere de demasiada intervención por parte del usuario.

Otra opción es Go Transcribe, que sí permite subir archivos y recibir la transcripción, aunque es de pago y no precisamente barato. Puedes optar por 25 céntimos el minuto y pagar en función del audio o por una suscripción de 52,8 euros al mes por cuatro horas de audio. Funciona en una buena cantidad de idiomas, incluidos inglés, alemán, español, coreano, italiano y portugués. En la línea se mueven SpeechMatics, que funciona exactamente igual y cuesta 0,07 céntimos por minuto; Transcribe Wreally, que cuesta 17,63 euros al año más 5,29 euros por hora de audio transcrita, y Temi, que vale ocho céntimos por minuto y tiene aplicaciones para iOS y Android.

También te recomendamos

Google Home en español, primeras impresiones: así es hablar con el altavoz que tiene respuesta para (casi) todo

Estas son todas las muertes que habrías sufrido sin tecnología

Cómo escuchar todos los comandos de voz que has usado en Google, y cómo borrarlos

-
La noticia El estado del arte del software para transcribir entrevistas, clases magistrales y juicios fue publicada originalmente en Xataka por José García Nieto .

Con Facebook en horas bajas y el adiós a Google+ quizás necesitamos una red social distinta

$
0
0

Con Facebook en horas bajas y el adiós a Google+ quizás necesitamos una red social distinta

Hoy Google+ nos dice adiós definitivamente. La red social que pudo ser y no fue muere y certifica un panorama dominado por plataformas que se han ido contaminandocon nuestra ayuda— y que plantean la necesidad de una nueva red social distinta en fondo y forma.

Con una Facebook en horas bajas y muy criticada, una Twitter con claros problemas de moderación, unas Instagram o LinkedIn en las que cada vez se critica más el 'postureo' personal y profesional o alternativas como WhatsApp que se han convertido en campo de cultivo de las noticias falsas, parece haber sitio para una red social diferente. El problema es el de siempre: estás donde están tus contactos.

Google+ es la última de una larga lista de fracasos

Las redes sociales nacieron con fantásticos retos en mente: mantenernos más y mejor conectados y servir como puentes hacia el descubrimiento de todo tipo de contenidos. Lo hicieron a través de la mensajería, el texto y el vídeo, y su potencial acabó atrayendo a miles de millones de usuarios.

Todas ellas nacieron con esa idea pero todas sin excepción han acabado contaminadas en mayor o menor medida y condicionan las relaciones sociales tradicionales. Aun con sus luces, que las hay, las redes sociales se han convertido en algo nocivo: Silicon Valley se ha rebelado contra sí misma, y quienes formaron parte de la creación por ejemplo de Facebook echan ahora pestes de una plataforma que califican casi como tóxica.

Google+ nació con esas mismas buenas intenciones, pero poco a poco se fue corrompiendo también. La obsesión de Google de meternos esta red social hasta en la sopa hizo que los usuarios acabaran hartos de 'esa otra red social' que a pesar de algunos aciertos no lograba diferenciarse lo suficiente de Facebook.

Lo mismo ha ocurrido con el resto de las grandes plataformas de nuestro tiempo: son demasiado grandes para esperar un control efectivo de los contenidos, algo que ha hecho que esas herramientas —porque no son otra cosa— se utilicen de forma inapropiada. La exaltación de la violencia, el acoso (escolar o no), el discurso del odio hacia todo tipo de colectivos y otros tipos de contenidos moral y éticamente reprobables se han extendido como la pólvora y se han convertido en el pan nuestro de cada día en Facebook, Twitter, Instagram o WhatsApp.

Y luego está el papel de estas redes sociales como recolectoras de datos, claro. La privacidad se tambalea en unas plataformas que nos incitan a compartirlo todo en todo momento.

Eso no es malo de por sí, pero la tecnología actual ha hecho que toda esa información recolectada en redes sociales como Facebook o Instagram sirva no solo para fines legítimos —descubrirnos contenidos que nos puedan interesar a partir de nuestros gustos— sino otros mucho más discutibles.

Por ejemplo, la configuración de perfiles ideológicos que por ejemplo ayudaron a Trump a ganar las elecciones de 2016 y que ahora pretendían ser utilizados en procesos electorales en España. El escándalo de Facebook con Cambridge Analytica ha sido el más grave de una serie de problemas que han hecho que Mark Zuckerberg prometa cambios importantes en materia de privacidad en esta red social.

Del muro a grupos de WhatsApp

En los últimos tiempos, no obstante, parte del enorme tráfico que parecía ya asociado a redes sociales ha ido migrando a otras plataformas: las de mensajería (y Facebook lo sabe).

Wap

WhatsApp, Facebook Messenger, iMessage, WeChat y Telegram son algunos de los claros ejemplos. En ellos se ha ido extendiendo esa práctica que va más allá de ponerte en contacto con tus conocidos más cercanos, porque ahora compartimos contenidos en esas aplicaciones como antes lo hacíamos en redes sociales.

Lo hacemos, eso sí, de una forma más controlada, más "privada" (las comillas son importantes) y que por ejemplo no indexa en Google y otros buscadores como sí lo harían las publicaciones en Facebook o Instagram.

Sin embargo, estas aplicaciones de mensajería también se han visto afectadas por el mismo problema, y WhatsApp se ha convertido en otra amenaza en el ámbito no solo de la privacidad -más escándalos aquí- sino también de la difusión de noticias falsas, algo para los que sus responsables están tratando de aplicar ciertas medidas de control.

Todas las alternativas han fracasado (hasta ahora)

Todos esos problemas de las redes sociales no son nuevos, y desde luego Google+ trató de solventar algunos de ellos sin éxito. Desde que Facebook, Twitter o Instagram -ahora con su propia crisis de identidad- saltaran a la fama son muchos los proyectos que han intentado lograr el éxito.

Fb2

Si embargo competir con esos gigantes es casi imposible para todos ellos por (entre otras cosas) el efecto red: uno quiere estar donde están sus contactos, y hoy por hoy ese sitio es a menudo Facebook, o Twitter, o Instagram.

Google lo intentó con Google+ a la hora de competir con Facebook, pero desde luego no fue la única en prometer esa revolución de las redes sociales. Ello nos prometió privacidad por encima de todas las cosas, Diaspora*sigue presumiendo de Open Source pero no cuaja, Vero quiere relaciones reales con cero algoritmos, y Peach también pone la privacidad por encima de todo lo demás.

Ninguna de ellas ha cuajado demasiado, y aunque competir con Facebook ha sido el reto de muchas de ellas, otras han tratado de plantear alternativas a otros servicios. Mastodon intenta plantear una alternativa a Twitter —App.net lo intentó hace años— mientras que Secret trató de apostar de nuevo por la privacidad en la mensajería instantánea, algo que también defiende Signal.

Hemos visto cómo la mayoría usaban ese enfoque gratuito con el que han triunfado todas las grandes, pero algunos se preguntaron qué pasaría si Facebook por ejemplo ofreciera una red social libre de publicidad y realmente privada y ésta iteración fuera de pago. Sheryl Sandberg, COO de Facebook, hasta apuntó a esa posibilidad, pero parece algo harto improbable.

Algunos de los desarrollos de los que hemos hablado precisamente planteaban esa misma idea de pago por uso, pero los usuarios nos hemos malacostumbrado a sacrificar privacidad a cambio de plataformas gratuitas que nos bombardean con publicidad y que recopilan todo cuanto hacemos.

Puede que una red social de pago tuviera una oportunidad, pero una vez más el problema es que todo el mundo está ya en esa otra red social —la que sea— y no paga un duro por hacerlo. Es difícil competir con lo gratuito. Casi imposible, sobre todo cuando su funcionamiento es decente y cuando aún con escándalos de privacidad por doquier los usuarios seguimos usándolas.

Facebook En marzo de 2018 nos enterábamos del escándalo de Cambridge Analytica. Las acciones de Facebook bajaban en picado, pero poco después acababan subiendo para alcanzar máximos históricos. Los seres humanos somos muy olvidadizos.

Es triste pero es una realidad: 500 millones de cuentas robadas ya no asombran a (casi) nadie. Todos los escándalos que han sufrido Facebook no han afectado demasiado a su posición de referencia (lo mismo ocurre con otras empresas), y a pesar de campañas que animan a abandonar las redes sociales -o a usarlas menos con esa tendencia casi olvidada del 'bienestar digital'— la fortaleza de esta red social es patente.

¿Hay alternativas? Las hay, sin duda. Algunas con buenas intenciones y características interesantes. El problema es que (casi) nadie las está usando. Hasta nos preguntamos por qué ahora algunas empresas como Apple, tan centrada en los últimos tiempos en servicios, no se plantea una red social de pago basada en esa privacidad que defiende.

Esto último puede hacerlo algo más que los demás teniendo en cuenta que no depende de los datos que recolecta, pero dejando a un lado ese debate, quizás sea el momento de que alguien con recursos ofrezca esa alternativa por la que muchos quizás pagaríamos. Una (más o menos) libre de publicidad, de discursos de odio o de recolección masiva de datos. Qué difícil parece. O qué fácil, según se mire.

Imagen | Pixabay

También te recomendamos

Si le has dado a Facebook tu número móvil para proteger tu cuenta, cuidado: puede usarse para buscarte (y no puedes desactivarlo)

WhatsApp, Instagram y Facebook Messenger unidas (en su base): ese es el plan de Zuckerberg según el NYT

Estas son todas las muertes que habrías sufrido sin tecnología

-
La noticia Con Facebook en horas bajas y el adiós a Google+ quizás necesitamos una red social distinta fue publicada originalmente en Xataka por Javier Pastor .

18.522 dólares por quedarse en cama 60 días: la NASA busca voluntarios para su más reciente experimento

$
0
0

18.522 dólares por quedarse en cama 60 días: la NASA busca voluntarios para su más reciente experimento

La NASA, en colaboración con el Centro Aeroespacial Alemán (DLR) y la Agencia Espacial Europea (ESA), están buscandogente que sea capaz de quedarse en cama durante 60 días por un pago único de 18.522 dólares. Podría sonar como una broma o como un trabajo de ensueño, pero la realidad es que va más allá y se trata de un experimento complicado que no todos están listos para enfrentar.

El experimento es conocido como 'Estudio de Reposo en Cama por Gravedad Artificial' y fue dado a conocer originalmente en 2017. El objetivo es estudiar la respuesta del cuerpo humano ante los efectos de la ingravidez, lo cual servirá para planificar los futuros viajes espaciales de largo plazo.

Estudiando los efectos a largo plazo de la ingravidez en el cuerpo humano

La NASA está buscando 24 candidatos, 12 hombres y 12 mujeres, para que pasen 60 días de su vida en cama durante el próximo otoño en un laboratorio en Alemania. Sin embargo, no todo es tan sencillo como parece.

Según la NASA, ya tiene a los 12 voluntarios hombres y en unos días empezarán con el reclutamiento de las mujeres. Los candidatos deberán saber alemán, tener entre 24 y 55 años, no fumadores, con buen estado de salud y peso "normal". Deberán poder viajar a Colonia, Alemania, cuatro veces, entre abril y julio, para el proceso de reclutamiento, y pagar por sí mismos los gastos que se deriven de esto.

Una vez que sean elegidos, deberán estar 15 días antes de iniciar el experimento como parte de la preparación, y 15 días después del experimento para el proceso de recuperación. El experimento es claro, los voluntarios tendrán que pasar, literalmente, 60 días enteros en cama, donde permanecerán acostados y harán todas sus actividades cotidianas, como comer, hacer ejercicio, ducharse, entre otras cosas.

Https Blogs Images Forbes Com Kevinanderton Files 2019 03 60 Days In Bed Nasa Vía: Forbes.

Pero eso no es todo, ya que los elegidos estarán acostados sobre una cama que tendrá una elevación de 6 grados en la zona de los pies, para que así los líquidos se vayan hacia la cabeza. Y una vez al día deberán pasar 30 minutos en una cama centrifuga, la cual servirá para simular la gravedad artificial.

Cada día, según explican, se recolectarán datos que incluyen la presión arterial, la frecuencia cardíaca, la absorción de nutrientes y también el estado de ánimo de los participantes. También se estudiará cómo los cambios en los fluidos afectan el cuerpo de los participantes, así como la posible pérdida ósea y muscular.

Como se trata de un experimento extremo, la NASA tiene pensado que los voluntarios puedan pasar el tiempo viendo la tele, usando un portátil, leyendo o realizando cualquier actividad que se pueda hacer acostado en cama. De hecho, también podrán recibir visitas de familiares o amigos.

Como mencionaba, la idea es simular los efectos negativos que la ingravidez tiene en el cuerpo humano y desarrollar métodos para contrarrestar dichos efectos. Las condiciones que están tratando de evitar y solucionar incluyen declives neurocognitivos, como la memoria, la orientación, la atención o el lenguaje, así como cualquier efecto sobre la neuroplasticidad o la capacidad del cerebro para reorganizarse a sí mismo mediante la formación de nuevas conexiones neuronales.

"Los viajes espaciales son caros y peligrosos, pero comprender los efectos de vivir en el espacio es fundamental si queremos enviar humanos a Marte."

Para aquellas interesadas en aplicar, lo pueden hacer desde aquí.

También te recomendamos

Estas son todas las muertes que habrías sufrido sin tecnología

Una fuga en uno de los inodoros de la Estación Espacial Internacional provoca la pérdida de 9,5 litros de agua en gravedad cero

La Estación Espacial estrenó su cámara 8K y la NASA nos muestra el primer vídeo con esta resolución grabado desde el espacio

-
La noticia 18.522 dólares por quedarse en cama 60 días: la NASA busca voluntarios para su más reciente experimento fue publicada originalmente en Xataka por Raúl Álvarez .

Es oficial: la película 'live-action' de 'Akira' tiene luz verde y llegará bajo la producción de Leonardo DiCaprio y Warner Bros.

$
0
0

Es oficial: la película 'live-action' de 'Akira' tiene luz verde y llegará bajo la producción de Leonardo DiCaprio y Warner Bros.

Han pasado casi 20 años desde que Hollywood posee los derechos de 'Akira', la legendaria obra de Katsuhiro Otomo que nació como manga en 1982 y que se convirtió en una película animada de culto en 1988. Después de varios intentos y fracasos, hoy Warner Bros. confirmó que tendrán la oportunidad de empezar a rodar en California la versión 'live-action' de 'Akira'.

El director de 'Thor: Ragnarok' en los mandos del proyecto

Hoy la California Film Commission dio a conocer los 18 proyectos cinematográficos que recibirán créditos fiscales por ser filmados en ese estado. Aquí 'Akira' fue el que recibió la asignación más alta con 18,5 millones de dólares, los cuales serán entregados con la condición de que el rodaje empiece en un lapso de 180 días a partir de hoy.

La cinta de 'Akira' en versión 'live-action' será dirigida por Taika Waititi ('Thor: Ragnarok') y producida por Appian Way, propiedad de Leonardo DiCaprio, y Warner Bros.

Akira Poster

La película contará con un presupuesto de 92 millones de dólares, donde ahora se incluyen el apoyo por parte del estado de California. Aún no hay nombres para el reparto ni una fecha de estreno, vamos, ni siquiera se sabe quién se hará cargo del guión o si usarán las ideas y arte conceptual que han surgido en estos casi 20 años de proyecto.

Otro punto importante que está pendiente de confirmación es la participación de Katsuhiro Otomo, el creador de Akira, que en un inicio se había dicho que se encargaría de supervisar el guión y hasta dirigir la película. Hoy, después de tanto tiempo de espera, no se sabe si seguirá siendo parte del proyecto.

Por último, los dejamos con algunas imágenes del arte conceptual, el cual supuestamente fue desechado de proyectos anteriores de Akira.

Akira Arte Conceptual 2
Akira Arte Conceptual 4
Akira Arte Conceptual 1
Akira Arte Conceptual 3

También te recomendamos

Estas son todas las muertes que habrías sufrido sin tecnología

El mítico 'Mobile Suit Gundam' tendrá película live-action de la mano del estudio de 'Pacific Rim'

El cómic de 'Akira' se podrá disfrutar en su versión original 30 años después: repasamos la historia de sus múltiples adaptaciones

-
La noticia Es oficial: la película 'live-action' de 'Akira' tiene luz verde y llegará bajo la producción de Leonardo DiCaprio y Warner Bros. fue publicada originalmente en Xataka por Raúl Álvarez .


Xiaomi se prepara para lanzar su primer coche: un SUV bajo la marca Redmi que partirá en los 13.391 dólares

$
0
0

Xiaomi se prepara para lanzar su primer coche: un SUV bajo la marca Redmi que partirá en los 13.391 dólares

Xiaomi ya está lista para lanzar el que será su producto más grande y costoso: un coche. Sí, Xiaomi confirmó a través de Weibo una alianza con el fabricante de coches Bestune, la cual dará vida a un SUV bajo la marca Redmi.

En realidad el coche ya existe, se trata del Bestune T77 SUV que fue presentado en 2018 como concepto durante el Salón del Automóvil de Beijing y que más adelante, en el Salón del Automóvil de Guangzhou, se mostró el modelo de producción. La idea de Xiaomi es que lanzar un coche personalizado basado en este Bestune T77 SUV pero con la marca Redmi. ¿Qué incluirá esta personalización? Eso es precisamente lo que anunciarán más adelante.

El primer coche con sistema operativo MIUI

Como sabemos, Redmi se lanzó como marca independiente a inicios de este año y al parecer Xiaomi busca dar un nuevo impulso no sólo como marca de smartphones, sino también para coches.

Como mencionaba, este nuevo coche Redmi será una adaptación del Bestune T77 SUV, el cual se trata de un vehículo de 1.455 kg equipado con un motor turboalimentado de 1,2 litros con una caja de cambios de transmisión manual de 6 velocidades y una potencia de 143 CV con un par máximo de 204 Nm.

Xiaomi Bestune T77

Como vemos en las fotos, el SUV tiene una apariencia agresiva y su diseño busca aprovechar la aerodinámica para tener una mayor eficiencia. El Bestune T77 SUV cuenta actualmente con seis versiones y Xiaomi adelantó que el precio arrancará en los 13.391 dólares para la versión de entrada, mientras que la versión más equipada tendrá un precio aproximado de 19.980 dólares.

Lo interesante de este nuevo coche será la personalización que añadirá Xiaomi para hacerlo único y exclusivo, donde se habla de la incorporación de MIUI como sistema operativo, el cual serviría también como plataforma multimedia de infotenimiento y conectividad. De hecho, se menciona que contará con un asistente virtual holográfico. Pero todos estos detalles se confirmarán el día de su lanzamiento.

Estaremos atentos a ver qué sopresa está preparando Xiaomi.

Bestune Xiaomi
Bestune T77 Xiaomi 01

También te recomendamos

Estas son todas las muertes que habrías sufrido sin tecnología

Redmi Go: la era con Android Go empieza en el imperio Xiaomi con un pequeño de 5 pulgadas

Redmi 7: el nuevo móvil de Xiaomi con gran batería llega a un precio irrisorio para revolucionar la gama de entrada

-
La noticia Xiaomi se prepara para lanzar su primer coche: un SUV bajo la marca Redmi que partirá en los 13.391 dólares fue publicada originalmente en Xataka por Raúl Álvarez .

Google retoma el desarrollo de robots con su TossingBot, capaz de 'encestar' objetos con mayor precisión que cualquier humano

$
0
0

Google retoma el desarrollo de robots con su TossingBot, capaz de 'encestar' objetos con mayor precisión que cualquier humano

Google se deshizo en julio de 2017 de sus dos filiales dedicadas a la robótica, Boston Dynamics y la japonesa SCHAFT. Andy Rubin, uno de los cofundadores de Google, especialmente interesado en este campo, había decidido adquirir esta startup 4 años antes, pero la compañía terminó aceptando una oferta de SoftBank para ambas empresas.

Sin embargo, eso no significa que Google hubiera abandonado para siempre el campo de la robótica: Google hizo público hace unos días el lanzamiento -en colaboración con el MIT y las universidades de Columbia y Princeton- de un laboratorio bautizado como 'Robotics at Google'.

Y su objetivo es desarrollar robots que hagan un uso intensivo del machine learning, utilizando esta tecnología para permitirles aprender por sí mismo a interpretar su espacio físico y demostrar habilidades sencillas como moverse sorteando obstáculos, o coger y lanzar objetos.

Pero que hagan pública ahora esta iniciativa no significa que no llevaran un tiempo trabajando en su primera criatura: un robot capaz de agarrar objetos y tirarlos dentro de cajas recurriendo al análisis de la información sobre su entorno captada a través de varias cámaras (incluyendo, por ejemplo, el lugar donde los objetos caen tras lanzarlos).

Más preciso que cualquier humano

Pero, ¿qué tiene de especial que un robot coja y lance objetos? A priori, poco. Pero es que ese lanzamiento no se limita a dejar caer algo, sino a tirarlo en un área concreta situada fuera de su rango natural de movimientos. Y, encima, el robot de Google logra hacer eso con mayor precisión que la lograda por un ser humano.

El sistema emplea tres redes neuronales para llevar a cabo esa hazaña: una red identifica objetos dentro de un contenedor, una segunda para determinar cómo recogerlos y una tercera que le dice al robot cómo lanzar el objeto.

El lanzamiento de objetos, además, no está automatizado, sino que le exige ir improvisando sobre la marcha en base al tipo de objeto y a la caja a la que está destinado.

"Independientemente de cómo se le agarre, lanzar un destornillador es totalmente diferente de lanzar una pelota de ping pong, que aterrizaría más cerca debido a la resistencia del aire.

Lanzar objetos arbitrarios en entornos no estructurados presenta muchos desafíos: desde la adquisición de condiciones confiables de tiro previo (por ejemplo, la postura inicial del objeto en el manipulador) hasta el manejo de propiedades variables centradas en el objeto (como la distribución de masa, la fricción y la forma) y dinámica (como la aerodinámica)".

Tras catorce horas de entrenamiento en las que el robot de Google llegó a realizar 10.000 lanzamientos de objetos tan distintos como plátanos de plástico y pelotas de ping pong, el porcentaje de aciertos logró estabilizarse en torno al 85%, pudiendo procesar las condiciones del lanzamiento en una milésima de segundo.

Pero el nuevo laboratorio de Google no se ha limitado a desarrollar TossingBot, sino que tiene ya en marcha otros dos proyectos: uno basado en el entrenamiento de manos robóticas para permitirles manipular y desplazar objetos mediante movimientos sutiles, y otro destinado a desarrollar un robot capaz de moverse por espacios desconocidos.

Vía | Princeton

También te recomendamos

China ya ha superado a EE.UU en número de investigaciones sobre inteligencia artificial... y en breve lo hará en calidad

Estas son todas las muertes que habrías sufrido sin tecnología

Crean una 'mano' robótica con inteligencia artificial capaz de reconocer objetos tocándolos

-
La noticia Google retoma el desarrollo de robots con su TossingBot, capaz de 'encestar' objetos con mayor precisión que cualquier humano fue publicada originalmente en Xataka por Marcos Merino .

'Alien: Containment': aquí está el primer corto creado por fans que llega para celebrar los 40 años de 'Alien'

$
0
0

'Alien: Containment': aquí está el primer corto creado por fans que llega para celebrar los 40 años de 'Alien'

Este 26 de abril se celebrará, como cada año, el 'Alien Day', pero este año será especial, ya que se cumplen 40 años desde el estreno de la primera 'Alien', una cinta que vino a dictar nuevas reglas en cuanto al horror y el suspenso, y de paso creo una nueva forma de contar historias, por lo que a día de hoy es considerada toda una obra de culto.

Ante esto, Fox está preparando una gran celebración en compañía de los fans, aquellos que crecieron inspirados en la película de Ridley Scott. Es así como nació 'Alien Shorts', una serie de seis cortometrajes dirigidos por fans que servirán para celebrar los 40 años del legado de 'Alien'.

La idea de Fox era retomar la idea de horror espacial de la primera 'Alien', mientras se aleja un poco de 'Covenant' y 'Prometheus'. Para esto, Fox hizo una alianza con Tongal, una plataforma dedicada a conectar empresas con creativos, escritores, directores y compañías de producción.

En total se recibieron más de 550 proyectos de cortometrajes inspirados en 'Alien', pero sólo se eligieron seis, los cuales serán estrenados semanalmente a través de IGN, así hasta llegar al 'Alien Day' el 26 de abril, cuando los seis cortos sean recopilados en la web Alien Universe.

Este es el tráiler de 'Alien Shorts', donde podemos tener una mirada rápida de los seis cortometrajes:

El primero de estos cortos ya está aquí, se llama 'Alien: Containment' y en él nos cuentan la breve historia de cuatro supervivientes a bordo de una nave de salvamento, quienes intentan averiguar qué fue lo que provocó la explosión de su nave y la muerte del resto de su tripulación, así como investigar si alguno de ellos está infectado con ese misterioso organismo.

'Alien: Containment' fue dirigido Chris Reading y como vimos, la estética es calcada de la primera 'Alien', donde se mantiene la iluminación y esos tonos verdes tan característicos, incluso ese grano que simula haber sido rodado en película y que hace que sea un merecido homenaje a aquella cinta de 1979.

Alien 40 Aniversario

El siguiente corto se estrenará durante el próximo fin de semana, se llamará 'Alien: Specimen' y aquí está su teaser tráiler:

También te recomendamos

Humanos artificiales ilegales, conciencia compartida e IA: las ideas detrás de este increíble corto de ciencia ficción

El antes y después tras la llegada de Amazon, Netflix y las tecnológicas: cómo los upfronts reflejan el cambio radical del mercado televisivo

Estas son todas las muertes que habrías sufrido sin tecnología

-
La noticia 'Alien: Containment': aquí está el primer corto creado por fans que llega para celebrar los 40 años de 'Alien' fue publicada originalmente en Xataka por Raúl Álvarez .

El día en que dejemos de comer carne: el veganismo no deja de crecer en un mundo en el que la carne sigue siendo la reina

$
0
0

El día en que dejemos de comer carne: el veganismo no deja de crecer en un mundo en el que la carne sigue siendo la reina

“Todos los animales son iguales”, decía George Orwell en ‘Rebelión en la Granja’. “Pero algunos animales son más iguales que otros”, remataba. Y, aunque se refería a otra cosa, creo que ninguna frase capta mejor uno de los debates de nuestro tiempo: el caso (medioambiental, sanitario y ético) a favor reducir el consumo de carne.

El veganismo nació como una curiosidad extraña hace unas pocas décadas, pero hoy por hoy es imparable. Cada vez hay más expertos que ponen fecha de caducidad a las dietas carnívoras y, por eso, creemos que es hora de tratar de entender cómo un movimiento político minoritario se ha transformado en una revolución social.

De movimiento político a estilo de vida

Miika Laaksonen 514027 Miika Laaksonen

El veganismo va más allá de comer carne: se trata de una opción de vida que rechaza todas las formas de explotación animal. El término fue acuñado por Donald Watson en 1944 para diferenciarlo del 'vegetarianismo'. En esencia, ya sea por motivos éticos, medioambientales o de salud, los veganos rechazan el consumo de carne y el uso de productos de origen animal en sentido amplio (pieles, cosméticos, etc...).

Bruce Sterling, el famoso escritor de ciencia ficción, escribió en 2002 un libro que trataba de identificar algunas de las tendencias que transformarían los siguientes 50 años de la historia de la humanidad. Una de sus secciones estaba dedicada a los “nuevos movimientos políticos”:

Hay más o menos una docena de características que definirían un nuevo movimiento político del siglo XXI, antes que nada este movimiento necesitaría una ideología genuinamente nueva (…) que no necesita parecer política en el sentido tradicional, podría parecer tan tonta y excéntrica como al principio parecía el feminismo.

Podría llevarnos algún tiempo darnos cuenta de que los padres del movimiento no son seres estrafalarios, que incluso, han pensado profundamente sus temas y son serios sobre sus cuestiones. Con el paso del tiempo podrían verse ganando importantes discusiones y atrayendo adherentes intelectualmente serios.

Mi sensación (y se trata, por supuesto, solo una sensación) es que el movimiento antiespecista es uno de esos movimientos “excéntricos y estrafalarios” que pueden convertirse en detonantes de cambios radicales en nuestras sociedades.

Vegan 1343429 1920

Pero, esto es solo la mitad de la historia. La socióloga Nina Gheihman ha estudiado que efectivamente, en un primer momento, el veganismo moderno estaba estrechamente ligado a la ideología del movimiento por los derechos de los animales. Pero, en pocos años, ha trascendido ese contexto y se ha ido transformando en un “movimiento de estilo de vida” al que se le han sumado preocupaciones ambientales y sanitarias.

Según Gheihman, esto ha cambiado profundamente la estructura del movimiento: generando una industria emergente de productos de consumo y conocimiento, además del activismo político. Y, a la vista de los datos, parece que el giro ha surtido efecto.

El imparable crecimiento del veganismo

Clem Onojeghuo 381201 Clem Onojeghuo

Un vistazo a los datos nos señala que el veganismo está creciendo rápidamente sobre todo en los páises más desarrollados. Un informe de 2017 señala que el 6% de los consumidores norteamericanos se declaran abiertamente veganos, lo que supone un crecimiento del 500% desde 2014.

En Alemania, hasta un 44% por ciento de los consumidores señalan que siguen una dieta “baja en carne” frente al 26% de 2014. En Israel, un 5% de la población es vegana (y Tel Aviv es considerada una de las capitales del mundo libre de carne).

En España, los datos (algo anticuados), señalan que un 3% de la población se define como vegetariana, aunque hay [algunos datos parciales](161% los pedidos a domicilio en el último año) que nos invitan a pensar en una tendencia similar. En Reino Unido, en los últimos 10 años, el crecimiento de veganos se estima en un 350%.

El número de veganos y vegetarianos está creciendo significativamente en todo el mundo

Y, como era de esperar, ese crecimiento se concentra muy significativamente en los más jóvenes. Casi la mitad de todos los veganos (el 42%) tienen menos de 34 años frente al 14% de ellos que se concentran entre los mayores de 65.

Eso ha ido de la mano que un crecimiento en la sensibilización del impacto del consumo de carne y un giro de muchos consumidores hacia productos ecológicos y/o sostenibles. El factor sanitario también tiene una importancia: los estudios señalan cada vez más directamente los problemas médicos derivados de una dieta basada en la carne (Etemadi, Sina y colaboradores, 2017).

No comeremos carne, pero no lo notaremos

Charles Deluvio 456804 Charles Deluvio

Sin embargo, frente a los argumentos éticos, ambientales y sanitarios persiste en factor 'hedónico'. Es decir, el "placer (y la experiencia) de comer carne" es difícilmente sustituible por otros productos. Esto es algo que explica en buena parte esa brecha de edad.

arne cultivada

Ahí la tecnología tiene mucho que decir para desterrar la imagen aburrida de los bistecs de tofu. Sobre todo, porque no sólo es cosa de vegetarianos: el 36% de los norteamericanos ya prefieren alternativas a la leche a la leche misma. La revolución alimenticia está en marcha y no hay que irse a la carne cultivada para verlo.

Beyond Meat, Clara Foods, Perfect Day, Imposible Foods o Terra Via… las empresas dedicadas a diseñar productos sustitutivos que ‘imiten’ organolépticamente a los de origen animal se cuentan por decenas. Y los progresos son realmente sorprendentes: Mark Bittman, periodista gastronómico del New York Times, dijo que "no notarás la diferencia entre esto y pollo real. Al menos yo no pude y es el tipo de cosas que hago para ganarme la vida"

Aunque la carne no deja de crecer

dfdfdf

Hoy por hoy, los vegetarianos representan un mercado anual de 84.600 millones de dólares. Sí, se estima que el mercado de productos veganoscrecerá significativamente en todo el mundo con países como China (17,2%), Emiratos Árabes (10,6%) y Australia (9%) a la cabeza.

Y eso ha hecho que muchas industrias cárnicas empiecen a tomar posiciones en el terreno. A modo de ejemplo, en 2016, Tyson Foods, la empresa cárnica más grande de Estados Unidos, compró un cinco por ciento de Beyond Meat, una pequeña Start up dedicada a diseñar productos de proteínas vegetal que imita a la carne (un sector en el que Bill Gates ha puesto 75 millones).

Meat Production Tonnes

Y sin embargo, la producción de carne no ha dejado de crecer en ningún momento. En 2009, se produjeron 272.7 millones de toneladas de carne, tres veces más de las que se produjeron en 1970. Es una tendencia firme, clara e incontestable impulsada, sobre todo, por los países asiáticos que han ido incorporado grandes capas de la población a lo que podríamos llamar "dietas occidentalizadas".

De nuevo, aparece aquí una paradoja, los veganos crecen en los países industrializados (y entre las clases altas de los países en desarrollo), pero el consumo de carne aumenta un ritmo mucho mayor de lo que cabría esperar en ese contexto.

Con las tasas de crecimiento que vemos y los inicipentes movimientos a favor de establecer impuestos a la carne, no es difícil imaginar un futuro cercano donde el veganismo sea mayoritario en los países desarrollados. De la misma forma, no parece probable que el consumo de carne a nivel mundial se frene a corto plazo. Es más que un cambio alimentario, es un profundo cambio cultural.

También te recomendamos

Burger King presenta un whopper que sabe a carne, huele a carne y sangra como la carne, pero es 100% vegetal

La dieta paleo: lo que dice la ciencia acerca de comer como lo hacían nuestros antepasados

Estas son todas las muertes que habrías sufrido sin tecnología

-
La noticia El día en que dejemos de comer carne: el veganismo no deja de crecer en un mundo en el que la carne sigue siendo la reina fue publicada originalmente en Xataka por Javier Jiménez .

Los jefes de Youtube ignoraron a sus empleados para dejar de recomendar vídeos perturbadores según un brutal informe de Bloomberg

$
0
0

Los jefes de Youtube ignoraron a sus empleados para dejar de recomendar vídeos perturbadores según un brutal informe de Bloomberg

Los máximos responsables de YouTube ignoraron las recomendaciones y propuestas de sus empleados a la hora de modificar el sistema de recomendación de forma que impidiera que se recomendaran vídeos tóxicos o teorías de la conspiración.

Un brutal informe de Bloomberg con entrevistas a varios empleados y exempleados de Google y YouTube vuelve a abrir el debate sobre un servicio que en los últimos tiempos se ha enfrentado a grandes polémicas. Los directivos —empezando por su CEO, Susan Wojcicki— sabían de esos problemas, pero no hicieron nada por resolverlos porque según esos comentarios lo importante era ante todo crecer en visitas y tiempo de visualización.

Contenido tóxico incontrolable

En los últimos años numerosos empleados de la empresa trataron de manifestar su preocupación por la avalancha de contenidos tóxicos que no solo se subían a la plataforma, sino que además acababan formando parte del sistema de recomendación que se diseñó para mantener a los espectadores el máximo tiempo posible viendo vídeos.

Kids Los problemas con YouTube Kids han sido especialmente notables en los últimos meses, pero el control de contenidos tóxicos afecta sobre todo a la plataforma original, YouTube.

En Bloomberg indican que hasta cinco altos directivos que dejaron la plataforma en los últimos dos años lo hicieron hartos de no ser capaces de restringir contenidos "extremos y perturbadores". Precisamente esos contenidos extremos son los que más llaman la atención, algo que ha permitido a la plataforma crecer en todas sus cifras, incluidas las de ingresos: se estima que YouTube tiene unos ingresos de unos 16.000 millones de dólares al año.

La CEO de YouTube, Susan Wojcicki, sabía de estos problemas, pero según Bloomberg no estuvo "atenta a estos temas", y un ex-empleado afirmaba que la máxima responsable "nunca ponía el dedo en la llaga" y que su filosofía era la de "dirigir la compañía" en lugar de lidiar con la avalancha de contenido tóxico.

Para Wojcicki el objetivo al tomar las riendas del servicio era el de conseguir 1.000 millones de horas diarias de tiempo de visionado en YouTube. La empresa funcionaba por y para ese objetivo, indicaban en Bloomberg, y según las fuentes consultadas esas métricas eran lo único que importaban, y no lo que era mejor para la sociedad y sus usuarios.

Google se defiende de las críticas

En los dos últimos años se han impulsado iniciativas para tratar de minimizar un problema que por ejemplo ha afectado de forma especialmente notable a YouTube Kids. Un portavoz de Google indicaba a Xataka lo siguiente:

En los últimos dos años, nuestro enfoque principal ha sido abordar algunos de los desafíos de contenido más difíciles de la plataforma, teniendo en cuenta los comentarios y las preocupaciones de los usuarios, creadores, anunciantes, expertos y empleados. Hemos tomado una serie de pasos importantes, que incluyen la actualización de nuestro sistema de recomendaciones para evitar la propagación de información errónea dañina, mejorar la experiencia de noticias en YouTube, elevar a 10.000 el número de personas enfocadas en problemas de contenido en Google, invertir en aprendizaje automático para encontrar y eliminar más rápidamente el contenido inapropiado, y revisar y actualizar nuestras políticas: hicimos más de 30 actualizaciones de políticas solo en 2018. Y este no es el final: la responsabilidad sigue siendo nuestra prioridad número uno.

Desde Google recordaban cómo se han hecho "inversiones para enfrentar los desafíos más difíciles" como el contenido inapropiado, la desinformación o su sistema de recomendaciones.

En este último caso, Google recuerda cómo ese sistema de recomendaciones que antes de 2012 se basaba por ejemplo en visualizaciones pasó a basarse a tiempo de visionado, para luego pasar en 2016 a basarse especialmente en la satisfacción que se mide con "cosas como "me gusta", "nome gusta", "shares", encuestas, etc".

En Bloomberg no obstante recordaban que uno de los ingenieros de YouTube recomendaba en 2016 que los contenidos tóxicos o aquellos relativos a teorías de la conspiración no se recomendasen como parte de la experiencia de usuario. El ingeniero anónimo -como el resto de quienes citan en Bloomberg, por miedo a represalias- indicaba en el artículo que "puedo decir con mucha confianza que estaban profundamente equivocados".

Su propuesta fue rechazada durante años, aunque en enero de este año YouTube comenzó a ponerla en práctica, y sus portavoces indican que "en general, el contenido extremo no funciona bien en el sitio", algo discutible si tenemos en cuenta que por ejemplo Motherboard recuerda cómo la propaganda de supremacismo blanco y neonazi sigue presente en YouTube y tiene millones de visitas.

Imagen | Pixabay

También te recomendamos

YouTube buscará evitar que los vídeos con menores sean un punto de encuentro para pedófilos desactivando los comentarios

Estas son todas las muertes que habrías sufrido sin tecnología

Google entiende lo imposible: por qué cuando buscamos "Aguanchu bi fri" sale el vídeo que queríamos de Queen

-
La noticia Los jefes de Youtube ignoraron a sus empleados para dejar de recomendar vídeos perturbadores según un brutal informe de Bloomberg fue publicada originalmente en Xataka por Javier Pastor .

Viewing all 69842 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>