31 de julio de 2015

Acerca de Windows 10

Hace un par de días apareció la versión final de Windows 10 y empezó su distribución.

Los expertos sugieren esperar al menos 30 dias para actualizarse, especialmente si es la computadora principal del usuario, para que se descubran los últimos "bugs" (como los de los drivers de las tarjetas NVIDIA, que ya debió ser corregido).

Ya se informado de problemas con las descargas (aunque no parecen ser mayoritarias). En algunos casos parecen deberse a fallas en la transmisión pero una recepción parcial puede causar un serio problema y es bastante difícil de remediar.

También se han advertido avisos de que la licencia del sistema instalado (y que se busca reemplazar) no es original. Ésto es posible porque, hace algunos años, se ha denunciado que algunos fabricantes o distribuidores habían vendido una cantidad importante de equipos con licencias fraudulentas. Se supone que si el equipo tiene una licencia válida (Certificado de autenticidad COA) debe tener una pegatina o etiqueta pegada en la carcasa del equipo o, en los portátiles más recientes, dentro del compartimento de la batería. Si el sistema se compró por separado, la caja debe contener un COA y una etiqueta de prueba de licencia. En la web de Microsoft (y varias otras)  ya hay varias consultas referidas al control de validez de la licencia, pero Microsoft solo contesta que se puede verificar si coinciden la del sistema con la informada junto al equipo. Para verificar la del sistema se puede descargar un microprograma en esta dirección. También existe otro programa con más funciones llamado SIW (System Information for Windows), que analiza el ordenador y recoge información detallada sobre las propiedades del sistema y configuración (disponible aquí). Se dice que si se pudo descargar regularmente las actualizaciones, la licencia debería ser válida, a pesar de lo cual -al parecer- ocurre algunas veces que Windows 10 no la reconoce.

Otro problema aparece, después de la instalación, en los portátiles con pantallas pequeñas pero con una densidad muy alta de píxeles. Puesto que Windows ajusta los tamaños de texto e iconos basándose en la densidad de pixeles y no en el tamaño de la pantalla, una pantallas de pocas pulgadas pero muchos píxeles hacen que las cosas se reduzcan a tamaños ridículamente pequeños.

Puede encontrar un excelente análisis de Windows 10 en el sitio de Xataka (aunque no incluye los primeros defectos encontrados). 

24 de julio de 2015

Seguridad personal: hacia nuevas soluciones

Bajo el título de "Secretos, mentiras y recuperación de cuentas" Google ha publicado un interesante informe sobre la protección y recuperación de contraseñas basada en preguntas de seguridad. La conclusión es que, por una parte, muchas personas se olvidan de las respuestas que han dado (el 40% las olvidó y el 37% admitió haber proporcionado respuestas falsas) y, por otra, muchas veces se registran ahí datos que los piratas pueden encontrar con facilidad en las redes sociales (p.ej. el nombre de una mascota). Así, las preguntas secretas ofrecen un nivel de seguridad mucho más bajo que las contraseñas. Esto contribuye a la evolución de la autenticación de doble factor y códigos de verificación basados en SMS (que funcionan en más del 80% de los casos). (Hispasec, 26/05/2015)

Aparte del sistema de SMS, también usado en el sistema de autenticación de dos factores (el que manda un código único indispensable para confirmar la identidad), que se empieza a usar en muchos sitios web, se está trabajando también en mejorar los sistemas biométricos. 

Ya se ha demostrado que el detector de huella dactilar (como el del iPhone) puede ser vulnerado al copiar la huella dactilar dejada en una superficie lisa o incluso con simples fotografías tomadas con una cámara de fotos estándar en eventos públicos, como demostró Jan Krissler en la 31º convención anual de Chaos Computer Club en Alemania (ABC.es, 29/12/2014)

Para hacer frente a las debilidades de este sistema, se han buscado otras alternativas, recurriendo, por ejemplo, al reconocimiento del rostro. Para evitar el uso de fotos, se ha desarrollado una nueva técnica, que obligaría a pestañear o mover la cabeza. Mastercard acaba de anunciar que durante los próximos meses un selecto grupo de 500 clientes podrá utilizar una aplicación para pagar mediante reconocimiento facial en vez de con las típicas contraseñas. La aplicación de Mastercard pedirá el pestañeo cuando se vaya a hacer el «selfie». (ABC.es, 24/07/2015). Pero diversas organizaciones de protección de la intimidad y de derechos humanos están levantando la voz ante la "intrusión" de los sistemas de  reconocimiento de rostros y algunos gobiernos les están poniendo restricciones.

Para evitar este tipo de problema, el banco Halifax propone recurrir al pulso de cada persona, que responde a un patrón único y es más seguro que la huella dactilar (Noticiasdot, 22/03/2015). Por su parte, PayPal se encuentra trabajando en tecnologías empotrables en el cuerpo, como chips de silicona, implantes cerebrales (!), e incluso cápsulas digeribles que detectan la glucosa presente en el estómago para formar un mapa personal único y así reforzar o reemplazar las contraseñas (FayerWayer, 21/04/2015). 

El problema de este tipo de solución es que se trata de datos que  deberían quedar fuera del alcance de los hackers. Siempre es posible que accedan a las bases de datos donde se guardarían y, mientras podemos cambiar una contraseña, no es posible cambiar estos datos.

La solución parece estar en un análisis más complejo, como el del contexto: el aparato utilizado y algunos datos únicos que contiene así como los hábitos del usuario. En este campo, Google ha creado el Proyecto Abacus, que recoge la información sobre el comportamiento del usuario: hábitos de movimiento, velocidad del tecleo, qué apps usa más, agregando la voz o el reconocimiento facial cuando el terminal lo permite. La combinación de toda esta información es la que permitiría construir un sistema hasta diez veces más seguro de identificación del usuario y discernir si es o no el propietario de un dispositivo o una cuenta. Hasta 33 universidades, entre las cuales figuran Princeton y el MIT, se asociaron para colaborar en la creación de este concepto. El siguiente gráfico muestra los niveles de seguridad ligados a distintos comportamientos observables (basado en tests con 1500 usuarios). (Xataka, 30/05/2015)

Una aplicación más sencilla del mismo principio es el que la NSA está probando: la biométrica de firma dinámica, desarrollada en colaboración con Lookheed Martin. La idea es que las grafías que forman la escritura pueden falsificarse si se dispone de tiempo y  habilidad suficientes, pero no se puede falsificar la escritura en sí, o sea los gestos que cada persona hace al escribir, por ejemplo en la pantalla tactil. El ritmo y la velocidad de escritura serían suficientes para identificar de forma inequívoca a una persona. (Gizmodo, 27/05/2015)
(Ver también mi post del 6 de marzo)

17 de julio de 2015

Los problemas crecientes de la seguridad

Lo que los clientes están demandando hoy de los servicios y productos digitales son características brillantes y conectividad, pero la seguridad -para ellos- es simplemente una suposición. Y dicha suposición es errónea en demasiados casos. Desgraciadamente, como señalan en Techcrunch, se instalan nuevas capacidades encima de infraestructuras y máquinas basadas en la tecnología antigua, introduciendo enormes riesgos que antes no existían. El problema se agrava aún más por la lenta instalación de parches, que no se implementan cuando están disponibles en aras de evitar el tiempo de inactividad.

Todo -las redes eléctricas, las plataformas petrolíferas, los aviones, los hospitales- seguirá siendo vulnerable a los cibercriminales mientras no se adopte una nueva política de seguridad porque, desgraciadamente, las amenazas están evolucionando rápidamente, y las organizaciones -e incluso la infraestructura central de los países- se están quedando atrás.

El año pasado, múltiples sistemas de control industrial fueron atacados por un malware conocido como BlackEnergy y se demoraron meses en desarrollar parches correctores. Practicamente ninguno de estos sistemas utiliza la autenticación y mucho menos la encriptación. Lo mismo vale para la administración de los hospitales, y grandes bases de datos de pacientes han sido robadas. También se ha demostrado que las conexiones WiFi ofrecidas a los pasajeros en los aviones no quedaban separadas de las comunicaciones de los pilotos y sistemas de aviónica, lo cual facilitaba el acceso de hackers, y recién se está tomando medidas para separar las redes aunque tomas meses aplicarlas.

Gráfico mundial del índice de infección informática (Kasperski Lab)

Las empresas de seguridad como Kasperski, Symantec, Panda, etc. advierten constantemente del aumento del malware y de los ataques masivos. Kaspersky descubre unos 325.000 virus nuevos cada día y en el primer trimestre de 2015 bloqueó más de 2.200 millones de ataques maliciosos a equipos y dispositivos móviles. Y cualquier persona puede contratar el servico de hackers: TrendMicro recopiló los precios en el mercado negro de los servicios y los productos más deseados por piratas y ladrones de datos: 91 euros para hackear una cuenta de Facebook, entre 15 y  440 euros para bloquear un sitio web, y por los datos robados de una tarjeta de crédito se pagan de 1,8 a 18 euros (El País.es, 15/07/2015; gráfico adjunto).

Es común, por ejemplo, que juegos gratuitos para Andoid o iOS introduzcan troyanos que roban las contraseñas (ha sido el caso, últimamente, de ‘Cowboy Adventure’ y ‘Jump Chess’). Kaspersky Lab advirtió en diciembre pasado que en 2015 se producirían grandes ciberataques dirigidos a los bancos y nuevos programas maliciosos para el robo de dinero en efectivo directamente desde los cajeros. Los ataques contra los sistemas de pagos virtuales también llegarían a sistemas como Apple Pay y se producirán ataques contra impresoras en red y otros dispositivos conectados. (PC World, 4/12/2014)

No se puede desconocer que existe una ciberguerra solapada, que se manifiesta en diversos tipos de ataques. Hace pocos días, Trend Micro ha descubierto una falla en la plataforma Java (usada como complemento o base para otras aplicaciones en muchos PC) que permitió alojar ahí una serie de URLs sospechosas que alojaban el nuevo ataque muy parecido al que fue lanzado en abril pasado contra miembros de la OTAN y la Casa Blanca (campaña conocida como Operación Pawn Storm).

El año pasado se conoció el ataque a las servidores de Sony Pictures, que llegó a destruirlas después de robar el contenido,  atribuido por el FBI a Corea del Norte y considerado por el gobierno de Estados Unidos como un asunto de seguridad nacional (TICbeat, 19/12/2014). El gobierno surcoreano también ha informado que las centrales nucleares del país, diversas  entidades bancarias, webs gubernamentales y canales de televisión fueron hackeadas en 2013 y 2014 (Genbeta, 22/12/2014).

En abril pasado, la base de datos del personal gubernamental de los Estados Unidos fue pirateada y los datos de más de 20 millones de empleados robados por los piratas (que se creen chinos). Los datos comprometidos o robados tendrían que ver, de acuerdo con la versión oficial, con números de la seguridad social, historial sanitario, financiero y antecedentes penales e incluso pasado familiar de los demandantes de empleo. El problema ha sido tal que el director del Office of Personnel Management ha debido presentar su renuncia  (Business Insider, 17/06/2015). Informes de la Oficina de Responsabilidad del Gobierno que datan al menos de 2011 identificaron una brecha de seguridad en las habilidades cibernéticas de los trabajadores federales de numerosos organismos. Otro informe de 2011 señalaba que las agencias de gobierno tenían dificultades para contratar empleados técnicamente competentes en parte debido a que sus procesos de contratación eran lentos y complejos, y porque no podían pagar lo suficiente para permanecieran en el trabajo. (Recode.net, 11/07/2015)

Hace unos días, se descubrió que Impero Education Pro, una de las herramientas más utilizadas para monitorear y restringir el uso de Internet de los alumnos en las escuelas del Reino Unido, tiene un grave fallo de seguridad (ahora corregido) que podría haber dejado a cientos de miles de datos personales de los niños expuestos a los piratas informáticos. (The Guardian, 14/07/2015).

Los problemas ligados la seguridad acaban de multiplicarse desde que se sabe que el sistema de vigilancia para cuerpos y fuerzas de seguridad del estado de la empresa italiana Hacking Team, que es usado por un gran número de países y cuerpos policiales de varios países, ha sido hackeado. Los atacantes han accedido a un gran número de documentos con información sensible y han colgado casi 400GB en la red. El producto estrella de Hacking Team es un malware llamado Remote Control System (RCS) que permite infiltrar móviles y ordenadores para controlar comunicaciones a través de email, WhatsApp o Skype. Lo peor es que han publicado incluso el código fuente de este sistema, con lo cual está al alcance de todos los piratas que deseen explotarlo. (Hipertextual, 6/07/2015; Gizmodo, 7/07/2015). Se sabe ya que aprovecha una debilidad de Adobe Flash que permite ejecutar código malicioso sobre el ordenador de la víctima (Mozilla ha decidido bloquearlo en Firefox debido a ésta y muchas otras debilidades) y otras vulnerabilidades que afectan a todas las versiones de Windows desde XP, más otra que permite interceptar datos de cualquier terminal Android. 

Más grave aún, técnicamente, es que Hacking Team había descubierto la forma de infectar los sistemas BIOS (los que ponen los fabricantes en cada computadora y no dependen de los sistemas operativos ya que son la base sobre la cual funcionan) y lo vendió desde el año pasado. Ningún antivirus es capaz de bloquear este rootkit y no sirve de nada reinstalar el sistema operativo. El BIOS debe ser actualizado mediante una herramienta proveída por el fabricante de la computadora y conviene establecer una contraseña para acceder al BIOS (algo poco común). (FayerWayer, 14/07/2015)

Y sabemos así que decenas de gobiernos utilizan herramientas de espionaje (aunque puedan estar restringidas a la policía y para persecución criminal) que provienen de una empresa "de seguridad" que no era capaz de proteger su propia seguridad. ¡Su base de datos interna con datos de clientes estaba totalmente en claro, sin contraseñas, e incluso compartían contraseñas por email no-cifrado! Sin embargo, para que fuese posible robar todo lo que fue robado, "el ataque podría haber sido llevado a cabo a nivel de Gobierno, o por alguien que tiene enormes fondos a su disposición" según el CEO de la empresa, o -según otros expertos- haberse tenido acceso físico a los computadores centrales (y tiempo para duplicar los discos duros). (Hipertextual, 13/07/2015)

También se conoce ahora el acuerdo de 41 países llamado "Wassenaar Arrangement", respaldado (y ampliado) por el U.S. Bureau of Industry and Security (BIS), que propone ampliarse al mundo digital y establecer reglas comunes para "regular" el desarrollo de software de intrusión "capaz de extraer o modificar los datos o la ruta de ejecución estándar de software con el fin de permitir la ejecución de las instrucciones proporcionadas externamente", lo cual ha puesto en alerta abogados e investigadores en seguridad, especialmente porque una de las normas propuestas rompería la capacidad fundamental para los creadores y vendedores de software de protección (que requerirían nuevas licencias oficiales para cada producto), lo que dejaría a todo el mundo más vulnerable a los tipos de ataques para la prevención de las cuales la regulación fue diseñada, según advierte la revista Wired. (Wired, 16/07/2015).

10 de julio de 2015

¿Cómo avanza la inteligencia artificial?

Con las numerosas alusiones a los "big data" y los sofisticados métodos de análisis que requieren también se está hablando cada vez más de la inteligencia artificial, que es uno de los recursos que utilizan las grandes empresas como Google, Facebook y Microsoft. Quizá el caso más sonado fue la red compuesta por mas de 16.000 nodos (procesadores) creada por Google en 2012 con la que consiguieron que, tras revisar más de 10 millones de imágenes presentes en vídeos de YouTube, ésta pudiese por si misma aprender a reconocer un gato (Actualidad Gadget, 2/06/2015). Esta hazaña se consiguió al "enseñar" a un ordenador a reconocer una entidad utilizando lo que se denomina "aprendizaje profundo". El sistema ha avanzado y permite ya reconocer objetos en las fotografías, aunque los resultados no son siempre lo que se podría esperar, especialmente si las imágenes originales son confusas o tienen mucho "ruido", como muestran las siguientes imágenes "extraídas" por el sistema. Ha significado incluso un bochorno para Google al etiquetar a dos afroamericanos como monos (Genbeta, 1/07/2015)

Lo que Google ha hecho es lo que llaman «incepcionismo»: resaltar sobre una imagen convencional las diferencias y detalles que el software reconoce de forma más acusada. De este modo logramos ver algo así como «lo que llama la atención a la inteligencia artificial», algo que normalmente no se ve pero que está dando vueltas por los circuitos de memoria. (FayerWayer, 19/06/2015).

Wolfram también puso este tipo de sistema a disposición de todos a través una página web. Se supone que es capaz de identificar (en texto) el contenido de las imágenes subidas por el usuario, pero las pruebas solo funcionan con imágenes simples como una flor o un edificio. Mi foto de una estación de metro fue identificada como "shopping center".

Facebook, que también trabaja en el mismo tipo de proyecto de IA, ha presentado un estudio en el que explica cómo han creado un sistema capaz de aprender por sí sólo y crear sin ayuda externa imágenes de un tamaño de 64 por 64 píxeles tal que el 40% de los voluntarios que las han visualizado llegaron a pensar que eran reales (Imagen siguiente). (Genbeta, 22/06/2015)

Otras aplicaciones han tenido un éxito suficiente incluso para poner "robots" a redactar noticias. Ya en 2012 se instaló un "robot periodista" en Forbes y el Los Angeles Times empezó a utilizar algoritmos en marzo de 2014 para traspasar datos a plantillas que les dan formato de notas de prwnsa (ABC.es, 20/03/2014). El tema de los  "robots periodistas" también fue tratado en el GEN Summit, la cumbre mundial de los editores de medios de comunicación (ElDiario.es, 16/06/2014). El sistema de "aprendizaje profundo" DeepMind, de Google, también ha logrado con éxito "leer" y resumir textos tomados del Daily Mail y de CNN. Incluso es capaz de responder el 60% de las preguntas simple acerca de los textos (Technology Review, 17/06/2015). En esta dirección ha aparecido Quill, una tecnología capaz de convertir datos en una historia escrita. El algoritmo es suficientemente "inteligente" para redactar textos o interpretar las visualizaciones de datos, y podría convertirse en el rival de los científicos de datos (TICbeat, 2/02/2015 ).

El aprendizaje automático se utiliza cada vez más, especialmente en las empresas más grandes -y especialmente las redes sociales- que invierten en laboratorios de inteligencia artificial, muchas veces comprando empresas pequeñas pero más avanzadas. Así, por ejemplo, Twitter hizo pública la adquisición de la compañía Whetlab, especializada en inteligencia artificial y machine learning. Pero ésto puede tener, al menos por un tiempo, una consecuencia nefasta para los demás utilizadores: las empresas adquiridas dejan de ofrecer sus servicios a terceros, retrasando el desarrollo de aplicaciones de uso más masivo.

El aprendizaje automático y otras "soluciones" de inteligencia artificial plantean otro problema. Cuando pedimos a un especialista la solución para algún problema, esperamos que justifique de algún modo su respuesta. Con los actuales sistemas de IA, ésto sería imposible: ofrecen resultados, pero sin poder mostrar el "camino" recorrido para llegar a ellos. Los creadores de estas aplicaciones nos piden un "acto de fe", algo bastante inusual en el mundo científico, como hizo notar Steve Lohr en un artículo para The New York Times (6/04/2015).  IBM ha intentando paliar este problema con "Watson Paths", que ofrece una visualización del árbol de decisión seguido por este supercomputador. Pero el experto en IA, Danny Hillis, comenta en el mismo artículo que no es suficiente (requiere aún una interpretación) y que la única solución satisfactoria sería producir un relato ("story telling") describiendo cómo se llega a la conclusión ofrecida. Exponer el razonamiento facilita la comprensión, la aceptación (o refutación) y el aprendizaje humano.

Utilizar ciegamente el aprendizaje de máquina para el análisis de Big Data y, con ello, tomar decisiones basadas en predicciones artificiales como se está haciendo podría ser muy riesgoso. Las empresas que ofrecen estos sistemas o los servicios asociados nos piden que confiemos ciegamente en los algoritmos creados por sus ingenieros pero no nos dan, hoy, ninguna prueba de que son realmente confiables y no nos permiten, lamentablemente, comprender los resultados que entregan. 
Dos grupos de investigadores de las Universidades de Harvard y Washington acaban de demostrar que algunos algoritmos diseñados por  empresas punteras como Google o Microsoft, son discriminatorios. Los de Washington lanzaron una búsqueda de imágenes en Google introduciendo el término «CEO» en el ámbito de Estados Unidos, obteniendo como resultado que solo en el 11% de las imágenes aparecen mujeres. Sin embargo, la realidad es que el 27% de los directores generales de las empresas estadounidenses son mujeres. Los de Harvard hicieron búsquedas con nombres de pila y, al introducir un nombre como Jermaine o Darnell, habituales en personas negras, obtuvieron que la palabra «detención» aparecía en entre el 81 y el 95% de las entradas. Y esta misma búsqueda pero con nombres como Emma o Geoffrey, que suelen identificar a personas blancas mayoritariamente, devolvía unos porcentajes que van del 23 al 60%. (Xataka, 10/807/2015).
¿Qué pasaría si un gobierno tomase decisiones de política social o en las "ciudades inteligentes" basado en algoritmos erróneos como éstos? ¡Peor aún si un médico decide un tratamiento basado en un diagnóstico erróneo, por confiar en un programa de IA! Steve Lohr indica un camino que la "ciencia de datos" debe recorrer a toda costa antes de ser realmente confiable: "Estas preguntas están estimulando una rama de estudio académico conocida como rendición de cuentas algorítmica (algorithmic accountability)". (ComputerWorld, 19/06/2015)

Pero, pero... ni Siri ni Deep Blue ni los mejores software son capaces de superar y mejorar a la inteligencia humana. Solo ejecutan algunas tareas mejor o más rápido que nosotros. ¿Necesitamos realmente máquinas con "superinteligencia? Algunos científicos (Stephen Hawking y Elon Musk entre otros) lo consideran peligroso mientras otros (como Bill Gates y Mark Zuckerberg) invierten en su desarrollo. (Elon Musk, fundador de Tesla y SpaceX, donó 10 millones de dólares a la fundación Future of Life Institute, una institución que trabaja e investiga para mantener el enfoque benefactor de la Inteligencia Artificial*). Ésto plantea más de un dilema ético junto con el científico: ¿Cómo debería ser? ¿Podría llegar a ser tan superior que acabe eliminando a los humanos por nuestra incapacidad de manejarlas (como plantea Nick Bostrom)? (Gizmodo, 3/07/2015).

Google, Microsoft y Facebook, entre otros, firmaron en el pasado mes de enero un manifiesto que pretendía ser una especie de manual de buenas prácticas en todo lo que tiene que ver con la IA (Xataka, 4/07/2015).

* Los 37 grupos de investigación ganadores del programa del aporte de Musk al Future of Life Institute.

3 de julio de 2015

Nuevo campo de batalla: Los Sistemas Operativos para IoT

Para colocar procesadores no solo en relojes sino en ropa, zapatillas, utensillos de cocina, o incluso elementos quirúrgicos, es obvio que hacen falta unos microchips más pequeños y sistemas operativos (SO) más limitados. Éste es un nuevo campo donde, en cierto modo, hay que volver a los inicios del diseño de procesadores. Y donde la competencia será fuerte.

Google está trabajando para entrar de lleno en la pugna por dominar la Internet de las Cosas (IoT) y, para ello, prepara una versión especial (reducida) de Android que se llamaría Brillo. "Brillo sería capaz de ejecutarse sobre diferentes tipos de hardware de forma sencilla gracias a su capacidad de modificarse y adaptarse a cualquier entorno", nos dicen en TICbeat. Competirá con varios otros fabricantes, como Huawei, que anunció Lite OS, un sistema operativo que tendría apenas 10kb (Brillo tendría 32 o 64 Mb) y sería de código abierto.

Canonical también está trabajando desde hace tiempo en su propio sistema para IoT, una versión ultraminimalista de Ubuntu, llamada Ubuntu Core, para procesadores ARM de 32 y 64 bits. (Tecnogeek, 21/05/2015). Por su parte, Intel ha adquirido Altera, una tecnología que permite programar y reprogramar dispositivos para llevar a cabo tareas específicas y que ya está siendo empleado en terrenos como el sanitario, los transportes o los procesos industriales (TICbeat, 2/06/2015). Y Samsung presentó ARTIK, que hereda gran parte de las capacidades de SmartThings, compañía adquirida por Samsung en 2014. El procesador ARTIK 1 mide apenas 12 milímetros de ancho y alto, perfecto para wearables y ropa inteligente, pero hay dos modelos mayores y, además, es compatible con software de terceros como el ecosistema Arduino (TICbeat, 14/05/2015).

Los SO para automóviles también han de ser específicos, por lo peligroso que resultaría el soltar las manos del volante para usarlos. Android Auto es la apuesta de Google, en asociación con populares firmas fabricantes de autos como Ford, Chevrolet, Audi, Renault, etc. Requeriría tener un smartphone la aplicación de Android Auto y conectarlo al sistema multimedia que viene con el auto, para pasar al control vocal (y ver -peligrosamente- los mensajes de texto en la pantalla del auto). El Hyundai Sonata ya tiene este equipamiento (foto). (Wwwhat's New, 27/05/2015)


Otros fabricantes, sin embargo, también desarrollan otros sistemas.