31 de diciembre de 2014

Las fallas de seguridad en 2014

Varias empresas han publicado en sus sitios web una "selección" de los principales fallos de seguridad que hicieron noticia en el año que terminó. Aquí una lista de los "más sonados" (por orden cronológico aproximado desde el principio del año).
* La falla de OpenSSL (encriptación de las direcciones en los sitios web), una vulnerabilidad conocida ya por dos años pero que 55% de los sitios web aún no tenía en cuenta (entre ellos 44 de los top 100). (MIT Technology Review)
* Acceso por el "bug" Heartbleed a la base de datos de la red norteamericana de Sistemas de Salud (Community Health Systems) que comprometió los datos de 4,5 millones de pacientes. (MIT Technology Review)
* Intrusión en los sistemas y la base de datos de usuarios de eBay. Spotify también anunció un acceso no autorizado a sus sistemas y datos internos. (Hispasec)
* El lector de RSS "Feedly" sufrió un ataque de denegación de servicio distribuido (DDoS), y fue extorsionado para poder recuperar el servicio. (Hispasec)
* JP Morgan sufrió en verano una de las  brechas de seguridad más importantes de 2014. El ataque afectó a 76 millones de hogares y siete millones de pequeñas empresas. (PC World)
* Se descubrió una  vulnerabilidad en el propio diseño de las unidades USB que podría permitir tomar el control de un sistema a pesar de todas las protecciones y medidas de seguridad posibles. (Hispasec)
* Home Depot fue víctima de un ciberataque que dejó la información de 56 millones de tarjetas quedaron en manos de los hackers. (PC World)
* "Celebgate": Robo y publicación de fotografías privadas de las cuentas de iCloud de Apple. (Hispasec)
* Publicación de una lista con casi cinco millones de credenciales de usuarios de Gmail, con nombres de usuario y contraseñas. (Hispasec)
* Robo de información que ha afectado a más de 47.000 actores, autónomos, empleados y ex empleados de Sony Pictures Entertaiment, atribuido inicialmente a Guardians of Peace y a Norcorea en razón del anuncio de una comedia sobre el líder de ese país. La firma de seguridad Norse confirmó que ha identificado a seis individuos de diferentes países que participaron en el hack de Sony Pictures. Una exempleada de Sony Pictures fue identificada como miembro del grupo de atacantes. Se dieron cuenta de que publicó comentarios agresivos en sus propias redes sociales relativos a su despido de la compañía. Además, se encontró que posteriormente se comunicó con otros individuos afiliados con grupos de hackers en Europa y Asia. (FayerWayer)
* La compañía Cylance desveló la "Operación Cleaver", que indica que Irán se encuentra detrás de ataques informáticos a 16 países durante los dos últimos años. (Hispasec)
* Check Point descubrió una vulnerabilidad en al menos 12 millones de routers domésticos de diferentes fabricantes que podría permitir a un atacante remoto tomar el control de los dispositivos afectados. 
* Un ataque organizado por el grupo Lizard Squad dejó a miles de usuarios de PlayStation Network y Xbox Live sin poder jugar a sus nuevos juegos y consolas durante el día de Navidad debido a un ataque de denegación de servicios que provocó la caída de ambas plataformas. ¿Por que? "Porque podemos hacerlo" dijo uno de los hackers. (Noticiasdot.com)
* Chaos Computer Club, una de las asociaciones de hackers más grandes de Europa, ha asegurado que pueden reproducir las huellas dactilares a partir de un par de fotografía que muestren los dedos de una persona. La imagen creada puede ser usada para la identificación biométrica, es decir, para desbloquear smartphones, ordenadores y otros dispositivos. (ABC.es)


26 de diciembre de 2014

¿Escribir a mano o teclear? Un problema educativo

Para dentro de 15 años la organización WISE (Cumbre Mundial por la Innovación en Educación) estima que los contenidos online pasarán a ser la primera fuente de conocimiento y solo 29% provendría de los colegios. Además, los conocimientos académicos dejarían de ser los más importantes, reemplazados por las habilidades personales (75%) y los profesores serían solo guías o mentores. (Infografías originales aquí; traducción y comentarios acá).

En estas condiciones, el diseño de actividades de aprendizaje apunta entonces a actualizar y mantener “al día” el conocimiento, principalmente porque éste crece exponencialmente y puede cambiar rápidamente lo que es percibido como realidad. Y un aspecto no menor es el de la invasión de los portátiles (notebooks) y las tabletas en numerosas escuelas. Su uso, obviamente, tiende a privilegiar el tecleo antes que la escritura a mano. Pero podría ser más perjudicial para el aprendizaje que lo que creen los partidarios de recurrir en todo a las TIC en la educación.

J.Mendiola escribió lo siguiente en Hipertextual.com (16/12/2014):
"Son muchos los estudios llevados a cabo que concluyen en que los que escriben a mano cuentan con una comprensión mucho más elevada del contenido de lo que escriben que la gente que simplemente memoriza o teclea la información en un dispositivo. Escribir a mano enciende la mecha en nuestras neuronas y nuestro cerebro se pone a trabajar a pleno rendimiento, y el fruto de este esfuerzo nos llega en forma de comprensión o creatividad.
Según un estudio llevado a cabo por la Universidad de California, las personas que escriben a mano cuentan con una capacidad de comprensión muy superior sobre lo escrito y lo que también resulta muy interesante, es que recuerdan mejor lo escrito. Las conclusiones de esta averiguación han puesto en tela de juicio la corriente actual de llenar las aulas de portátiles y tablets y renunciar poco a poco a los bolígrafos o lápices: parece que se está sacrificando mucho más que un aspecto meramente sentimental.
Los psicólogos han encontrado que al escribir a mano se crea una 'relación espacial' con la información que escuchamos. Dicho de otra manera, consolidamos de una manera gráfica la información que nos está llegando y de esta manera conseguimos no sólo comprenderla mejor, sino hacerlo durante más tiempo.
Pero lo realmente interesa es que al escribir a mano obligamos a nuestro cerebro a organizar previamente la información. Es posible que no seas consciente de ello porque sucede muy rápido, pero antes de comenzar a escribir nuestra cabeza ordena rápidamente las ideas, algo que no tiene lugar cuando aporreamos el teclado."

A pesar de estos estudios que ponen en guardia frente al uso exclusivo de equipos digitales en la enseñanza, llama la atención que – conforme a lo anunciado en Finlandia – a partir del curso 2017-18, la escritura a mano ya no formará parte del programa educativo obligatorio en ese país. Será el primer país que sustituirá la asignatura de caligrafía por la de mecanografía en las escuelas, según indicó el diario Savon Sanomat (Antena3, 2/12/2014). ¿Habrán sopesando realmente las consecuencias?

* Éste y otros contenidos relativos a lo que nos enseña internet (querámoslo o no) formará parte de mi próximo e-libro "¿Ser digital o ser humano?" cuya publicación está prevista para el primer trimestre de 2015. 

19 de diciembre de 2014

Después del Big Data: Smart, Small, Rich

El tema de los "Big Data" ha invadido ampliamente las publicaciones especializadas relativas a internet y a la informática "en la nube". Pero ya no se trata solamente de hablar de la acumulación de datos recogidos principalmente a partir de las actividades y datos personales de los usuarios de la red, en beneficio de las grandes empresas de la propia internet, sino cada vez más de los servicios derivados y de los beneficios que pueden ofrecer a otras empresas (y a las personas). Incluso ha surgido un enfoque alternativo que nos parece muy prometedor, el de los "rich data", aunque es probable que no les guste a los "grandes" (que ya no harían, quizás, tanto "negocio" con nuestros datos).

1. ¿Big Data para todos?

Uno de los problemas de los Big Data es la dificultad de su manejo. Los "grandes", como Google y Facebook tienen enormes centros de datos, supercomputadores y departamentos especializados que utilizan cierto tipo de inteligencia artificial para extraer información útil. Muy pocas empresas pueden darse este lujo. De ahí también que otros poderosos, como IBM, Microsoft, Google y Amazon, ofrecen este tipo de servicio en su "nube" (Ver post del 14/11).

Pero aún así no es fácil utilizarlos. Las empresas deben contar con especialistas en la gestión de este tipo de sistema, tanto para ingresar los datos (generalmente en una forma no compatible con los modelos habituales de bases de datos) como para dirigir los procesos a realizar (generalmente mediante programación paralela, algo muy diferente de la programación clásica) e interpretar los resultados. Sin embargo, se ha ido tomando consciencia de esta dificultad y están empezando a aparecer algunas propuestas para facilitar las operaciones.

Así, como ya habíamos mecionado, Microsoft ha lanzado un servicio en la nube llamado Azure Machine Learning (AzureML), un sistema de aprendizaje Automático (ML) que permite analizar los big data para reconocer patrones y extraer valor. Ofrece una interfaz tipo web de arrastrar y soltar para colocar fácilmente las piezas del rompecabezas y extraer información sobre la base de conjuntos de datos complejos. (Evenbrite.ca, 13/11/2014).

También están surgiendo servicios más puntuales como el de SocialBro, que acaba de lanzó “Monitoring”, una nueva herramienta de minería de datos de Twitter que tiene como objetivo identificar tendencias de mercado, comportamientos de los consumidores y oportunidades de negocio. La herramienta (de pago) estará disponible para todos los usuarios y hará posible obtener datos de Twitter combinando hashtags, menciones y palabras clave, obteniendo datos demográficos importantes (género, idioma o localización) así como sentimiento de los tuits. Aquí imágenes de resultados. (WwwhatsNew, 10/12/2014)



Apple e IBM, por su parte, han anunciado la primera oleada de apps para dispositivos iOS conocidas como soluciones IBM MobileFirst. Se trata de una nueva categoría de apps y servicios basados en la nube que acercan las herramientas de análisis y Big Data de IBM a los usuarios de iPhone y iPad de las empresas. Ambas compañías afirman que las primeras apps diseñadas bajo estas soluciones ya están siendo usadas por Citi, Air Canada, Sprint y Banorte. (MacWorld, 10/12/2014). En realidad, no hablan del ingreso de datos, sino del uso, es decir de la consulta de los resultados.

Para ayudar a hacer progresos en este ámbito, el profesor Zoubin Ghahramani y su grupo de la Universidad de Cambridge recibió un premio "Google Focused Research Award" en apoyo a su proyecto "The Automatic Statistician". Hasta el momento, el proyecto ha sido mayormente centrado en la búsqueda de tendencias en datos de series de tiempo, descubrir automáticamente regularidades e irregularidades, etc. Recurre para ello a  modelos estadísticos no paramétricos basados en procesos de Gauss (Google Research Blog, 2/12/2014). 
Aunque el objetivo declarado de este proyecto es "construir una inteligencia artificial (IA) para la ciencia de datos", éste es un ejemplo de que, para explotar los Big Data, no se requieren realmente aplicaciones de inteligencia artificial. (Ver nota al final *) 

2. Smart Data

"Big data is out, small, smart data is in" dice David Lavenda, VP Product Strategy de Harmon.ie, un proveedor de productos de apoyo móvil (Cmswire.com, 2/12/2014). Los "Smart Data" (datos inteligentes) son información entregada para extender nuestros sentidos humanos y conocimiento para que se apliquen a la evaluación y decisión en torno a respuestas a dar, combinados con los Big Data para garantizar que podemos actuar sobre la base de un conocimiento completo. Los Smart Data "crean personas empoderadas, o personas inteligentes, y al hacer ésto las hace igualmente 'conscientes' de la necesidad de más datos provenientes de los recursos de Big Data" (Andy Mulholland: "Internet of Things; Requires Big Data to be turned upside down to become Smart Data", nov. 2014). Los Smart Data son datos en su contexto, en las "manos correctas" y relevantes para algunas cuestiones, actividades o problemas. Una vez que los datos se transforman, se procesan y se entregan a la persona adecuada en el negocio que los necesitan para hacer algo de valor, pueden ser una parte importante del modelo de detección y respuesta. Pero el proceso de transformación no es ni fácil ni barato. (Michael Fauscette, "Transforming Data Into Action", sept.2014).
No son, por lo tanto, una solución frente a la dificultad de manejar los Big Data, sino un mejor producto del procesamiento de los mismos.

3. Small Data

La definición más simple de "Small Data" (datos pequeños) es que se trata de un conjunto de datos que puede caber en un ordenador o dispositivo personal. Pero no basta con considerar el tamaño del conjunto de datos. Hay que considerar también otras dimensiones. Una de ellas es el proceso de tomar grandes conjuntos de datos y distribuirlos a los nodos que harán posible utilizarlos en dispositivos locales para alguna actividad de negocios. Implica un modelo de computación distribuida del procesamiento de datos y la democratisación de la información acumulada, convirtiendo los Big Data en información derivada, procesable localmente, tal vez incluso mezclando varias fuentes y, lo más probable, visualizándolos de alguna manera (interfaz gráfica). Deben ser presentados en forma oportuna, pertinente, organizada y empaquetada para facilitar los procesos de toma de decisión rutinarios. (Michael Fauscette, "Transforming Data Into Action", oct.2014).

Aquí sí surge una pista para abordar los Big Data de otra manera: en lugar de procesar la masa, realicemos un proceso de selección en función de algún criterio inicial (o varios), considerando la utilidad para los futuros usuarios, extraigamos estos datos y procesemos el subconjunto obtenido, lo cual es mucho más fácil (Existen desde hace tiempo herramientas de "minería de datos", bien conocidas. Y hasta se podrían trabajar, eventualmente, con planillas Excel). El problema se reduce (aunque puede no ser fácil) a elegir los "datos correctos" para las "personas correctas" (the "right" data for the "right" person). Dice Fauscette que con esta manera de trabajar es mucho más probable que las empresas contesten mejor a las expectativas de sus clientes.

4. Rich Data

El concepto de "Rich Data" fue introducido por Tim Berners-Lee, el procer de la web. Son datos que "empoderarían" al individuo. Según Tim Berners-Lee: "Si un computador recopiló datos de su médico, de su compañía de tarjeta de crédito, de su casa inteligente, de sus redes sociales, y así sucesivamente, podría obtener una visión real de su vida". Éstos serían "Rich Data" (datos ricos o enriquecidos), que no tienen porque ser acumulados en otra parte sino en su propio PC, ni pasar a pertenecer a grandes empresas. En lugar de recoger todos los datos en un solo lugar (estas empresas) antes de ser utilizados, se pueden mantener en muchos pequeños conjuntos de datos para cada persona y situación. Pero lo más importante es que esta unión de conjuntos de datos debería ocurrir en el punto y momento de una necesidad y de forma dinámica. Este modelo de "segmentación individual" de hecho ya es conocido y existen herramientas para utilizarlo. Su principal ventaja es que solo se necesita un pequeño número de observaciones para responder a las necesidades de un individuo, lo cual es fácil de procesar. Y una persona no necesita en absoluto información acerca de los datos de otras personas: no le son de ninguna utilidad. Es de esperar que aparezcan aplicaciones para que podamos efectivamente hacernos cargos de este modo de nuestros propios datos.

Esta visión se ha de enlazar con otra: la de la propiedad de los datos individuales. Las empresas que recolectan nuestros datos no son legítimos propietarios de los mismos. Y se ha planteado que deberían pagar por ellos. Por cierto, en muchos casos les pagamos sus servicios aparentemente gratuitos entregándoles nuestros datos. Éste es un modelo de negocio que sería difícil cambiar. Pero es legítimo discutir los límites del mismo y es uno de los temas que abordan las autoridades de varios países como, en particular, la Comisión Europea.
_____________
* Nota: IA, aprendizaje automático e inteligencia mecánica
Nos encontramos aquí, justamente, en un campo en que parece inevitable introducir nuevas distinciones, como ya lo hacen diversos especialistas. Hace algún tiempo, se empezó a distinguir entre "IA dura" e "IA blanda", la primera apuntando a lograr que una máquina tenga éxito en el test de Turing (tener respuestas indistinguibles de un ser humano en un diálogo a distancia) y la segunda a "aprender" a partir de la acumulación de información y extraer de ello conclusiones útiles. Así, en la "IA blanda" existe un componente de aprendizaje automático (“machine learning”). Pero también existen aplicaciones de aprendizaje automático que no implican aspectos de IA. Por ello, Shivon Zilis propone hablar de "inteligencia mecánica" (“machine intelligence”). Es la que encontramos en aplicaciones como SIRI, el reconocimiento de caras, las recomendaciones de compra, etc. Es también la que más interesa por ahora, para efectos comerciales, a los "grandes" de internet. Y donde es probable que se multipliquen nuevos productos, más ecónomicos y de más fácil uso para otras empresas (menores). (Shivonzilis.com, 10/12/2014).

12 de diciembre de 2014

Los problemas de la publicidad en línea

La publicidad en Internet funciona de diferentes maneras; la más común es la del pago por impresión (CPM), en la que un anunciante paga una cantidad de dinero para que su anuncio se muestre un número de veces, con la esperanza de que alguna de esas impresiones llame la atención de una persona y acceda a ella. Google ha creado un imperio gracias a este sistema, con su herramienta AdWords. Pero el mismo Google confirmó uno secreto a voces de la publicidad online: la mayoría (56,1%) de la publicidad jamás es vista. (FayerWayer, 8/12/2014)

Hay causas y efectos por considerar.

Muchas veces la publicidad es demasiado intrusiva y cada vez hay más usuarios que instalan alguna extensión que hace desaparecer los banners e intersticiales que les molestan. Un estudio llevado a cabo por PageFair y Adobe da la cifra de 144 millones de usuarios mensuales, casi un 5% de todos los usuarios de Internet, que tienen instalada una extensión bloqueadora. Según el informe, hubo un crecimiento del 117% durante 2013, que fue liderado por los usuarios de Google Chrome (un 63% del total), seguido por Firefox, y un 41% de los mileniales los usa. (Genbeta, 10/09/2014)

La situación es tal que dos empresas francesas, la editorial francesa GESTE y la Internet Advertising Bureau, planean demandar a Eyeo GmbH, la creadora de Adblock Plus, por amenazar su supervivencia. Como Adblock Plus ofrece a los anunciantes la posibilidad de saltarse su bloqueo, pero a cambio del pago de una cuota y de que sus anuncios ni interfieran con el contenido de las webs ni incluyan componentes abusivos como animaciones o sonidos, las editoriales francesas aseguran que el modelo de negocio de Adblock Plus está basado en la extorsión. (Genbeta, 9/12/2014)

Los usuarios deben ser conscientes de que la creación de contenido no es gratuita, y por ello deben estar abiertos a recibir algo de publicidad a cambio de poder acceder al contenido sin pagar. Aunque esta publicidad también debe respetar en todo momento al lector, evitando anuncios que interrumpan la experiencia o que sean molestos. En ese sentido es un avance el "Manifiesto de Anuncios Aceptables", al que se han adherido empresas como Reddit y PageFair y que aboga por deshacerse de la publicidad intrusiva, que interrumpe a la hora de consumir contenido. (Genbeta, 10/09/2014).

[Ilustración superior: "shot" parcial de una página de El Mundo.es]


5 de diciembre de 2014

El futuro de los pagos móviles

Un 51% de los compradores digitales en Estados Unidos hacen ya compras con el móvil o la tableta y para 2015 se espera, a nivel mundial, un aumento de los pagos por móvil del 60,8% según los vaticinios del informe 2014 de World Payments Report, elaborado por Cap Gemini y el Royal Bank of Scotland. El 13% de los españoles ya utiliza los dispositivos móviles para realizar sus compras, según un estudio de Forrester Research para Paypal (El País.es, 28/11/2014). Juniper calcula que en 2017 habrá algo más de 2.000 millones de personas que realicen algún tipo de transacción o compra mediante su móvil o tableta, frente a los 1.600 millones que lo harán este año (PC World España, 26/11/2014). 

Poco a poco han ido apareciendo apps de pago para los móviles, en reemplazo de las tarjetas de crédito (o asociadas a éstas). Google, Apple y Amazon tienen sus "billeteras electrónicas" y otros servicios de pago como PayPal y -más recientemente- Line Pay (asociada a la mensajería de Line) tienen sus propias apps de pagos móviles.

MasterCard espera que, para el año 2018, los pagos a través de dispositivos móviles supongan ya el 30 por ciento del total de las compras online. Al parecer las formas de pago mediante smartphone, por su versatilidad y comodidad, irán reemplazando progresivamente a las formas anteriores. La tecnología ya es suficiente para realizar pagos con el móvil, pero el problema actual es que es un ecosistema muy dividido, con muchas apuestas diferentes. 

Cuatro son los actores que intervienen en el desarrollo de este sector: los usuarios, los comerciantes y las compañías financieras, además de las compañías tecnológicas que desarrollan estos sistemas. Es evidente que los bancos deben trabajar con estas últimas y que una de las dificultades es que se pongan de acuerdo en un estándar o protolo común. Caixabank, Banco Santander y Telefónica ya se pusieron de acuerdo e impulsan Yaap Money, un sistema similar al de la solución de mensajería instantánea. Otros bancos también lanzaron sus propias apps.  

El siguiente problema es el de los comerciantes: será inevitable que se plieguen al cambio pero, para ellos, debería resolverse la existencia de múltiples canales y formas de pago (como la batalla entre Apple Pay y CurrentC, del grupo MCX que reúne a Walmart, Sears, BestBuy y otros en los Estados Unidos). 
Los clientes del grupo MCX no pueden pagar utilizando sus iPhones y Apple Pay (y tampoco Google Wallet): solo aceptan pagos a través de CurrentC, un sistema bastante menos práctico (con escaneo de códigos QR, mientras Apple Pay solo requiere un toque en la pantalla), evitando así las comisiones que cobran sus competidores. Es evidente que Apple ha dado un importante paso evolutivo, mostrando un camino que los demás, necesariamente, deberán seguir, como el "tap-and-go" (tocar y marchar) y los sistemas NFC para que baste con acercar el smartphone al receptor de caja (TPV). (Forbes, 31/10/2014). Aunque Walmart lo desmiente como justificación, CurrentC evita la transacción vía tarjeta de crédito (y la comisión) accediendo directamente a la cuenta bancaria (débito) del cliente, lo cual es más económico, mientras Apple Pay sirve de intermediario con las tarjetas de crédito y cobra también una comisión propia. (Re/Code, 9/11/2014).

Finalmente, el usuario tiene todo el derecho a elegir el sistema que le resulte más cómodo y satisfactorio, sin estar ligado a uno en particular por razón alguna. Si es así, es altamente probable que prefiera esta forma de pago, porque es más rápida y más segura que el pago con tarjeta de crédito, porque las transacciones son completamente cifradas (lo cual no impide que sean atacadas por hackers, pero más probablemente a nivel de los bancos). Además, puede disponer de varias cuentas sin tener que llevar consigo tarjeta alguna.

Las exclusividades -como las de Apple Pay y CurrentC-, evidentemente, no facilitan en nada la adopción de estas formas de pago por los usuarios. La solución, sin duda, parece estar en las tecnológicas, como lo está demostrando Braintree, una de las mayores empresas de pagos electrónicos (recientemente comprada por eBay). Para Aunkur Arya, gerente general del área de móviles de Braintree, la gente se está acostumbrando a no tener que escribir su información de tarjeta de crédito o nombre de usuario y contraseña cada vez que hace una compra, utilizando solamente un simple toque en su smartphone, lo cual pasará seguramente a ser el estándar. Dice que las empresas ya no deberían perder su tiempo decidiendo qué opción de pago aceptar: todas las opciones deberían integrarse dentro de toda aplicación de pago, como ya ofrece el v.zero SDK de Braintree. Con éste, los comerciantes pueden utilizar todo tipo de plataformas de pago, como PayPal, Apple Pay, e incluso Bitcoin. La nueva filosofía de los pagos móviles es que el tipo de pago sea irrelevante y que los consumidores y comerciantes puedan utilizar cualquiera. (Braintree ya procesa más de 12 mil millones de transacciones al año.) (Business Insider, 3/12/2014)

28 de noviembre de 2014

La "inteligencia" de la "internet de las cosas"

La Internet de las cosas no funciona sin las aplicaciones basadas en la nube para interpretar y transmitir los datos procedentes de todos los sensores que empiezan a invadirnos en "vestibles", en aparatos de la casa y en las ciudades. "La nube es lo que permite a las aplicaciones  trabajar para usted en cualquier momento y en cualquier lugar". (Daniel Burrus, Wired, 21/11/2014)

Cuando consideramos las ramificaciones de la conexión de una amplia gama de sensores de recolección de datos, dispositivos y máquinas, lo que es importante tener en cuenta es que la información se traduce en acción a un ritmo que nunca hemos visto antes. Nos estamos acercando a un mundo con tiempos de reacción infinitesimales, respuestas inmediatas a las condiciones cambiantes, y un control sin precedentes en la gestión de activos y recursos.

La Internet de las Cosas (IoT) cambiará los modelos actuales de operación de la industria, creacrá nuevos servicios y nuevos productos. No hay sector alguno donde no tenga el mayor impacto; va a interferir con todas las industrias imaginables, incluyendo la agricultura, la energía, la seguridad, la gestión de desastres y la asistencia sanitaria, sólo para nombrar unos pocos.

Tenemos sensores que pueden medir la fuerza, carga, torsión y presión; sensores que pueden olfatear gas y productos químicos; sensores que pueden oír las vibraciones sonoras y distinguir diferencias acústicas; sensores que pueden medir temperaturas, detectar movimiento, velocidad y desplazamiento; identificar la posición, presencia y proximidad. En otras palabras, tenemos la capacidad de reunir información de inteligencia casi ilimitada en tiempo real.

Una de las mayores ventajas de las tecnologías inteligentes es la capacidad de predecir y prevenir problemas desde cualquier lugar. Una casa podrá saber cuándo vas a llegar porque está conectada a un sensor en tu coche o tu teléfono inteligente. Es más segura una casa que enlaza los detectores de humo, sistemas de seguridad y consola de información y entretenimiento a tu teléfono.

Habrá optimización de los hospitales, con sensores que podrán detectar las bacterias en el equipo y materiales inteligentes que podrán detectar los virus que pueden haber viajado con un paciente enfermo.

Vamos a llegar a tener autopistas y vehículos inteligentes, fábricas, granjas, y redes eléctricas inteligentes. Esto no es fantasía: es una proyección basada en hechos cuantificables, hechos que no se pueden cambiar. (Adaptado de revista Wired)

21 de noviembre de 2014

¿Ciudades inteligentes?

Esta semana tuvo lugar en Barcelona el congreso mundial de ciudades digitales, Smart City Expo. Cada vez más sensores pueblan las urbes con el fin de detectar problemas, automatizar tareas y aportar datos para que, tras su análisis (con herramientas de big data), los servicios públicos puedan optimizar la gestión de los municipios y brindar mejores prestaciones a los ciudadanos. 

Jeremy Rifkin, autor de "La sociedad de coste marginal cero" señaló que hay tres ejes hacia los que nos movemos en este nuevo escenario: la transformación del consumidor en ‘prosumidor’, es decir, en productores, de mano de la impresión 3D, las apps móviles, etc.; el surgimiento del procomún colaborativo, “un escenario en el que todo el mundo trae la información, crea un servicio y lo pone a disposición de todo el mundo, de forma que el beneficio empresarial casi no existe”; y la tendencia de administrar la información con el big data procedente de fuentes muy diversas (como las redes sociales y los múltiples sensores desplegados por todas partes).

Íñigo de la Serna es el alcalde de Santander, la primera ciudad española que empezó a trabajar en el concepto de urbe inteligente, y el presidente de la RECI (Red Española de Ciudades Inteligentes), quien reconoció tener dudas del escenario futuro. (Algunos opinan que sería el "Gran Hermano".) Esta realidad hará, según De la Serna, que “el planteamiento del sistema económico del futuro sea muy diferente al sistema capitalista del sistema occidental que conocemos”.

Para Eduardo Navarro del Carvalho, chief commercial digital officer de Telefónica, la revolución digital y el concepto de smart city que implica no ha llegado aún, por la complejidad que conlleva desplegar este tipo de proyectos que precisan de la actuación de múltiples jugadores. Para él, hay que “dejar de hablar del big data y hacerlo del dato útil y responsable” y, también, apostar por plataformas de ciudades inteligentes “interoperables, basadas en estándares y abiertas, y ubicadas en modelos cloud” para un acceso cómodo.

¿Inteligente?
Se ha tomado la costumbre de aplicar este calificativo a aparatos y aplicaciones que se destacan por sus nuevas funciones. Pero sería conveniente revisar el uso de dicho concepto, so pena de menospreciar cada vez más lo que nos hace humanos.
La inteligencia es la aptitud que nos permite resolver problemas en situaciones complejas. Sus principales características son su capacidad de aprender rápidamente por sí-misma y de ajustar su estrategia a medida que adquiere nueva información, de jerarquizar y diferenciar lo importante de lo secundario, de evaluar las relaciones entre medios y fines, de utilizar el azar para hacer descubrimientos, de reconstituir una configuración global a partir de indicios fragmentarios, de reconocer lo nuevo sin reducirlo a esquemas conocidos, de innovar en estas circunstancias nuevas y de utilizar todos los recursos de los cuales puede disponer. Así, la inteligencia no puede desarrollarse plenamente sin un sistema de acumulación de experiencias: su base es la memoria y la posibilidad de acceder en forma reiterada a la memoria es lo que asienta la relación dinámica entre inteligencia y conocimiento. De este modo, su asiento más evolucionado es el sistema nervioso y la “máquina” cerebral.  A diferencia de las máquinas artificiales que resuelven problemas de otros, el organismo y la "computación viva" resuelven sus propios problemas. Es una “computación de sí mismo, por sí mismo, para sí mismo” dice Edgar Morin (El método, t.3: "El conocimiento del conocimiento", p.42). Debemos recordar que “La facultad de comprensión humana es irreductible a cualquier esquema numérico” como mostró Roger Penrose ("Las sombras de la mente: Hacia una comprensión científica de la conciencia").

14 de noviembre de 2014

Big Data: ¿Qué hacen con ellos?


Las empresas de internet - como muchas otras - acumulan una cantidad enorme de informaciones, superior a lo que es posible humanamente conocer y manejar. Facebook, Google y otros realizan un seguimiento permanente de sus usuarios y acumulan estas informaciones. Incluso los medios de prensa pueden conocer los intereses de sus lectores. Son cantidades ingentes de datos, que conforman conjuntos gigantescos llamados por ello “big data”. Con los móviles y las redes sociales, las empresas conocen nuestras listas de amigos, nuestros gustos, donde hemos estado, y más.

¿Para qué?

Analizando o vendiendo estos datos, las empresas pueden obtener mayores beneficios gracias a la información que inocentemente les entregamos. 
Alex “Sandy” Pentland, un científico de los datos, afirma que la capacidad de recoger estos datos sobre nuestro comportamiento permitirá a los científicos desarrollar “una teoría causal de la estructura social” y, finalmente, establecer “una explicación matemática de por qué la sociedad reacciona como lo hace” en todo tipo de circunstancias...e incluso predecir comportamientos.

Se espera que el marketing predictivo personalizado utilizando los datos sociales sea una de las áreas de negocio que más se beneficiarán de la minería (análisis) de big data en los próximos años, a pesar de que el 71% de los directores de marketing de todo el mundo dicen que su organización no está preparada para hacer frente a esta explosión de datos en los próximos 3 a 5 años (Business Insider, 12/05/2014). Y es que analizar estas montañas de datos que modo que se obtenga información útil no es tarea fácil, como lo muestra el hecho de que los grandes "recopiladores" intenten recurrir a la inteligencia artificial.

La cantidad de aplicaciones y usos posibles no ha dejado indiferente la Comisión Europea. Ha pedido a los gobiernos nacionales que “abran los ojos ante la revolución del Big Data” y, además de establecer una serie de centros de supercomputación de excelencia y crear una incubadora de datos abiertos, ha propuesto realizar una cartografía de normas sobre datos, identificando las posibles lagunas y proponiendo nuevas reglas en lo referente a la “propiedad de los datos” y a la responsabilidad del suministro de los mismos (TICbeat, 5/07/2014).

Quiénes y cómo

Facebook, Twitter, LinkedIn y otros están comenzando a utilizar técnicas de inteligencia artificial para desarrollar su capacidad de aprendizaje “profundo” a partir de los datos que acumulan a través de sus redes, desde las conversaciones hasta el reconocimiento facial de las fotos y la actividad en los juegos. Así, tienen el potencial de ser mucho más personalizados. Y hacen emerger nuevos campos de marketing: la agrupación de audiencia (clustering), el marketing predictivo y el análisis de los sentimientos frente a las marcas. Facebook dispone para ello de un laboratorio de investigación dedicado a la inteligencia artificial (IA); Google adquirió DeepMind, una compañía que agrupa los mejores talentos en IA y crea algoritmos de análisis para el e-comercio; LinkedIn compró Bright, una compañía parecida, que desarrolla algoritmos de selección de trabajos; Pinterest adquirió VisualGraph, que reconoce imágenes. (Wired, 24/04/2014).

Greg DeMichillie, director de gestión de productos de Google en la “nube”, anunció que, en 2015, la empresa se centrará en el lanzamiento de herramientas y servicios que facilitarán las operaciones con grandes datos. Será “Google Cloud Dataflow”, un servicio gestionado de procesamiento de datos, diseñado para crear canales de datos que “ingieran, transformen y analicen los datos, tanto en lotes como en flujos transmitidos”. (ComputerWorld, 26/06/2014). Pero van más lejos: la totalidad de nuestra información genética podría almacenarse en la nube gracias a Google Genomics. Tan sólo el genoma de una persona puede alcanzar los 100 GB de información. Google ya ha logrado conseguir la información genética de 3.500 personas y la almacena en los servidores de la compañía. Almacenar el genoma cuesta USD $25 al año.(FayerWayer, 7/11/2014). [¿Quedará separado de los otros datos personales y más privado, o también será comercializado a terceros?]

Microsoft ha lanzado un servicio en la nube llamado Azure Machine Learning (AzureML), un sistema de aprendizaje Automático (ML) que permite analizar los big data para reconocer patrones y extraer valor. Ofrece una interfaz tipo web de arrastrar y soltar para colocar fácilmente las piezas del rompecabezas y extraer información  sobre la base de conjuntos de datos complejos. (Evenbrite.ca, 13/11/2014).

IBM está invirtiendo miles de millones de dólares en su división de investigación dedicada a lo que llaman "computación cognitiva", un término que la compañía utiliza para referirse a las técnicas de inteligencia artificial relacionadas con su supercomputador Watson. Los esfuerzos de investigación son de largo alcance, e incluyen el desarrollo de componentes electrónicos conocidos como chips de neurosinápticos, que tienen características modeladas en base al funcionamiento de los cerebros biológicos y son más eficientes en el procesamiento información sensorial. A pesar de ello, algunas empresas e investigadores que han estado probando sistemas Watson señalan haber tenido dificultades para adaptar la tecnología y hacer que funcione con sus conjuntos de datos. "No está despegando tan rápido como les gustaría", señaló el profesor de administración en la Escuela de Negocios de Copenhagen, Robert Austin, que ha estudiado la estrategia de IBM durante los últimos años. "Esta es una de esas áreas en las que hacer que una demostración se convierta en algo de valor empresarial real depende de detalles poco conocidos." (TechnologyReview.es, 7/11/2014)

Y es que la "inteligencia artificial", si bien tiene unos 50 años de historia, aún tiene muy poco de inteligente. Aunque los sistemas más avanzados utilizan métodos inspirados en la estructura del cerebro (como las redes neuronales artificiales, simuladas en supercomputadores, que facilitan el reconocimiento de patrones) o sus procedimientos (como el reconocimiento de secuencias de operaciones), estamos lejos de acercarnos a la capacidad del cerebro humano (con sus 100 billones de neuronas, 10E15 conexiones y 10E27 operaciones por segundo y por neurona).   [Se describen algunos procedimientos aquí]
Más vale no hacerse ilusiones acerca de sus avances. Empresas como Netflix pueden extraer tendencias y ofrecer contenidos cercanos a los intereses de sus clientes (como también pueden hacerlo los medios de prensa), pero no se requiere inteligencia artificial para ello: solo un buen sistema de clasificación y una aplicación estadística básica.
Puede ser útil pero ¿hasta que punto es "inteligente" ofrecer "más de lo mismo" con estos sistemas de marketing predictivo?

7 de noviembre de 2014

Cómo nos cambia internet y cómo hacerle frente

La investigación tanto psicológica como neurológica ha avanzado rápidamente desde los inicios de internet y conocemos cada vez mejor las consecuencias de estar "permanentemente conectados". El cerebro es eminentemente plástico y las conexiones entre nuestras neuronas se reorganizan a cada momento. Cambian con las circunstancias, las experiencias y las necesidades. Escaneando cerebros mientras los sujetos hacían búsquedas en Google, Gary Small, catedrático de Psiquiatría en la UCLA, observó que los que más sabían de computadoras usaban una red especializada sita en la región frontal izquierda del cerebro, la corteza prefrontal dorsolateral, [mientras que] los neófitos en Internet mostraban mínima o nula actividad en esa área, y bastaron cinco horas de práctica en internet para que se activaran en quienes no conocían la red. El lóbulo frontal es el que controla la memoria a corto plazo y la toma de decisiones. Al pasar horas frente al computador, se somete al cerebro a una lluvia de estímulos que produce estrés y limita el tiempo para reflexionar y tomar decisiones adecuadas.

"La afluencia de mensajes en mutua competencia que recibimos cuando entramos en Internet no sólo sobrecarga nuestra memoria de trabajo, sino que hace mucho más difícil que nuestros lóbulos frontales concentren nuestra atención en una sola cosa. El proceso de consolidación de la memoria no puede ni siquiera empezar. Y gracias una vez más a la plasticidad de nuestras vías neuronales, cuanto más usemos la Web, más entrenamos nuestro cerebro para distraerse, para procesar la información muy rápidamente y de manera muy eficiente, pero sin atención sostenida. Esto ayuda a explicar por qué a muchos de nosotros nos resulta difícil concentrarnos incluso cuando estamos lejos de nuestras computadoras." concluye Nicolás Carr ("Superficiales", p.235).

Internet nos ayuda a encontrar y compartir información en forma más rápida y eficiente, pero reduce nuestra capacidad para el pensamiento profundo. Y lo más preocupante es que este cambio ocurre a nivel biológico, en la estructura de nuestro cerebro, y es tanto más profundo cuanto más tiempo pasamos en línea.

¿Cómo podemos hacerle frente?

El psicólogo Marc Berman, de la Universidad de Michigan, nos ofrece una solución basada en un estudio que publicó en la revista Psychological Science a finales de 2008: gozar con la naturaleza. Con su equipo, “reclutó a unas tres docenas de personas y las sometió a una rigurosa y mentalmente fatigosa serie de pruebas diseñadas para medir la capacidad de su memoria de trabajo y su capacidad para ejercer control de arriba abajo sobre su atención. A continuación, los sujetos se dividieron en dos grupos. La mitad de ellos pasó aproximadamente una hora de caminata por un parque arbolado y aislado de la urbe; y la otra mitad pasó la misma cantidad de tiempo paseando por las calles del bullicioso centro. Ambos grupos realizaron las pruebas por segunda vez. Los que habían caminado por el parque, según descubrieron los investigadores, demostraron «un rendimiento significativamente mejor» en las pruebas cognitivas, lo que indica un aumento sustancial de su atención. Caminar en la ciudad, por el contrario, no condujo a ninguna mejora en los resultados de la prueba. Después, los investigadores realizaron un experimento similar con otro grupo de personas. En lugar de salir a caminar entre rondas de pruebas, estos voluntarios simplemente contemplaron fotografías de tranquilas escenas rurales, en un caso, o de ajetreo urbano, en el otro. Los resultados fueron los mismos. Las personas que miraban fotos de escenas de la naturaleza fueron capaces de ejercer un control mucho más fuerte sobre su atención, mientras que aquellos que miraban escenas de la ciudad no mostraron mejoría de su atención. «En síntesis —concluyeron los investigadores—, las interacciones simples y breves con la naturaleza pueden producir un marcado aumento del control cognitivo». Pasar tiempo en el mundo natural parece ser de «vital importancia» para «afectar al funcionamiento cognitivo».” (N.Carr, pp.263-264).

¡Descanse!
Foto personal, Parque Torres del Paine (Sur de Chile)

31 de octubre de 2014

Análisis digital de imágenes y reconocimiento de objetos

Cuando vemos una fotografía o un cuadro, reconocemos con mucha facilidad sus componentes (como aquí un televisor, algunos gatos, unos libros, frutas). Pero es mucho más difícil lograr que un programa informático lo haga.

Hasta ahora se han multiplicado las aplicaciones de reconocimiento de caras, especialmente por el éxito de la fotografía con smartphones y las redes sociales. En este caso, los patrones de reconocimiento son bastante estables y se trata de un solo tipo de objeto (que funciona bien con vistas frontales pero no en otras posiciones; ver más abajo). Lograr una aplicación general, capaz de analizar cualquier fotografía e identificar cualquier objeto es mucho más difícil. Se recurre para ello a redes neuronales artificiales, las que se "aprenden" mediante repetición. Aunque el entrenamiento de una red neuronal es habitualmente producto de la intervención de "tutores" humanos que van señalando lo correcto o incorrecto hasta que el análisis logra la mayor eficiencia, los últimos trabajos relativos a la identificación de objetos en fotografías recurren a la "nube", donde existe una enorme cantidad de imágenes ya acompañadas de descripciones verbales. Así, se construye una gran base de datos de imágenes con su descripción y se ponen los computadores a repasarlas hasta lograr la tasa de reconocimiento automático esperada.

Entre los laboratorios de informática que abordan este problema está el de Google -como no- que ha desarrollado un sistema (GoogLeNet) que ganó el primer premio en el ImageNet large-scale visual recogniticion challenge (ILSVRC), un concurso organizado por expertos de las universidades de Stanford, Princeton y Columbia que se repite desde el año 2010. La Universidad de Toronto lo ganó en 2012 con su programa SuperVision, el que introdujo una nueva técnica llamada de "convolución profunda" en las redes neuronales, que revolucionó la "visión de máquina", acercándola por primera vez a la eficiencia de la visión humana. Este sistema recurre a múltiples capas de colecciones reducidas de neuronas que son enfocadas a distintas áreas de la imagen. Supervision tiene 650.000 neuronas agrupadas en 5 capas y afinan 60 millones de parámetros durante el proceso de entrenamiento. La simplificación por lo concursantes de este tipo de tecnología de entrenamiento ha sido fundamental y ha permitido duplicar en cuatro años la tasa de exactitud. Equipos de Adobe, la Universidad de Oxford y la Nacional de Singapur también concursaron y fueron premiados. Microsoft, por su parte, ha desarrollado el Project Adam, que pretende permitir a los usuarios identificar cualquier objeto haciendo una foto o incluso obtener información adicional como las calorias que contiene su cena. Para ello, pretende imitar el funcionamiento del cerebro humano con el fin de tratar de identificar un objeto en el menor tiempo posible. Todos compiten utilizando una misma base de datos (Imagenet) de 14 millones de imágenes encontradas en internet y previamente identificadas, dividas en 22.000 categorías diferentes. Google logró una tasa de error de 6,7%, mientras un observador humano entrenado obtiene una tasa de 1,7%. La diferencia se debe esencialmente a la dificultad -para la máquina- en reconocer imágenes alteradas por filtros, cosa que pocas veces impide el reconocimiento humano, mientras la máquina ya el gana al humano en ciertas definiciones de subcategorías (como las razas de perros, por ejemplo). (MIT Technology Review, 9/09/2014)

Identificación de personas 
Reconocer que algo es una cara o una persona, en una foto, es sencillo, pero la identificación de las personas es un problema diferente, especialmente debido a la enorma variedad genética (incluso ya presente en los neandertales), resultado de la presión evolutiva para que cada individuo sea fácilmente reconocible dentro de un grupo complejo y evitar así el caos social, como determinó un equipo de científicos, liderado por la Universidad de California en Berkeley (EE UU) que analizó los datos genéticos de poblaciones de África, Europa y Asia.
El profesor Domingo Mery, de la Escuela de Ingeniería de la Pontificia Universidad Católica (Chile), ganó la distinción al mejor trabajo presentado en una conferencia en Zurich sobre identificación por computador, pero identificación tomando en cuenta características "suaves". El profesor Mery explica que hay muy buenas herramientas para identificar rostros si la cámara los toma de frente, como en el pasaporte: eso es "biométrica dura". Así no es gracia reconocer. La biometría "suave" (soft biometrics) se fija en rasgos como edad, barba, maquillaje, género, anteojos, etnia, color de pelo, color de ojos, largo de los brazos y piernas, altura, peso, gestos, y más. Súper difícil de combinar tantos factores, pero de eso se trata.
El profesor Mery es tenaz; ganó su doctorado en Alemania porque ideó un programa de computador que identificaba, mediante una cámara de rayos X, fallas en las llantas de los autos. Después logró el reconocimiento de armas ocultas en los controles de aeropuertos, también con rayos X. Ahora investiga por un año sobre identificación de personas en los laboratorios de la Universidad de Notre Dame, en EE.UU. (El Mercurio, 15/09/2014).

24 de octubre de 2014

¿Controlarán la productividad de los empleados con los "wearables"?

Este año Chris Brauer de Goldsmiths, Universidad de Londres, pidió a los empleados en la agencia de medios Mindshare London usar uno de tres seguidores de actividad diferentes: una pulsera acelerómetro, un monitor de ondas cerebrales portátil o un entrenador de actividad física. Después de un mes, observó que la productividad había aumentado en un 8,5 por ciento y la satisfacción laboral en un 3,5 por ciento en general. El estudio de Brauer encontró que los dispositivos registran datos suficientes para realizar perfiles detallados de los empleados individuales: su estilo de vida, ejercicio y hábitos de sueño.
Muchas compañías - incluyendo BP, eBay y Buffer - ya alientan a sus empleados a usar trackers de actividad como el Fitbit, a menudo a cambio de descuentos en seguros de salud. Coca-Cola incluyó la app Shine, un monitor de sueño, en el programa de bienestar de sus empleados. En los almacenes de la cadena de supermercados británica Tesco, los trabajadores llevan brazaletes que hacen un seguimiento de adonde van, por lo que se los pueden enviar a tareas específicas según el lugar en que se encuentran. Varios bancos europeos, como también el Bank of America, hacen un seguimiento de sus empleados mediante insignias con sensores que captan la localización, la voz y los movimientos de su cuerpo.
Que una empresa se preocupe de la salud de sus emnpleados es favorable tanto para ellos como para ella. ¿Pero seguirlos a todas partes? ¿Verificar sus actividades y tomar decisisones en base a los datos recogidos?
Algunos tribunales estadounidenses ya han lidiado con estas preguntas, al menos cuando se trata de los herramientas de seguimiento más comunes como los trackers de GPS en equipos de la empresa. Varios estados, incluyendo California y Texas, tienen leyes que impiden el seguimiento de los equipos sin consentimiento expreso. Pero en la mayoría de los estados es legal para las empresas equipar a sus empleados con elementos vestibles, siempre y cuando tengan claro qué seguimiento se está realizando y por qué. (De Newscientist.com, 20/10/2014).

Noticias

* Un estudio de Thomson Reuters apunta que los casos de difamación en Redes Sociales aumentó un 300% en el último año y un 85% en medios de comunicación. También remarca el auge de las denuncias interpuestas por personajes conocidos ante situaciones de difamación en el último año (PRnoticias, 20/10/2014).

* Según Jeremy Rifkin, un teórico de la sociología y las ciencias económicas, la era digital está en condiciones de impulsar el sistema económico hacia una realidad nueva enmarcada en el "común colaborativo" (collaborative commons). Se trata, a su juicio, del primer cambio de paradigma económico que se produce desde el capitalismo y el socialismo a principios del siglo XIX. Lo apoya la canciller alemana, Angela Merkel, quien calificó de "extraordinariamente importante" el objetivo de lograr una regulación europea de protección de datos en internet que posibilite el comercio digital seguro y la oferta de productos en el espacio europeo. "Europa debe ser un espacio común digital. Si lo hacemos bien y utilizamos las oportunidades que nos brinda la digitalización, al final del proceso no tendremos menos puestos de trabajo, sino más", dijo.

17 de octubre de 2014

¿Ya no hay novedad en los videojuegos?

Son múltiples los géneros de videojuegos. Los más populares parecen ser los de acción (especialmente los de disparos o shooters, como Halo), los de estrategia (como Age of Empires), los de deportes (FIFA) y carreras (p.ej. Need for Speed) y los de simulación (como The Sims o Microsoft Flight Simulator). Los de aventura alcanzaron cierto nivel de popularidad en los años 80 y hasta mediados de los 90, aunque aparecieron algunos títulos en 2005 y, mezclando aventura y acción, títulos como los de la saga Assassin's Creed. Y no se pueden olvidar los juegos de rol (RPG), como el famoso Dungeons & Dragons y el MMORPG (Massive Multiplayer Online RPG) World of Warcraft.

Recientemente se estrenó Destiny, un juego que habría costado 500 millones de dólares (una parte importante de ellos en publicidad), la obra más cara de toda la historia. Una gráfica excelente, en un marco en que la gráfica ha mejorado constantemente gracias al poder creciente de los procesadores gráficos de los clientes y del software de los diseñadores. ¿Pero que hay de las rutinas de juego? Es aquí que surgen las críticas: "una cascada eterna de rutinas que se repiten dolorosamente" dice "El Mundo", que agrega que "lo ideal sería que la industria fuera capaz de volver a tratar de arriesgar con nuevas ideas e historias".

¿Cuáles son las novedades?

La modalidad más novedosa es la de los eSports, juegos en línea, para varios jugadores, que pueden pertenecer a alguna de las categorías ya citadas, pero aquí apuntan a ganar dinero. Tiene varios torneos importantes en los 5 continentes, como la WCG (World Cyber Games), CB (Clan Base), ED (Enemy Down) o la ESL (Electronic Sports League). Entre los juegos utilizados están, por ejemplo, diversas versiones de World of Warcraft, Battlefield, Call of Duty, Unreal Tournament, Halo, etc.

Los juegos más novedosos parecen ser los de realidad aumentada: una "realidad alternativa" acompañada de videos en YouTube, hangouts, contenido multimedia en web y hasta eventos que envolverían al público en el mundo real. Un ejemplo es el novedoso  Endgame, creado por James Fray (junto a una trilogía de novelas impresas). 

Microsoft parece haber captado el desafío: presentó un proyecto llamado RoomAlive, que pretende convertir nuestra habitación en una completa experiencia de juego en la que podamos interactuar de forma completa. Para ello, será necesario instalar una serie de proyectores en el techo de la habitación, que funcionarán de forma conjunta con seis Kinect y permitirán que los jugadores puedan moverse por la habitación y sentirse parte del juego. Las posibilidades son tales que incluso se podrá interactuar con los objetos del juego, pudiendo incluso disparar a las paredes y ver cómo se rompen.  Vídeo

10 de octubre de 2014

¿Puedo estar bien informado hoy con internet?

Cómo consultar múltiples fuentes
Es posible que, para muchos, leer un diario local en internet sea una buena manera de mantenerse informado. Pero no hay que olvidar que muchos canales de televisión y radios también tienen su página informativa en la web. En cuestiones de periodismo, ya no existen muchas distinciones entre los "medios tradicionales" que se plegaron a la red. ¿Pero que ocurre si mis intereses van mucho más allá de las noticias locales?
Personalmente, me interesa, por ejemplo, saber lo que ocurre con los medios de comunicación en todo Iberoamérica. Incluso escogiendo un solo medio por país, no es posible revisar diariamente los titulares de todos los diarios, por el tiempo que tomaría. ¿Que hacer? Hoy, lo más simple es escoger los medios que ofrecen una versión sindicada (RSS) y registrarlos en un lector adecuado. Aún así, la lista de titulares recibidos es larga y no es fácil detectar los artículos que pueden ser relevantes, a menos que el lector de RSS ofrezca la posibilidad de aplicar un filtro. Es el caso de G2Reader, que recomiendo por ello. Ahí, podemos ingresar (una vez por todas, pero siempre ajustable) las palabras claves que estimemos adecuadas y nos aparecen subrayadas (con un fondo de color) en la lista de títulos. Aún así, es difícil tener una visión de conjunto y, por esta razón, publico los resultados de mi búsqueda con G2Reader y con algunas suscripciones en Twitter en estos dos mismos medios: http://flip.it/oNTcJ y @recinet. (Hago este ejercicio desde hace varios años y pueden leer el resultado acumulado -y más comentarios sobre este tipo de investigación- en el capítulo 5 del e-libro Estudios sobre la Prensa Digital Iberoamericana.).

¡Que vivan las "plataformas"!
Solo he dado un ejemplo y es evidente que vale para muchos otros temas. Y no solo en el campo periodístico. También vale en materia de información científica. Los académicos e investigadores tienen cada vez mayores dificultades para mantenerse al día en su propio campo de estudio ante la profusión de publicaciones en la web. Si bien Google Academics puede ser una ayuda, no es un sistema muy adecuado para hacer un seguimiento permanente de una serie de publicaciones. Es cuando agradecemos a los inventores de algunas "plataformas" que se encargan de reunir y difundir los títulos nuevos de conjuntos de revistas de un mismo ámbito. Mi especial aprecio, aquí, por la "Plataforma Latina de Revistas de Comunicación" que, si bien no las reúne todas, hace un esfuerzo no despreciable. En materia científica en general, es interesante la Plataforma SINC pero solo sigue a investigadores españoles. Sería útil que este tipo de esfuerzo se amplíe y se multiplique. 

Reinventar el espacio de noticias para cautivar al usuario
En el encuentro Social Media Summit, realizado en Londres, a principios de la semana, se señaló que en los últimos 15 años, los medios de noticias tienen la tendencia a caer en ser “exactamente iguales” (Videos en Youtube). Pero se multiplican las voces que, como nosotros, reclaman una mejor "asociación" con los lectores y experiencias que desmuestran que, a los medios de prensa, les va mejor cuando se ajustan mejor a los equipos de los lectores (con páginas web que se ajustan, por ejemplo, al ancho de la pantalla, lo que se llama diseño "responsive"). Y aún más si ofrecen contenidos que se acercan los intereses de los lectores. Ante los problemas económicos que enfrentan (sobre todo los que han partido de sus versiones impresas), muchos han respondido con los llamados “muros de pago” (paywalls), es decir con el acceso pagado a parte o a la totalidad de su contenido. Pero es dudoso que el resultado sea positivo si el lector no se ve compensado por una experiencia realmente gratificante. Y es también dudoso que lo sea si no recibe loque desea en la forma más eficiente que la web puede ofrecer hoy. Si entro al sitio de Amazon, me identifica de inmediato, recuerda las compras y las búsquedas que he realizado en el pasado y me ofrece de inmediato productos que se inscriben en los intereses que ha deducido de estas informaciones conservadas en su base de datos. Hace años que opera de este modo. ¿Por que no lo hacen los diarios? Sin duda guardan sus noticias en bases de datos y las clasifican. También guardan información sobre sus lectores y suscriptores (especialmente si tienen muros de pago). ¡Es incomprensible que no ofrezcan aún a los lectores registrados noticias seleccionadas de acuerdo a sus intereses! ¡Hay un amplio espacio aquí para "reinventar el espacio de noticias" y cautivar así el lector! [En el I Congreso Internacional Latina de Comunicación Social, en 2009, hice una detallada ponencia sobre la construcción de este tipo de hiperinformativo.]

¿Cómo descartar rumores aunque se transformen en "trending topics"?
Emergent.info apunta más allá de otros sitios similares como Snopes.com, pues por ejemplo este último es un trabajo básicamente manual de ir verificando información con Google, mientras que Emergent.info utiliza algoritmos y bases de datos para rastrear cómo se va diseminando por la Internet una información de dudosa veracidad. Por ejemplo, su script va chequeando las historias en los distintos sitios web para ir revisando si modifican el texto, o cuenta cómo estas se van diseminando por los diversos ecosistemas de redes sociales como Facebook o Twitter.

Actualización:
Apareció  News Republic, un sindicador de noticias para smartphones, tabletas y wearables que permite elegir y concentrar todas las noticias en una única app, pudiendo personalizar los temas que aparecen en nuestra página de inicio e incluso elegir las noticias que queremos que nos muestre según nuestro estado de ánimo. Además, la app va aprendiendo poco a poco de nuestros gustos para adaptar los contenidos que nos muestra. (Video)

3 de octubre de 2014

¿Deben los periodistas aprender a programar?

Es indudable que los periodistas de hoy deben saber usar los nuevos medios que ofrece internet. Pero ésto no implica saber programar y menos aún que se deba enseñar a programar en las escuelas de periodismo.

Veo al periodista como un usuario, aunque especializado. Su misión no es crear medios, que es lo que implica la función de programar (a mi entender).

Aprendí a programar hace unos 40 años pero he pasado pocas veces más de 5 años usando el mismo lenguaje de programación. Los lenguajes de programación evolucionan rapidamente, y ésto ha sido particularmente notorio en el caso del HTML que, de ser muy simple y elemental en los años 90, ha llegado a la versión 5, que es sumamente compleja. Es muy bueno para los usuarios, que ganan con ello muchas facilidades de comunicación, pero ha ido alejando a los aficionados a crear páginas o servicios web. Al mismo tiempo los expertos han tenido el buen ojo de crear servicios que permiten a los aficionados generar estos mismo productos sin la necesidad de saber programar (Acabo de ver, por ejemplo, Enjoycss, un editor online para generar código CSS3 http://enjoycss.com/; otros, como Layoutit, ofrecen crear webs adaptables http://www.layoutit.com/). Creo que hay muchas interesantes alternativas para aprender y practicar, sin complicarse con la programación "dura" con un conocimiento que queda rápidamente desfasado. Muchos ingenieros en informática me han dicho que a los 5 años de egresados se han quedado obsoletos y deberían haber vuelto a estudiar para seguir en lo mismo (se están dedicando a otras funciones ingenieriles).

Así, la realidad es que NO se asegurará a ningún alumno que, aún aprendiendo cómo programar hoy -por ejemplo- una página web "responsive" o una app, le servirá de algo dentro de 4 o 5 años.

¿Que es lo más importante y debería ser sabido por todos los comunicadores?
ENTENDER muy bien los conceptos y mecanismos fundamentales: cómo operan las redes, qué es y cómo debe ser la interfaz de usuario ("user interface design"), qué es la interactividad y cómo se logra en forma eficiente, qué es el diseño "responsive", qué es el "tracking", las bases de datos, los big data, etc... ¡Hay temas más que suficientes (e indispensables) para llenar un primer curso mínimo! Después ,en otro semestre, se podría pasar al taller de producción de prototipos, con las herramientas que faciliten la creación sin "programación dura" a las que aludí antes. Y si se quieren formar especialistas en comunicación multimedial, se podrá pensar después en recursos más profesionales y en abordar problemas más compeljos como la seguridad digital. 
¡No olvidemos nunca que el avance de la computación es vertiginoso!

Un complemento que puede ser de interés:
12 predictions for the future of programming
(El n°4 trata de JavaScript, pero no todos están de acuerdo en que JavaScript sea importante: algunos expertos anuncian su abandono)

Vea también: La formación de e-comunicadores

26 de septiembre de 2014

Anunciantes descontentos con Facebook

Facebook se ha convertido en un gigante de la publicidad, con ingresos de US$ 12.200 millones previstos para este año, en competencia directa con los sitios de las empresas de medios. Y la forma en que recolecta y luego vende los datos de sus usuarios dejó de complacer a muchas empresas que publicitan en la red social.
Hace tres meses, comenzó a usar los datos para elaborar perfiles más detallados de sus usuarios, lo que pretende permitir a los anunciantes presentar publicidad más personalizada. Pero estos datos incluyen información acerca de todos los sitios web visitados en que está presente el código de conexión con Facebook, como en el caso de los botones "Me gusta" y "Compartir" (aunque no se haga clic en ellos, la visita es registrada e informada a la red social), lo cual quiere decir que a cualquier anunciante se le avisa de las eventuales visitas a los sitios de sus competidores, ayudándole a dirigir publicidad contraria a sus rivales.
Facebook señala que los anunciantes pueden optar por no permitir que sus datos sean usados en el envío de publicidad personalizada, pero en este caso tampoco pueden apuntar a usuarios basándose en datos reunidos de otros sitios.
John Strabley, director de estrategia de Quaero, una firma que ayuda a empresas a administrar datos de clientes que obtienen en línea, dice que muchos de sus clientes preferirían no compartir información con Facebook. "Puedo prácticamente garantizar que el valor que obtienen las empresas de eso no vale la pena", asegura.
Ghostery, que ofrece una extensión para bloquear los "trackers" (seguidores de navegación) como los de Facebook, ha descubierto que los códigos de Facebook envían datos a la red social con más frecuencia que nunca pero que desde el segundo trimestre han disminuido en algunos sitios muy conocidos como los de The New York Times, Airbnb y Abercrombie & Fitch Co.
Otras empresas y redes sociales rastrean historiales de navegación de usuarios para facilitar la publicidad personalizada pero tienen generalmente mucho menos información sobre los usuarios. Los anunciantes aseveran que enviar información a Google no les asusta tanto como proveer datos a Facebook. [Según información del Wall Street Journal]

Otros temas
* "Lo que hay que saber sobre pagos móviles": un excelente artículo en Gizmologia 

* Actualización del post de la semana pasada (Economía colaborativa)
"Europa tiene que aceptar y abrazar la 'disrupción'. Las viejas formas de hacer las cosas tienen que enfrentarse a la competencia que los obliga a innovar", escribió Eric Schmidt en un artículo de opinión de Digital Minds for a New Europe, la nueva serie de tecnología de la Comisión Europea. "Uber, por ejemplo, está sacudiendo el mercado de los taxis para bien. Ofrece a los viajeros tarifas más baratas y convenientes; es comprensible que la industria del taxi sea infeliz", dice (Venturebeat.com, 22/09/2014). Con Uber y sus semejantes -que posiblemente no sean la única causa-, San Francisco (CA) ha visto bajar en 65% el uso de sus taxis desde marzo 2012 (Theatlantic.com, 17/09/2014). Mientras los EEUU acogen al sistema de auto compartido, muchos conductores dejando las empresas de taxis -y su protección- para trabajar en forma independiente con sistemas como Uber, Europa parece más empeñada en proteger el viejo sistema de fuertes protecciones para los trabajadores y horas regulares de trabajo. "Las nuevas empresas que promueven nuevas ideas no deben ser frenadas por obstáculos burocráticos o reglamentarios [como los europeos]", dice Schmidt.
* Más sobre Uber en El Mundo de la Tarde 
* Hay páginas europeas como Blabacar.es o Roadsharing.com donde conductores y peatones publican sus rutas de viaje para compartir el auto, con el número de cupos y el monto a pagar (más colaborativo y más privado que Uber).
* Para España: Una nueva «app» colaborativa (http://compartirtrenmesaave.com/) ofrece encontrar a gente con quien viajar en AVE más barato (compartiendo una «mesa» con otros tres pasajeros) y ya tiene 10.000 usuarios.

19 de septiembre de 2014

Hacia la economía colaborativa y personalizada

La economía del compartir

La cooperación entre las personas, mediante diversos tipos de aplicaciones, tanto para compartir recursos como vehículos (como Uber) o residencias (como Airbnb) así como para realizar trabajos están demostrando un éxito que responde a la naturaleza más profunda del ser humano, como señalan algunos biólogos y científicos cognitivos. La colaboración tiene una larga historia en el campo del desarrollo de software (a través, por ejemplo, de las aplicaciones Open Source), como lo muestra la existencia de 6 millones de usuarios y 300.000 proyectos colaborativos registrados en el sitio especializado GitHub. Un estudio reciente (Yuya Yoshikawa y colaboradores, Jaón) ha mostrado que el éxito está ligado significativamente, en este tipo de proyectos, a la cantidad de colaboradores, siendo los más eficientes los que tienen en 2 y 60 participantes y los más populares los que tienen más participantes. (MIT Technology Review, 4/09/2014).
Pero no hace tanto que este sistema ha aparecido y se está dinfundiendo en muchos otros campos a través de la web introduciendo lo empieza a llamar "Sharing Economy", de la que autoridades y economistas que no alcanzan a visualizar aún el impacto futuro (Ver Wired ), el que bien podría significar un cambio radical en amplias áreas comerciales. Las protestas de los conducatores de taxis y la prohibición de Uber en diversas ciudades ya muestran lo perturbador que puede ser.
Ante la multiplicación de los servicios, podemos intentar una categorización: la cocreación o crowdsourcing (como el desarrollo de software u otros proyectos profesionales), el cofinanciamiento o crowdfunding, los servicios personales (como Uber y Airbnb) y la formación de colectivos para obtener beneficios (como las compras al por mayor). 
El crowdsourcing, sistema para encontrar personas dispuestas a colaborar en determinados trabajos y el crowdfunding para emprendimientos se han convertido en un método muy conocido entre los profesionales pero también entre los estafadores. El crowdfunding reunió -en KickStarter e Indiegogo-  138 millones de dólares en 2011 y 1.170 millones en 2013, con 43,4% de éxito en KickStarter y 9,8% en Indiegogo. Las contribuciones más frecuentes furon de 10 a 25 dólares y la duración promedio de las campañas de 35 días. (Ecommerce.shopify.com, 5/09/2014).
El campo de las aplicaciones de oficina también ha ido moviéndose hacia el modelo colaborativo, al tiempo que se han ido transfiriendo a la nube tanto el Office de Microsoft como sus competidores (Google Docs y otros). Ha aparecido una "nueva forma de trabajar", gracias a la nube y a la posibilidad de que varias personas trabajen en un mismo documento y desde distintos lugares. La tendencia es tan clara que Google celebró el décimo aniversario de su negocio para empresas con cambio de nombre: a partir de ahora Google Enterprise se llamará Google for Work. "Mientras la denominación ‘Enterprise’ se asociaba mucho a la empresa tradicional, el nuevo nombre se identifica con otra manera de trabajar, con un entorno laboral más inspirador y a las tendencias en auge del mercado como la consumerización, la movilidad…”, explicó a TICbeat Isaac Hernández, director general de Google for Work para España y Portugal (TICbeat, 3/09/2014). 
Estas nuevas fórmulas de mercado laboral pueden dinamizar la creatividad,  constituir el punto de encuentro entre personas que quieren aportar una solución o que están incentivando sus ideas, pero un artículo publicado en MIT Technology Review advierte que las cosas no siempre tienen un final feliz. El nuevo fenómeno ha recibido el nombre de crowdturfing (combinación de crowdsourcing y astroturfing, el apoyo mediante falsas reputaciones en redes sociales) y ha sido reseñado hace ya tres años por un equipo de investigadores de la UC Santa Barbara (EEUU) liderado por Ben Zhao, que demostró que 80% de la actividad de dos plataformas de crowdsourcing importantes en China se basaba en comentarios falsos, envío de enlaces maliciosos, falsas campañas de apoyo o manipulación de buscadores. Otro estudio reciente realizado por Kyumin Lee de la Utah State University mostró lo mismo en Fiverr, otra plataforma de crowdsourcing muy popular en los EEUU. Las conclusiones son claras: la manipulación a través del crowdturfing reduce la calidad del contenido en las redes sociales, disminuye la confianza en los motores de búsqueda y amenaza la seguridad de los servicios web (FayerWayer, 9/07/2014). Y lo que vale para el crowdsourcing vale para los otros ámbitos de los sistemas colaborativos: siempre habrá estafadores y siempre será necesaria la prudencia. 
También pueden aparecer prácticas desleales. Así, si Uber es un buen ejemplo de la nueva "economía colaborativa", es también -lamentablemente- un ejemplo de falta de ética en este campo. Hace un par de semanas, Lyft (uno de sus competidores) emitió un comunicado en el que ponía de manifiesto cómo los conductores de Uber en Nueva York solicitaban y cancelaban coches de Lyft de manera constante, entrabando la operación de éste. Uber se defendió diciendo que las acusaciones eran falsas pero el medio especializado “The Verge” se ha hecho con documentación interna de empleados y trabajadores externos de Uber que demuestran fahacientemente las malas artes de Uber. Trabajadores externos de Uber se llevan una comisión por cada conductor de Lyft que reclutan. Para llevar a cabo su actividad cuentan con dos teléfonos ofrecidos por Uber y tarjetas de crédito que les sirven para pagar sus viajes en Lyft mientras mantienen conversaciones con sus conductores para tratar de conseguir que los conductores de Lyft se pasen a Uber y así poder ofrecer una mayor flota de coches. (Más detalles sobre el caso Uber en Actualidad Gadget, 27/08/14).

Estadísticas de la economía colaborativa

La economía personalizada

El comportamiento del consumidor está evolucionando como resultado de la tecnología y los negocios han de competir para salir adelante reaccionando a ella o arriesgarse a desaparecer. La transformación digital  exitosa se  ha de basar en esfuerzos para entender cómo se ve afectada la experiencia del cliente, tratando de establecer con él una relación personalizada. Así, mientras los "big data" pueden ayudar a orientar los procesos productivos y los sistemas de distribución, el análisis a nivel de "little data" (datos significativas para cada cliente) puede hacer que el consumidor se sienta mucho mejor atendido. Aquellas empresas que invierten más en aprender acerca de los comportamientos, preferencias y expectativas de sus clientes digitales y logran adaptarse, tendrán una importante ventaja competitiva sobre aquellos que se demoran más en averiguarlo, dice B.Solis (Wired, 18/04/2014). Un estudio llevado a cabo en países como Alemania, China, Gran Bretaña, Francia, Estados Unidos, Canadá y Japón por la agencia de relaciones públicas Fleishman-Hillard también mostró que los consumidores confian más en las empresas que promueven “el diálogo activo con sus clientes” en la red (Noticiasdot.com, 15-11-2010). Amazon ha sido una de las empresas pioneras al utilizar las compras y las búsquedas realizadas por cada cliente para ofrecerle productos que podrían interesarle así como comentarios de otros compradores. Pero harán falta de 3 a 5 años que este tipo de relación entre empresas y clientes se generalice ya que, actualmente, el 71% de los directores de marketing de todo el mundo dice que su organización no estará preparada antes para hacer frente a la acumulación de datos y a su análisis (Business Insider, 12/05/2014).
Algo parecido se abre camino en los medios de comunicación digitales: Netflix recoge el historial de visitas y espero poder ofrecer selecciones personalizadas de aquí a 2025 mientras Rovi  está trabajando en una tecnología que permitirá a las compañías de cable personalizar la guía de televisión y hacer que sea más fácil encontrar lo que se quiere ver cuando se quiera, con recomendaciones basadas en lo que los espectadores han visto antes o han comentado en las redes sociales (Wired, 24/06/2014). 

Actualización Post del 8/08 (Recursos para la acumulación personal de conocimiento)

Citable: Extensión del navegador Chrome para guardar enlaces y notas en las Hojas de cálculo de Google. Con forma de Post-it, permite guardar la URL, la fecha, el título de la página, el autor del artículo y da la posibilidad de agregar etiquetas, una nota o incluso seleccionar el texto que deseamos destacar de la página o utilizar como referencia. Este contenido se guarda  como una hoja de cálculo en nuestra cuenta de Drive, en una carpeta “Citable”. Ofrece incluso opción de imprimir en forma de post-it, así como la opción de exportarlos en formato Bibtex. (WwwhatsNew, 16/09/2014).

12 de septiembre de 2014

La batalla de los relojes

El 9 de septiembre Apple lanzó su esperado reloj, que llamó Apple Watch y no el esperado iWatch (probablemente porque la marca Swatch ya tenía un iSwatch). Trae su asistente de voz Siri, una comunicación reloj-a-reloj (como walkie-talkie), pagos con NFC (¡con comisión para Apple!) y tiene una app dedicada a la actividad física, un monitor cardiaco y un acelerómetro. Para el GPS y WiFi se necesita el iPhone. Nada nuevo en realidad e incluso menos que el Samsung Gear S, que funciona sin necesidad de teléfono ya que cuenta con conectividad 2G/3G para realizar llamadas, tener una lista de contactos, enviar y recibir mensajes, emails y también dispones de un teclado QWERTY virtual, además de ser capaz de recibir notificaciones. Éste también cuenta con varios sensores, como un acelerómetro, giroscopio, brújula, monitor cardíaco, barómetro, sensor de luz ambiental y un sensor ultravioleta. 

Motorola lleva mostrando su smartwatch Moto 360 desde hace meses, pero este solo sirve para tres cosas: notificaciones, cuantificar el movimiento y dar la hora. En la gran feria IFA de Berlín, a principio de mes, Sony presentó el Smartwatch 3, con una autonomía de unos 5 días (cosa poco común), recepción de emails y redes sociales, y LG presentó el G Watch R. Ambos traen el sistema operativo Android Wear, lo que los abre a numerosas apps. Pero hace ya algún tiempo que el Pebble -que fue financiado por Kickstarter y fue premiado como el mejor en la CES 2014- permite recibir hasta videos en la pulsera, con Foursquare, GoPro y Pandora, plus muchas apps de notificación, fitness, meteo, juegos, etc. ¡Todo un desafío para los grandes fabricantes!

Así que el Apple Watch llega un poco atrasado y sin funciones novedosas, cosa que desilusionó a muchos fans de Apple. Pero "Apple está tratando de aprender es cómo vender un producto de moda en vez de uno de electrónica de consumo", dicen en Gizmodo.

Todos los fabricantes (menos Pebble y las pulseras que son primordialmente "fitness trackers") han apostado por una esfera (pantalla) con punteros analógicos. Y es que los relojes digitales con meras cifras nunca han tenido éxito (se probaron con calculadoras, en los años '70). La batería es el punto flaco común a todos los smartwatch hasta ahora (salvo Sony): una carga diaria para un wearable no es algo del agrado de nadie, nos dicen con razón en Xataka.

El aporte quizás más significativo del nuevo Apple Watch parece ser la recarga inalámbrica, lo que puede representar el "pistoletazo" para nuevas formas de alimentar las baterías de los "wearables" y que podría permitir en el futuro que se carguen casi continuamente. Ya existen tres alianzas en competencia en materia de carga inalámbrica. La Aliance For Wireless Power (A4WP), que cuenta con socios como Intel, Samsung o Qualcomm, recurre a la resonancia magnética, mientras que las alianzas Wireless Power Consortium (WPC), que incluye a Nokia y Philips, y la Power Matters Alliance (PMA), que tiene acuerdos con Procter & Gamble o Starbucks para ofrecer zonas de carga, apuestan por la carga inductiva, como parece hacer Apple (que no pertenece a ninguna alianza). 

Actualización del Post del 8/08 (Recursos para la acumulación personal de conocimiento)
Si entiende francés encontrará una excelente solución para administrar tanto su agenda como todas sus referencias y los documentos que desee en la aplicación Tamtam Free, de descarga gratuita en http://www.tamtam.fr/ (para Windows). Las funciones multi-usuarios y multi-colecciones (y algunas otras como búsquedas dentro de los documentos citados) dejan de ser operativas después de 2 meses a menos que se compre la versión Plus (29 euros). Por ahora no cuenta con la posibilidad de importar (por ej.archivos en CSV o de planillas Excel), lo cual puede ser un importante factor en contra para quienes ya tienen éstos con sus datos.