EL BIG DATA y ….?

internacional Noticias

Por GUSTAVO TORRES R.

Estamos en medio de una pandemia, estamos aislados, trabajamos on line, somos conscientes que viviremos en un mundo con hábitos distintos, no sabemos cuando o como, tenemos angustia emergente de esas inseguridades. Mientras en algunos lugares del mundo, poderosos se disputan el poder, el poder de manejar todos los datos que generamos, que el 5G, que la BIG DATA, y siguen mas, sin que podamos decidir en nada, mantener alguna dosis de privacidad; GRAN HERMANO esta muy activo, no pretendemos ser paranoicos, pero….

Al menos aprendamos, sepamos, conozcamos, desde el portal una aproximación a la BIG DATA; esto es el comienzo, habra mas. Agradecemos a Esteban Magnani y a la Revista ANFIBIA.

El poder de los datos masivos

HACETE AMIGO DEL BIG DATA

Por Esteban Magnani; Ilustración Sebastian Angresano

Los gurúes del Big Data dicen que si se cruzan datos suficientes todo sería predecible. El poder de los datos masivos combinados con inteligencia artificial ya ha demostrado que puede prever el comportamiento humano y modificarlo. Google puede vaticinar el próximo éxito cinematográfico: saben que trece búsquedas relacionadas con una nueva película se traducen en una entrada vendida. Sensores en medios de transporte «adivinarían» qué pieza será la próxima en romperse. ¿Hay un límite para asignar tareas a los algoritmos? ¿La educación? ¿La gestión democrática? El periodista especializado Esteban Magnani advierte los peligros y recomienda amigarse con las estadísticas.

En la famosa serie de ciencia ficción conocida como “Fundación”, el científico, escritor, químico, divulgador (y más) Isaac Asimov apoya la trama sobre la psicohistoria, una ciencia ficcional capaz de predecir el futuro de la sociedad aunque no los comportamientos individuales. La idea se inspira de las fórmulas que permiten conocer verdades estadísticas como el comportamiento de una masa concreta de gas pese a la imposibilidad de prever el comportamiento de cada molécula. Lo que se obtiene es una suerte de verdad estadística comprobable.

Para que funcione, la psicohistoria requiere dos condiciones: que se aplique sobre gigantescas cantidades de seres humanos y que esos humanos desconozcan sus conclusiones. Quienes vean el futuro tendrán la irreparable tentación de modificarlo: de hecho, eso es lo que ocurre en Fundación, donde el protagonista intenta reducir la etapa de caos de treinta mil años prevista por sus análisis a solo mil.

¿Y entonces? ¿Llegó el momento de la psicohistoria? ¿Se ha logrado reunir, procesar y explotar los datos suficientes como para leer el futuro y operar estadísticamente sobre él? El poder de los datos masivos (o Big Data) combinados con una inteligencia artificial que aprende por prueba y error han dado pruebas de su capacidad tanto para prever el comportamiento humano como para modificarlo: ya se utiliza para ofrecer productos solo a potenciales compradores, disputar una agenda mediática y también para influir en las elecciones. Las manipulaciones mediáticas, la publicidad a gran escala e indiferenciada pese a todos sus éxitos para generar compras, votos y climas sociales, parecen torpes intentos primitivos comparadas con lo que está llegando.

Estadística mata entendimiento

Google, Facebook, Amazon, entre otros, comprobaron hace ya mucho el poder de los datos y sobre ellos montaron un meteórico imperio en una década y media. Otros como Microsoft o Apple, fundados sobre otros modelos, timonearon presurosos sus barcos hacia la nueva tierra prometida.

Algunos ejemplos ya son conocidos: Google Translate, lanzado en 2006, se dedicó a la dificultosa tarea de traducir todo lo que le dieran. La corporación no contrató a miles de lingüistas y traductores, sino a ingenieros (en su mayoría monolingües), para que crearan algoritmos. Estas fórmulas basadas en órdenes lógicas son la base de la inteligencia artificial cuya característica principal es su capacidad de aprender por medio de prueba y error para mejorar sus resultados. Para comenzar se los alimentó con miles de libros (acumulados a través de Google Books, por cierto) en distintos idiomas. Los algoritmos comenzaron no solo a “entender” cómo se remplazaba cada palabra en otro idioma, sino también a ver cómo esas relaciones variaban según el contexto: obviamente estas fórmulas no entienden lo que hacen, o “hablan” los idiomas que traducen, pero logran mejorar constantemente sus resultados gracias a la fuerza bruta de las estadísticas. Al soltar ese algoritmo en la selva de la red y preguntar si las traducciones sirvieron o no a los usuarios, es solo cuestión de tiempo hasta que el sistema mejore lo suficiente.

En la famosa serie de ciencia ficción conocida como “Fundación”, el científico, escritor, químico, divulgador (y más) Isaac Asimov apoya la trama sobre la psicohistoria, una ciencia ficcional capaz de predecir el futuro de la sociedad aunque no los comportamientos individuales. La idea se inspira de las fórmulas que permiten conocer verdades estadísticas como el comportamiento de una masa concreta de gas pese a la imposibilidad de prever el comportamiento de cada molécula. Lo que se obtiene es una suerte de verdad estadística comprobable.

Para que funcione, la psicohistoria requiere dos condiciones: que se aplique sobre gigantescas cantidades de seres humanos y que esos humanos desconozcan sus conclusiones. Quienes vean el futuro tendrán la irreparable tentación de modificarlo: de hecho, eso es lo que ocurre en Fundación, donde el protagonista intenta reducir la etapa de caos de treinta mil años prevista por sus análisis a solo mil.

¿Y entonces? ¿Llegó el momento de la psicohistoria? ¿Se ha logrado reunir, procesar y explotar los datos suficientes como para leer el futuro y operar estadísticamente sobre él? El poder de los datos masivos (o Big Data) combinados con una inteligencia artificial que aprende por prueba y error han dado pruebas de su capacidad tanto para prever el comportamiento humano como para modificarlo: ya se utiliza para ofrecer productos solo a potenciales compradores, disputar una agenda mediática y también para influir en las elecciones. Las manipulaciones mediáticas, la publicidad a gran escala e indiferenciada pese a todos sus éxitos para generar compras, votos y climas sociales, parecen torpes intentos primitivos comparadas con lo que está llegando.

Estadística mata entendimiento

Google, Facebook, Amazon, entre otros, comprobaron hace ya mucho el poder de los datos y sobre ellos montaron un meteórico imperio en una década y media. Otros como Microsoft o Apple, fundados sobre otros modelos, timonearon presurosos sus barcos hacia la nueva tierra prometida.

Algunos ejemplos ya son conocidos: Google Translate, lanzado en 2006, se dedicó a la dificultosa tarea de traducir todo lo que le dieran. La corporación no contrató a miles de lingüistas y traductores, sino a ingenieros (en su mayoría monolingües), para que crearan algoritmos. Estas fórmulas basadas en órdenes lógicas son la base de la inteligencia artificial cuya característica principal es su capacidad de aprender por medio de prueba y error para mejorar sus resultados. Para comenzar se los alimentó con miles de libros (acumulados a través de Google Books, por cierto) en distintos idiomas. Los algoritmos comenzaron no solo a “entender” cómo se remplazaba cada palabra en otro idioma, sino también a ver cómo esas relaciones variaban según el contexto: obviamente estas fórmulas no entienden lo que hacen, o “hablan” los idiomas que traducen, pero logran mejorar constantemente sus resultados gracias a la fuerza bruta de las estadísticas. Al soltar ese algoritmo en la selva de la red y preguntar si las traducciones sirvieron o no a los usuarios, es solo cuestión de tiempo hasta que el sistema mejore lo suficiente.

Otro: Amazon, cuya primera innovación fue la posibilidad de vender libros online, también comprendió a tiempo el valor de los datos acumulados. Una de las vetas que encontró en sus discos duros fue la de sugerir nuevos productos a los clientes en base a sus compras anteriores. En un primer momento contrató a especialistas en literatura, pero cuando comenzó a utilizar algoritmos las ventas mejoraron y se hicieron tan fácilmente escalables que los egresados de letras debieron partir junto con los traductores remplazados por Google.

La lengua, con sus reglas particulares es (o era) uno de los campos más difíciles para que las fórmulas matemáticas pudieran aportar algo y, de hecho, aún hoy las traducciones distan de ser perfectas y confiables. En otros campos con variables complejas pero finitas, como el ajedrez, hace años que las computadoras vencen a los grandes maestros. En marzo de 2016 el algoritmo de Google AlphaGo doblegó y dejó perplejo al gran maestro de Go Lee Se-dol: ese juego milenario era considerado una barrera para las computadoras debido a su complejidad. Según el maestro, el programa jugó un partido perfecto, algo que no es de extrañar porque estaba alimentado por miles de partidas y jugando con Se-dol siguió aprendiendo. Una vez más, solo era cuestión de tiempo. Y será cada vez menos: los procesadores aumentan su velocidad.

Los gurúes del Big Data señalan que si se cruzan suficientes datos todo parece posible: las historias clínicas de todos los pacientes del planeta podrían encontrar patrones capaces de, por ejemplo, descubrir interacciones medicamentosas puntuales e imposibles de detectar por un solo médico o en un hospital. Un relevamiento permanente de las empresas de transporte con sensores dispersos en un colectivo “adivinarían” qué pieza será la próxima en romperse y reducir accidentes y gastos. Los ejemplos podrían seguir: los autos que se manejan solos serán, tarde o temprano, más seguros que los manejados por humanos; las grillas de electricidad administrarán los recursos de la mejor manera para no desperdiciar nada; la distribución eficiente de bicicletas en la ciudad… y más.

Ciencias Sociales

¿Hay un límite para seguir asignando tareas a los algoritmos? ¿Cuál es? ¿La educación? ¿La gestión democrática? La respuesta es incierta y tal vez el significado mismo de esas mismas palabras cambie con la intervención del Big Data y la inteligencia artificial. Como explica el alemán y Doctor en Comunicación Martin Hilbert en una excelente entrevista reciente: “[La disponibilidad de Big Data] convirtió a las ciencias sociales, de las que siempre se burlaron, en la ciencia más rica en datos. […] Nosotros nunca tuvimos datos, y por eso nunca funcionaban las políticas públicas. Y de la noche a la mañana, el 95% de los sujetos que estudiamos pasó a tener un sensor de sí mismo 24 horas al día. Los biólogos siempre dijeron “eso no es ciencia, no tienen datos”. Pero ellos no saben dónde están las ballenas en el mar. Hoy nosotros sí sabemos dónde están las personas, pero también sabemos qué compran, qué comen, cuándo duermen, cuáles son sus amigos, sus ideas políticas, su vida social”.

bigdata_izquierda_3

La lengua, con sus reglas particulares es (o era) uno de los campos más difíciles para que las fórmulas matemáticas pudieran aportar algo y, de hecho, aún hoy las traducciones distan de ser perfectas y confiables. En otros campos con variables complejas pero finitas, como el ajedrez, hace años que las computadoras vencen a los grandes maestros. En marzo de 2016 el algoritmo de Google AlphaGo doblegó y dejó perplejo al gran maestro de Go Lee Se-dol: ese juego milenario era considerado una barrera para las computadoras debido a su complejidad. Según el maestro, el programa jugó un partido perfecto, algo que no es de extrañar porque estaba alimentado por miles de partidas y jugando con Se-dol siguió aprendiendo. Una vez más, solo era cuestión de tiempo. Y será cada vez menos: los procesadores aumentan su velocidad.

¿Hay un límite para seguir asignando tareas a los algoritmos? ¿Cuál es? ¿La educación? ¿La gestión democrática? La respuesta es incierta y tal vez el significado mismo de esas mismas palabras cambie con la intervención del Big Data y la inteligencia artificial. Como explica el alemán y Doctor en Comunicación Martin Hilbert en una excelente entrevista reciente: “[La disponibilidad de Big Data] convirtió a las ciencias sociales, de las que siempre se burlaron, en la ciencia más rica en datos. […] Nosotros nunca tuvimos datos, y por eso nunca funcionaban las políticas públicas. Y de la noche a la mañana, el 95% de los sujetos que estudiamos pasó a tener un sensor de sí mismo 24 horas al día. Los biólogos siempre dijeron “eso no es ciencia, no tienen datos”. Pero ellos no saben dónde están las ballenas en el mar. Hoy nosotros sí sabemos dónde están las personas, pero también sabemos qué compran, qué comen, cuándo duermen, cuáles son sus amigos, sus ideas políticas, su vida social”.

enlace: http://revistaanfibia.com/ensayo/hacete-amigo-del-big-data/