Inteligencia de negocios y big data para el mundo hispano parlante.

¡Subscríbase al boletín gratuito!


Inteligencia de Negocios en Español - Decideo.com





Actualidades y análisis

Big Data, algoritmos, decisiones y seres humanos: intercambio de ideas con Dave Martin


, el 6 Enero 2015 | Leído 1534 veces

Dave Martin es un sociólogo que trabaja en el centro europeo de investigación de Xerox. Su trabajo está enfocado en el estudio del concepto de big data y está intentando comprender y explicar que no todo se trata de máquinas y de matemáticas, que el ser humano tiene su lugar y debe mantenerlo. Tuvimos una larga discusión sobre el tema y he aquí un "pequeño" resumen de nuestra conversación.



Entrevista con Dave Martin, Senior Scientist au XRCE (Xerox Research Centre Europe)
Entrevista con Dave Martin, Senior Scientist au XRCE (Xerox Research Centre Europe)
El centro de investigación europeo de Xerox realiza investigaciones en el ámbito de la informática y focaliza sus trabajos en torno a cuatro temas: el análisis de datos - las estadísticas – el machine learning, procesamiento de imágenes, procesamiento del lenguaje natural y finalmente un equipo etnográfico al cual pertenece Dave Martin. El objetivo de este equipo de científicos sociales y tecnólogos es la realización de estudios para observar el comportamiento de los trabajadores frente a la tecnología.

Trabajan en la comprensión del comportamiento de las personas usuarias de la tecnología, los problemas y necesidades que se revelan con la aplicación de la tecnología para luego compartir estos resultados con los creadores de la tecnología, todo esto con el fin de tomarlos en cuenta para las innovaciones futuras y que estas reflejen la realidad de la conducta humana. Xerox lleva trabajando en estos temas más de tres décadas, inicialmente a partir exclusivamente del laboratorio de investigación PARC de Palo Alto, pero hoy en día en todos sus laboratorios de investigación.

Por ejemplo, este equipo desarrolló una interfaz de visualización 3D instalada en las fotocopiadoras e impresoras Xerox. Esta interfaz permite la comunicación telefónica entre el técnico a cargo del servicio post-venta y el cliente para explicar la acción requerida. Nada es más difícil que tratar de explicar la manipulación técnica mientras que no se ve ni la máquina ni lo que el cliente hace. Al compartir una representación 3D del ambiente, el cliente y el técnico se entienden mejor.

"El Big Data está dominado por la tecnología. Es raro que un sociólogo se exprese sobre estos temas", se lamenta Dave Martin. Sin embargo, creemos que Decideo, aunque es "tecnológico", siempre ha tratado de convencer a sus lectores de ir mas allá, hacer más preguntas para salir de los clusters Hadoop y pensar un poco sobre el futuro y el lugar del ser humano en todo esto.

¡El ser humano no es sólo un "me gusta"!

En cuanto al big data y al machine learning, la investigación actual parece ir hacia la sustitución del ser humano por la máquina; para tareas simples, por ejemplo, la logística de los almacenes de Amazon es llevada a cabo por robots y para las tareas más complejas proponen la regulación algorítmica. Dave Martin nos dice: "las decisiones no pueden ser tomadas enteramente por algoritmos y el análisis de datos, el factor humano está omnipresente. Algunos datos, como la temperatura por ejemplo, son datos simples que pueden ser recogidos, almacenados y se utilizan en el análisis. Pero los datos relativos a la conducta humana son mucho más complejos". Hacer una simple reducción de los datos provenientes de la conducta humana a datos digitales analizables por un sistema sin duda alguna empobrecerá la información. En consecuencia, las decisiones estarán basadas solamente en una pequeña parte de la información humana. "Este es exactamente el problema al que nos conduce la simplificación del " me gusta " de Facebook". De hecho, la noción de "me gusta" es mucho más compleja que un simple clic. Por un lado, Facebook se ha negado a crear un botón de "no me gusta”, por lo que sólo sabemos parte de la opinión. Por otra parte, cuando le damos "me gusta" a algo, a veces lo hacemos con ciertas reservas. Asimismo, nuestros idiomas son bastantes ricos, a todos estos verbos: disfrutar, amar, adorar, etc., le podríamos añadir muchos adjetivos. Simplificando el análisis del comportamiento humano a un simple "me gusta" o no al no “existir”, Facebook recoge tan solo una pequeña parte de la riqueza de la percepción humana.

En cuanto al análisis de texto, pese a los grandes progresos en el área, todavía se sigue luchando para integrar algunos matices de la expresión humana. "Es muy difícil para un sistema detectar y "entender " el sarcasmo y los juegos de palabras", nos afirma Dave Martin.

Volviendo al ejemplo de Facebook, hoy en día la red social es capaz de predecir o anticipar lo que te va a gustar. Antes de que usted haya hecho su selección, la red ahora puede optar por mostrarle cierta información, y Facebook sabe lo que le va a interesar. ¡Podríamos hasta imaginar una red social en donde los humanos no serian necesarios! Su perfil recibe información sobre la base de lo que sabe acerca de usted y les "gustaría" automáticamente. Una vida totalmente virtual de la cual no puedo imaginarme ningún interés, pero que puede servir como demostración en este caso. “Hoy en día, este tipo de acciones ya nos perturban, cuando aparece en nuestro muro de Facebook actualizaciones sobre la base de algunos de nuestros "amigos", seleccionados por los algoritmos Big Data de Facebook, pero que no corresponden a lo que realmente quisiéramos ver” piensa Dave Martin.

Tomar mejores decisiones que un ser humano

Actualmente, algunos textos destacan la capacidad de los algoritmos de tomar mejores decisiones que los seres humanos, tomando en cuenta que están basados en gran cantidad de datos y en base a reglas más específicas en donde no intervienen las emociones. Esto es lo que se llama el aprendizaje automático o machine learning. "No hay una respuesta simple a preguntas como " ¿esto es bueno? o ¿esto es malo? Todo dependerá del dominio de la aplicación. Sin lugar a dudas, como por ejemplo en el campo de la producción industrial, algunas decisiones pueden ser tomadas por algoritmos sin ningún problema. Pero las decisiones complejas que involucran a la sociedad o a la conducta social, son mucho más complicadas de automatizar", piensa Dave Martin. "Ya estamos viendo las limitaciones de estos sistemas en el ámbito del mercado de las finanzas y del comercio de acciones automatizadas. Creamos una situación en la que los algoritmos están luchando contra los algoritmos, esto no genera ningún valor. Por supuesto, esto le permite a algunos bancos ganar mucho dinero, pero no es necesariamente útil para la sociedad”.

Esto podría ser mejor aceptado en el ámbito de la seguridad. ¿Habrá en el futuro robots soldados luchando entre sí? "Hoy en día ya hay drones dirigidos de forma remota, cuyo “piloto” se encuentra en las bases militares de los desiertos estadounidenses, que sobrevuelan con estos dispositivos las zonas de guerra. Hoy en día tenemos una combinación de algoritmos y humanos ya que una parte de la identificación de objetivos es responsabilidad de los algoritmos, pero aun es el ser humano quien presiona el botón de disparo. No quisiera que estas decisiones fueran tomadas por completo por las máquinas. De hecho, un estudio reciente señala que por cada terrorista identificado por estos algoritmos, 28 civiles inocentes fueron asesinados”. Deberíamos optar por dejar de usar estas tecnologías que no cumplen correctamente con sus deberes, o simplemente mejorar los algoritmos. "Ambos", opina Dave Martin.

Diagnóstico médico: el big data “aplana” la diversidad humana

En otro ámbito más positivo, el de la medicina, la pregunta que se hacen es: "existirá un médico big data. Se podrían comparar numerosos casos clínicos y sobre la base de esta comparación determinar qué tratamiento sería el más eficaz en cada caso. En este punto volvemos a hacernos la misma pregunta sobre el lado humano". ¿Qué nivel de detalle somos capaces de recoger, hasta donde iría el nivel de sutileza de los datos? Con esta determinación de criterios y asignación de valores simples ¿No estaríamos simplificando el problema al igual que el "me gusta" de Facebook?. Dave Martin nos dice: "Esto podría funcionar en algunos campos de la medicina en donde se podría automatizar la elección de ciertos medicamentos. Pero no funciona en todos los casos: el estilo de vida del paciente, sus necesidades; los datos históricos, genéticos, hereditarios, todo entra en juego. Debe ser el médico quien determine cómo se utilizarán estos datos para el diagnóstico o para buscar una solución. El big data produce un efecto de “aplanamiento. Ya no hay matices ni relieves, todos los datos son aplanados. Muchos datos serán combinados y tratados como iguales. El big data elimina la diversidad de datos sobre los casos individuales. Y en algunos casos esta diversidad es la clave. El big data puede ser una buena guía, pero no debe tomar decisiones complejas en lugar del humano”. En todo caso, no sería capaz de tomar decisiones complejas sin haber simplificado la información con anterioridad. Los algoritmos no "entienden", tan solo aplican lo que se les ha enseñado. Es difícil imaginar que un algoritmo pueda entender la falta de información en un caso dado y que pueda pedirla para tomar la decisión.

Lamentablemente, toda esta ayuda ofrecida a los profesionales de la salud, tienen un impacto en las capacidades de los médicos. "Gracias a la ayuda y la guía de estos algoritmos y procesos, algunos médicos toman menos en cuenta las peculiaridades del paciente. Hay un debate en el mundo de la medicina para conseguir el equilibrio entre los datos y la experiencia humana."

¿Cómo educar a la generación de Big Data?

En el campo de la educación también el big data tiene sus consecuencias. Para las generaciones más jóvenes que han crecido al lado de Internet es más importante saber cómo encontrar la información en lugar de memorizarla. Nuestros padres aprendieron de memoria la lista de estados o ciudades. Ahora esta información está disponible en unos pocos clics, por lo tanto, ya no sirve de mucho saberlas de memoria. Sin embargo, deben saber cómo acceder a ella en línea. Las generaciones mayores saben mucho, pero no saben cómo buscar rápidamente en línea. Para los más jóvenes es todo lo contrario; no saben mucho, pero si saben cómo acceder a ella al instante.

Dave Martin afirma que: "Muchas veces la gente me dice, necesitamos iPads en nuestras clases porque son interactivas. Siempre les digo que piensen en cómo un simple libro puede ser mas interactivo y sobre todo lo fuerte que es la interacción entre un profesor y sus estudiantes".

Regulación algorítmica

En el ámbito gubernamental muchos investigadores trabajan en la regulación algorítmica, o lo que es lo mismo, la capacidad de la combinación Datos-Algoritmos para tomar mejores decisiones a nivel político. "Estoy convencido de que la analítica y los datos tienen un papel que desempeñar, por ejemplo, permitiendo analizar los diferentes escenarios económicos. Pero yo creo que la democracia es oficio de personas y son los humanos quienes deben mantener el control". Deberíamos hacernos algunas preguntas dice Dave Martin: "¿Si la tecnología tomase las decisiones políticas serían éstas verdaderamente objetivas? ¿Tendría la tecnología ciertos "intereses"? Si es por el bien de la nación y las personas sería perfecto. ¡Pero si el beneficio obedece a intereses partidistas o la industria o la empresa privada, entonces no serían aceptables! y ¿cómo podemos controlar que estas decisiones sean objetivas y que a la larga den mejores resultados que el método tradicional?". Así que hay un abismo entre lo que parece una mejora teórica y su aplicación.

Ante los dramáticos acontecimientos como los ocurridos recientemente en los Estados Unidos, uno podría embarcarse en una reflexión de ciencia ficción y preguntarnos si los policías "algorítmicos" tomarían mejores decisiones que oficiales de policía humanos. Seguramente ha escuchado hablar y tal vez visto las fotos de este joven negro de 12 años de edad, un joven que estaba jugando en un parque con una pistola de juguete y un vecino llamó a la policía. La policía, no bien informada, llegó en carro y mataron al niño que estaba jugando, al igual que lo hicimos alguna vez todos nosotros, con una pistola de juguete. ¿Cuántos niños juegan todos los días a la “guerra” en Francia y en todo el mundo? ¿En qué otro país corre el riesgo de perder la vida un niño que juega a los policías y ladrones?

El tema de los algoritmos de control, en este caso, parece apropiado. Imagínese que el arma de un policía esté equipada con un "algoritmo" que impide el disparo si no se cumplen las condiciones y si la probabilidad de error es demasiado grande. Interesante, aunque también entran en juego otros temas como la autodefensa de la policía.

Con respecto a este tema, Dave Martin opina que "hay respuestas tecnológicas, pero en realidad, la respuesta a este problema no está allí, sino en la cultura pro-armas de los Estados Unidos". Pero, ¿es más fácil cambiar una cultura o buscar soluciones tecnológicas? La pregunta sigue abierta.
La noción del contexto seguirá siendo una diferencia importante entre la máquina y la percepción humana. "Los seres humanos somos altamente reactivos y sensibles al contexto. Cuando hablo con alguien recuerdo mis conversaciones anteriores, su origen, su entorno cultural y inconscientemente ajusto mi actitud a este contexto. Es difícil para la inteligencia artificial reproducir este modo de funcionamiento." Concluye Dave Martin. No añadió "menos mal", pero desde luego que lo pensó.

En esta discusión y a través de estas reflexiones, Dave Martin nos lleva a pensar en el ser humano, que muchas veces parece ausente de estos proyectos de big data. Al analizar los datos y automatizar la toma de decisiones no debemos olvidar que las fuentes de datos y los usuarios de esas decisiones seguimos siendo los seres humanos. Dejarle el big data a las maquinas y a los algoritmos serían para él un verdadero error. Esperemos que los organizadores de la próxima conferencia sobre big data incorporen en el programa un poco de reflexión humana.




Comentarios

1.Publicado por Sebastián el 13/01/2015 16:05
No estoy de acuerdo con lo que dice esta persona. Hay un concepto fundamental de Big Data que toma de manera erronea: Las decisiones las toma el ser humano! Big Data AYUDA a tomar la decisión, no la toma por si misma.......eso es aplicación de IA......algo que no esta relacionado con la mayoria de cosas que habla. La utilización de Big Data difiere de IA en muchos aspectos, y ahi tiene un error.

También cuando dice "Los seres humanos somos altamente reactivos y sensibles al contexto. Cuando hablo con alguien recuerdo mis conversaciones anteriores, su origen, su entorno cultural y inconscientemente ajusto mi actitud a este contexto".
En Big Data, esos aspectos también deben estar cargados, y por ende, estar evaluados.

Nuevo comentario:
Facebook Twitter

Usted puede comentar o proporcionar más información a todos los artículos de este sitio. Los comentarios son libres y abiertos a todos. Sin embargo, nos reservamos el derecho a eliminar, sin previo aviso ni explicación, todo comentario que no cumpla con nuestras normas internas de funcionamiento, es decir, cualquier comentario difamatorio o sin relación con el tema del artículo. Así mismo, los comentarios anónimos son eliminados sistemáticamente si son demasiado negativos o muy positivos. Exprese sus opiniones, compártalas con los demás y asúmalas. Gracias de antemano. Igualmente, agradecemos tener en cuenta que los comentarios no sean enviados automáticamente a los redactores de cada artículo. Si usted desea realizar una pregunta al autor de un artículo, contáctelo directamente, no utilice los comentarios.


Twitter
Rss
LinkedIn
Google+
Facebook
Pinterest