Inteligencia de negocios y big data para el mundo hispano parlante.

¡Subscríbase al boletín gratuito!


Inteligencia de Negocios en Español - Decideo.com





Actualidades y análisis

DSS, la herramienta de optimización y analítica para la gestión de desastres sísmicos


, el 19 Septiembre 2017 | Leído 5029 veces

¿Sabe qué hacer ante un sismo? ¿Conoce si el sitio donde se encuentra es altamente vulnerable a un evento sísmico? ¿Tiene identificado a qué sitios ir si ocurre tal desastre? ¿A cuál albergue acudir para tener acceso a la distribución de ayudas? No es para menos que, Karin Aguilar, docente e investigadora, planteara estos interrogantes a sus colegas del grupo de investigación OPALO de la Universidad Industrial de Santander, UIS, y adicionalmente por el hecho de habitar en Santander (Colombia), donde se encuentra uno de los puntos, mundialmente identificado con alta actividad sísmica (La Mesa de los Santos). Allí, todos los días, ocurren 50 micro sismos, en promedio. Una gran cantidad de sismos de alta magnitud, pero que por fortuna son profundos. Pero, ¿qué pasaría si uno de estos sismos no fuera tan profundo? ¿Están los bumangueses preparados para tal siniestro?



Photo by Lorenzo Bollettini on Unsplash
Photo by Lorenzo Bollettini on Unsplash
Sin duda la respuesta sería NO. Razón que motivó al grupo de investigación OPALO a desarrollar un prototipo de apoyo a la gestión de desastres. "Nosotros hemos hecho varios trabajos en lo que tiene que ver con logística humanitaria. Fundamentalmente, con la parte de desastres sísmicos. Hemos utilizado algoritmos matemáticos para la asignación de albergues, asignación de personas a estos albergues; todo de forma algorítmica. Hemos trabajado en la parte de ruteo, en lo que tiene que ver con la distribución de ayudas. Este trabajo, lo hemos consolidado hoy en día en un prototipo, en el cual, lo hemos hecho para la ciudad de Bucaramanga", precisa el profesor titular del Almar Mater Dr. en Física-Matemática y encargado del proyecto, Henry Lamos Díaz.

El Dr. Lamos Díaz, continúa precisando: "Dentro de esto, hemos utilizado algoritmos de machine learning y algoritmos de estadística multivariada para sincronizar, optimizar, y calibrar los parámetros propios de los modelos que hemos creado. Para esto se han descargado muchas bases de datos, y se han hecho los análisis correspondientes".

EL GRUPO DE INVESTIGACIÓN OPALO

Dr. Henry Lamos Díaz, (Izquierda) y Msc. Daniel Orlando Martínez (Derecha),  Profesores de la UIS e integrantes del grupo de investigación OPALO
Dr. Henry Lamos Díaz, (Izquierda) y Msc. Daniel Orlando Martínez (Derecha), Profesores de la UIS e integrantes del grupo de investigación OPALO
Con la visión de ser reconocidos como un grupo de investigación categoría -A- según la escala de Colciencias, ente que rige la investigación en Colombia, OPALO Research Group (Grupo en Optimización y Organización de Sistemas Productivos y Logísticos), pertenece a la Escuela de Estudios Industriales y Empresariales de la Universidad Industrial de Santander, UIS. Dicha escuela posee varios grupos de investigación consolidados, registrados y categorizados en Colciencias, entre los que figuran: El Grupo Finance and Management, el grupo Galea, el grupo INNOTEC y el grupo OPALO, con foco en la optimización de procesos logísticos y administrativos, "Estas son las grandes ramas. Cada grupo resuelve ciertos tipos de problemas propios de la disciplina de la ingeniería industrial", señala el Dr. Henry Lamos Díaz.

El grupo OPALO, conformado por docentes propios de la UIS, grupos de estudiantes de pregrado y grupos de estudiantes de maestría, trabaja fundamentalmente con lo relacionado con distribución, con procesos productivos de manufactura, manufactura esbelta, servicios esbeltos, y la línea de procesos logísticos a través de resolución de problemas, a través de la programación matemática, lo que han denominado optimización matemática: "Fundamentalmente trabajamos problemas de optimización combinatoria, todo lo que tiene que ver con problemas de localización, instalación, puntos de venta, fuerza de ventas, asignación de clientes a instalaciones, es decir, problemas de cobertura, todo lo que tiene que ver con problemas de ruteo y tenemos también todo lo que tiene que ver con procesos productivos Job Shop y problemas de secuenciación. Hace aproximadamente unos 3 años para acá, el grupo ha conformado una nueva línea, que la llamamos línea de análisis de datos científicos, en la cual, hemos estado trabajando bajo el paradigma del Big Data…tratamos que nuestros estudiantes de maestría se consoliden fuertemente alrededor de la minería de datos, alrededor del machine learning y de todas las herramientas que permiten hacer analítica", adiciona el profesor Henry Lamos Díaz.

LA PLATAFORMA QUE SOPORTA LA TOMA DE DECISIONES EN LA GESTIÓN DE DESASTRES

DSS, la herramienta de optimización y analítica para la gestión de desastres sísmicos
Daniel Orlando Martínez Quezada, profesor e investigador del Grupo Opalo, creador de la herramienta DSS para la gestión de desastres en Bucaramanga, reformula el interrogante inicialmente propuesto por su colega Karin Aguilar, de ¿qué pasaría si uno de esos sismos no es tan profundo? y agrega "si en Bucaramanga llegase a pasar un sismo, es muy difícil decir dónde están las personas afectadas, la idea es muy vaga; entonces se trató a través de técnicas de aprendizaje automático poder generar cuestionarios para un tomador de decisiones y que se reduzca la complejidad de pensar en estas situaciones".
Esta herramienta web, es bautizada con el nombre de DSS-DM. DSS, debido a ser un sistema de apoyo en la toma de decisiones, por sus siglas en inglés, Decision Support System; y DM porque la aplicación es específicamente para la gestión de desastres.

El prototipo desarrollado en el lenguaje de Google Go, emplea Google maps, para la visualización fundamentalmente. Las máquinas, que han sido máquinas de vectores de soporte, de redes neuronales, entre otras, se han desarrollado a través de R.
Muchísimas son las bases de datos requeridas para el desarrollo del prototipo, como por ejemplo, la base de datos que genera el Centro de Investigación sobre la epidemiología de desastres CRED, quienes generan un reporte histórico de todos los sismos que ha habido, con la cantidad de afectados, desplazadosnen cada uno de estos, con el lugar, fecha, hora. Otra es la base de datos como la del centro geológico de Estados Unidos, que reporta tanto la magnitud como la profundidad de cada sismo. Las del Banco Mundial, tenidas en cuenta para el índice de desarrollo humano en el cual se podría explicar un índice de vulnerabilidad del país o región, "un país que sea más desarrollado no es tan vulnerable a un sismo, pero un país no tan desarrollado sería un país vulnerable a un evento", explica el profesor Martínez Quezada. Así mismo se incorporan las bases de datos que el mismo grupo de investigación OPALO ha generado, a partir de la información proporcionada por el Centro de Gestión de Riesgos de Desastres de Bucaramanga, "ellos, nos dieron información de características del suelo. En Bucaramanga hay suelos que son muy blandos, debido a que son a causa de rellenos. Por ejemplo, en la ciudad había quebradas que la cruzaban como la Quebrada Seca, la Rosita; esa tipología hace que el suelo sea más blando y lo hace un poco más vulnerable respecto a otras que no están en ese tipo de zonas".
A través de diferentes proyectos a nivel de pregrado y maestría, se han ido perfilando cada una de estas bases de datos para una definición concreta en muchas características de estos sitios.
Se adiciona la data pública como las bases de datos a nivel cartográfico, del DANE, con un GIS utilizando Google Maps por la facilidad de manipular los datos.

Uno de los parámetros considerados de peso para generar escenarios es la vulnerabilidad que tiene una zona poblada. El poder identificar si la persona está segura o en peligro, se puede identificar en la herramienta a través de un mapa, el cual presenta por colores el nivel de vulnerabilidad de las manzanas (espacios urbanos), "con la información del DANE y con cierta información adicional que se logró recolectar de análisis de tipo estructural, se tomó el criterio de un experto con una muestra y se buscó ajustar un modelo que permitiera replicar el conocimiento del experto en discernir cuando una manzana es más vulnerable que otra… se propuso una máquina", continua explicando el profesor Daniel Martínez.
"Por lo menos de los albergues, tenemos fecha de construcción y, de acuerdo con estudios de análisis estructural, se han dado ciertas tipologías en Bucaramanga. Se ha realizado esta clasificación, aproximada, porque para hacer exactamente la clasificación, habría que romper la estructura y analizar el tipo de acero con la que se construyó, pero se han hecho ciertas aproximaciones, las cuales han servido. Niveles, capacidad, es decir, cuántas personas podría albergar ese determinado lugar, distancias a fallas, pertenencias a zonas de riesgo…ciertos albergues se encuentran en los rellenos, en zonas pendientes, en laderas, hay personas que terminan construyendo allí colegios", indica el autor de la herramienta para la gestión de desastres en Bucaramanga.
De acuerdo con el Profesor Henry Lamos Díaz, lo que más se requiere es fundamentalmente, poder levantar información real y confiable, y precisa que eso solamente se pudiera lograr con sistemas de tecnología de información fuerte: "algo que tuviera que ver con el internet de las cosas, con muchos sensores en ciertas partes, y también con la culturización de las personas. En general muchas personas no saben qué hacer ante un sismo, no tienen ni idea para donde deben ir, cuáles son esos puntos de encuentro…" y comenta que así como somos usuarios de las aplicaciones móviles, donde se pide comida, porqué no inclinarnos por utilizar también una aplicación para saber a qué sitio ir, no necesariamente cuando ocurra el desastre, sino que conocerlo de antemano y tenerlo como una bitácora de lo que podía hacer si pasa una eventualidad "… generar como estos tipos de escenarios, que es lo que hizo Daniel en su trabajo. ¿Cuáles son los albergues que quedarían?, y no luego empezar a esperar para ver a cuál albergue me voy, eso es lo que nosotros necesitamos desarrollar y mostrar que si verdaderamente sería muy útil".

LA HERRAMIENTA EN TRES OPCIONES

La primera, Albergues Temporales, corresponde al levantamiento de todos los sitios posibles que pudiera la persona tener en un momento determinado ante una catástrofe. Redirecciona al mapa con información de cada albergue, por colores de acuerdo con la vulnerabilidad, con un índice de 5 niveles. Azul y verde los recomendados. Rojos, naranjas y amarillos, no tanto.

La segunda, Población, es la opción que proporciona información sobre cuántas personas hay y en dónde están, con la caracterización a nivel manzana, resumiéndose en un índice de vulnerabilidad, el índice 5 alto, 1 bajo. Un ejemplo, el centro de la ciudad de Bucaramanga, es una zona considerada como vulnerable, es una zona donde se podría encontrar personas afectadas después de un sismo. Los índices de vulnerabilidad se generaron utilizando el criterio de un experto el cual se reaplicó, buscando un modelo que se ajustara lo suficiente a esa muestra para aplicarse a las demás.

La tercera, y el core del prototipo desarrollado bajo la modalidad de tesis de maestría, es el Planeador Logístico. En una primera parte, permite configurar y generar escenarios basados en datos históricos. Solicitando la magnitud del sismo, la profundidad en Km, un índice de desarrollo humano, entre 0 y 1, asociado a Bucaramanga y adicionalmente como medida de exposición de acuerdo con los datos históricos, se pide la densidad poblacional dado en número de personas por km cuadrado (una ciudad o país más denso es más propenso a tener afectados).
Seguido corre un algoritmo, encontrado en la literatura, denominado algoritmo de ordenamiento no dominado, de segunda generación. Este algoritmo, más conocido y aplicado para puntos de venta, soluciona un problema de localización, de instalaciones, y asignación de clientes, pero también es utilizado en logística humanitaria. En este caso las instalaciones son los albergues y la asignación corresponde a la de población afectada. Lo que se busca es minimizar la vulnerabilidad de los albergues y adicionalmente minimizar la distancia que recorrerían las personas. Asumiendo que tienen que evacuar a pie.

Como resultado, un listado de soluciones para el tomador de decisiones. En cada solución, se despliega la cantidad de albergues posibles, representados por los marcadores y los polígonos representan las poblaciones afectadas para que las personas sepan a dónde se deben dirigir.

¿PERO, QUÉ SIGUE?

Otro problema bastante importante es determinar la distribución de ayudas ya sabiendo cuantas personas van a estar por albergue, para saber, de acuerdo con escenarios ya generados previamente, como podría hacerse la distribución de ayudas, "hemos simulado un montón de escenarios, habrá algunos escenarios ya vigentes que podrían decirnos cómo distribuir , qué camiones llevar a tal sitio, la cantidad de agua, y cuando se vaya recuperando la data , nosotros podemos correr el modelo; la idea es que esos algoritmo no se demoren mucho tiempo. Son algoritmos meta heurísticos, y heurísticos, donde no se encuentran soluciones totalmente óptimas de acuerdo al modelo, sino soluciones aproximadas"; precisa el profesor Lamos Díaz, quien concluye diciendo: "Es posible que existan otras y mejores herramientas a esta, pero lo que queremos es que de verdad sea útil a nuestra región, como aporte a lo que llamaríamos como innovación social".
Esta misma idea, se está replicando hacia la parte de Epidemiología con un proyecto de maestría que hasta ahora empieza a caminar de la mano de Yuli Andrea Ramírez, ingeniera industrial de la UIS. El proyecto enfocado en la parte de salud pública, lo que quiere es aplicar el machine learning y minería de datos, de tal manera que se descubran ciertos perfiles o comportamientos de esos perfiles epidemiológicos en Santander. "Como objetivo general, está el desarrollar un marco de trabajo aplicado a la epidemiologia bajo el paradigma del Big Data utilizando Machine Learning. Lo que se pretende es construir una herramienta visual que permita conocer el desarrollo de estos algoritmos que son aplicados y tener la oportunidad de estas técnicas aplicadas a esa gran cantidad de datos que hay en cuanto a salud pública, teniendo enfermedades que existen tanto crónicas y que sea la base o inicio para también darle la difusión y poder construir, algún sistema de vigilancia que sea oportuno", indica la Ing. Yuli Ramírez.




Nuevo comentario:
Facebook Twitter

Usted puede comentar o proporcionar más información a todos los artículos de este sitio. Los comentarios son libres y abiertos a todos. Sin embargo, nos reservamos el derecho a eliminar, sin previo aviso ni explicación, todo comentario que no cumpla con nuestras normas internas de funcionamiento, es decir, cualquier comentario difamatorio o sin relación con el tema del artículo. Así mismo, los comentarios anónimos son eliminados sistemáticamente si son demasiado negativos o muy positivos. Exprese sus opiniones, compártalas con los demás y asúmalas. Gracias de antemano. Igualmente, agradecemos tener en cuenta que los comentarios no sean enviados automáticamente a los redactores de cada artículo. Si usted desea realizar una pregunta al autor de un artículo, contáctelo directamente, no utilice los comentarios.


Twitter
Rss
LinkedIn
Google+
Facebook
Pinterest