Democratizando la Inteligencia Artificial

Cada vez es más habitual tropezarse con la palabra “democratización” dentro del campo de la analítica de los datos, y esto se debe, básicamente, a que las herramientas para la adquisición, tratamiento, explotación y visualización de los datos están, cada vez más, al alcance del usuario, a un coste asequible y en muchas ocasiones gratuito.

La adquisición y el tratamiento del dato siempre ha estado gestionado de la mano de los informáticos y los analistas. Si profundizamos más, podemos llegar a divisar los límites de las fronteras entre unos y otros, aunque muchas veces se difuminan, por lo que podemos decir que la gestión del dato, es decir, dónde se registra y como se registra (las bases de datos) suele estar liderado por los informáticos, y la parte de adquirir esos datos y tratarlos para analizarlos. por los perfiles más analíticos.

Logistica democratizando la inteligencia artificial Cajasiete.png

Hasta hace poco, la parte de la explotación de los datos era también difusa, porque muchos se atrevían a jugar con los datos y a generar una gran cantidad de gráficas de todo tipo y colores, muchos no eran de interés, no ayudaban a saber qué estaba pasando, pero la gráfica era bonita y quedaba bien en el informe.

No obstante, no hay que ser tan pesimista ni destructivo respecto a esa analítica descriptiva, pues bien enfocada y con criterio, genera los tradicionales Cuadros de Mando Ejecutivos, que viene a englobar una parte del BI (Business Intelligence), respondiendo la pregunta ¿Qué está pasando?

Pero las empresas y quienes las dirigen desean ir más allá y empezaron a hacerse las siguientes preguntas:

  • Qué está pasando (Años 80)
  • Por qué pasó (Años 90)
  • Qué pasará (Año 2000- 2015)
  • Qué puedo hacer para que pase (Año 2015-actualidad)

Es aquí donde, tradicionalmente, se crea una brecha entre el informático y los analistas, una brecha que, cada vez se está diluyendo más, por lo que empieza a hablarse de “democratización”.

Hasta hace unos años, el análisis de los datos y, sobre todo el análisis de grandes cantidades de datos desde el punto de vista de la inferencia, y no la estadística descriptiva, estaba en manos de los que se habían especializado en esta rama, principalmente matemáticos y estadísticos. Las herramientas para la explotación eran unas pocas, como SPSS, S-PLUS, Minitab, StatSoft, etc., muy exclusivas por su alto coste y con unos requerimientos altos de conocimiento estadístico por parte del usuario.

Durante la época de los años 90, empieza a impulsarse el lenguaje de programación R, a través de la filosofía Open Source, como una evolución del lenguaje de programación S. A raíz de este acontecimiento, los usuarios empiezan a tener una herramienta de bajo coste que, cada vez más, empieza a competir con las herramientas  profesionales, tanto por los algoritmos que implementa, como por el entorno gráfico, que van mejorando a medida que van saliendo más actualizaciones de la herramienta.

Tampoco hay que olvidarse de la evolución del hardware y el bajo coste de computación que empieza a conseguirse, sobre todo, a partir del año 2.000.

democratizando la inteligencia artificial redes neuronales

Por tanto, tenemos, por un lado, una herramienta estadística R de bajo coste a la altura de las grandes distribuciones, y por el otro lado, el bajo coste computacional.

Para la llamada “democratización”, nos falta aún otro hito importante, que es el acceso libre y gratuito de muchas librerías estadísticas, incluyendo las Redes Neuronales.

Las librerías estadísticas no son más que código informático encapsulado en un archivo con el que se puede interactuar desde un programa informático, lo que permite la automatización del uso de modelos estadísticos.

Las Redes Neuronales Artificiales no son más que un programa (librería), al que hay que entrenar o “enseñar” para que, ante una situación parecida a la que ha aprendido, el programa nos suministre una respuesta. Por ejemplo, a la Red Neuronal podemos enseñarle qué es un gato y qué es un perro a través de fotos de gatos y perros, de forma que, cuando se le pase una foto con alguno de éstos, sepa identificar de qué animal se trata.

Como resultado, esta labor deja de ser exclusiva de los analistas de datos y se “democratiza” toda la base teórica y de desarrollo de una Red Neuronal, por lo que pueden explotarla no sólo los informáticos, sino cualquiera con conocimientos de informática.

Por tanto, se ponen a disposición de los informáticos y de cualquier usuario con conocimientos de programación, una serie de programas o librerías que pueden ser utilizadas para la identificación de objetos, para la realización de predicciones, para el análisis de texto y su clasificación, para agrupar elementos que tengan un comportamiento similar (clúster), etc. Como consecuencia de ello, lo que antes estaba restringido sólo a un grupo reducido de expertos, matemáticos y estadísticos, ahora está al alcance de un grupo más amplio de expertos.

Pero la democratización va más allá, pues sin tener conocimientos de programación, se pueden contratar servicios en Amazon, o Azure, que ya poseen redes neuronales entrenadas y que, por ejemplo, a través de una cámara enfocada a una zona de tránsito, puede registrar cuánta ha pasado, en qué instante, su edad, e incluso el estado anímico a través de las expresiones del rostro.

Google Plus
LinkedIn

Sobre el Autor

Ginés León

Ginés León

Licenciado en estadística, ha centrado la carrera profesional en el campo de la logística, la gestión de equipos y la eficiencia de procesos.

Además de la licenciatura, su formación cuenta con un Máster de Logística, un Máster en Matemáticas Aplicadas, cuyo PFM se basó en la modelización de las recogidas de las muestras hematológicas en la isla de Tenerife, la cual lleva implantada desde el año 2011, un MBA, cuyo PFM tuvo que ver con la Smart City y la gestión de parking, y en el año 2017 tuvo la oportunidad de realizar un Máster en Big Data y Business Intelligence.

Ha trabajado y organizado operativas y procesos con los departamentos logísticos de diferentes empresas como Nespresso, La Caixa, Canal +, Disa, Bimbo, Endesa, y otras de calado internacional como Amway y NuSkin.

En el ámbito público, ha colaborado y desarrollado operativas especiales con el Servicio Canario de Salud, especialmente el HUNSC y Gerencia de Atención Primaria de Tenerife, operativas que a día de hoy se siguen ejecutando. En su última etapa en el Grupo Valora, lideraba el desarrollo e implantación del Proyecto GDP, motivado por el cambio de normativa que regula el Transporte de Medicamentos a Temperatura Ambiente (15ºC - 25ºC), desde la valoración y decisión de compra de los equipos, a las operativas, Cuadros de Mando Integrales (CDMI) y Kpi.

Alta formación en Investigación Operativa, Métodos de Predicción, Programación y Explotación de Datos mediante diferentes Técnicas Estadísticas.

Después de 9 años progresando y alcanzado la Dirección Logística de 3 empresas de un Grupo Empresarial, se plantea un nuevo reto, que desde principios de Septiembre de 2016 está en TITSA, empresa de transporte interurbano de Tenerife.

Durante el primer año su desempeño fue como responsable de la Zona Sur de Tenerife, en la qe basándose en el modelo de gestión EFQM, su desempeño se ajustó a una visión más estratégica de la empresa con la implantación de CDM de Gestión, Explotación, y Kpi.

A partir del segundo año, Octubre 2017, ejerce como responsable de un nuevo departamento en Titsa, el departamento Data Science, el cual llevará la estrategia de los datos, actualizará las herramientas BI, diseñará los CDMI para el control y el seguimiento de la estrategia de la empresa y empezará a utilizar el Big Data para la predicción y la valoración del riesgo, entre otras cosas.

Deja un comentario

Estás comentando como invitado.
Cajasietecontunegocio
Comprometidosconnuestragente

Suscríbete a nuestra Newsletter