Que tipo de IA se necesita para llevar a cabo un proyecto con éxito

Definir Inteligencia Artificial (IA) es complicado porque la percepción pública de este concepto es bastante difusa. Es así porque no hay una definición oficial; porque se relacionan con él otros conceptos como Machine Learning, Deep learning, redes neuronales…; por la confusión que supone que el concepto de IA haya sido usado por la ciencia ficción; así como por la dificultad de diferenciar qué tareas son fáciles y cuáles son difíciles, porque lo que parece difícil, como ganar una partida de ajedrez, puede resultar sencillo para la IA. Y lo que parece sencillo, como mover las piezas por el tablero, puede resultar difícil para un ordenador o robot.

En este artículo te explicamos qué es IA, cómo se relaciona con Machine Learning, Deep Learning…, qué tipos hay, y cuál es el más conveniente para llevar a cabo un proyecto con éxito.

Contexto histórico de la IA

La IA aparece a mediados del siglo XX con muchas expectativas a su alrededor. En sus inicios, se relacionó con la ciencia ficción formando parte de la cultura gracias a su protagonismo en obras literarias —como las de Isaac Asimov o Arthur C. Clarke—. Además, películas como 2001: una odisea en el espacio crearon expectativas no realistas sobre el desarrollo de los algoritmos, como por ejemplo tener en el año 2000 robots humanoides en casa.

La inversión alrededor de la IA empezó a desarrollarse en el ámbito militar, aunque terminó por focalizarse en una partida de ajedrez: el ordenador Deep Blue de IBM contra Kaspárov, en 1997. Se habían invertido muchos recursos, pero la conclusión que obtuvo la opinión pública fue que no había aportado valor a las personas y a los negocios. Así que el interés disminuyó durante unos años.

Cuando la tecnología lo permitió, los desarrollos de IA volvieron a producirse, lo que generó una nueva burbuja de interés y la explosión de desarrollo que permitió aprovechar al máximo la tecnología. En la actualidad, la Inteligencia Artificial responde a muchas de las expectativas, es una herramienta extremadamente potente que facilita muchos procesos y se aplica en muchos ámbitos.

¿Qué es IA?

Podemos definir la IA como la combinación de algoritmos —a nivel de software y hardware— desarrollados con el propósito de crear máquinas que imiten las capacidades del ser humano. El objetivo es que estos algoritmos se ejecuten de la forma más eficiente desde el punto de vista de consumo energético como de tiempo de ejecución.

Es la tecnología más revolucionaria desde que se inventó la informática y, aunque pueda parecer mágica, es posible gracias a otros dos conceptos clave: datos y algoritmos. La gran mayoría de algoritmos de IA utilizan el hardware para resolver problemas de un modo concreto. A partir de los datos, el algoritmo aprende a clasificar la información y hacer predicciones.

 

Machine Learning y Deep Learning

Al hablar de IA también debemos hacerlo de Machine Learning y Deep Learning. Podríamos decir que son dos subconjuntos de la IA. 

  • ML: Machine Learning, engloba el proceso por el que se entrena a la máquina para reconocer patrones basados en datos y hacer predicciones.
  • DL: Deep Learning (aprendizaje profundo), se refiere a que la máquina es capaz de razonar y sacar sus propias conclusiones o, lo que es lo mismo, aprender por sí misma.

Por lo tanto, para procesar y analizar una cantidad muy grande de datos, partiendo del hecho de que el esfuerzo de programar reglas y procesos es muy grande, resulta mucho más interesante utilizar Machine Learning. Esto es así porque un sistema de ML no se programa, sino que se entrena y las reglas las predice el algoritmo. Es un cambio de paradigma en toda regla. 

Para poner en marcha todo este proceso lo que hace falta es tener datos. Así el ML nos ayuda en dos procesos necesarios: procesar la ingente cantidad de datos que un negocio puede tener y medir el éxito de las acciones que se pongan en marcha. Dado que los algoritmos de ML son potentes optimizadores, el beneficio puede ser inmenso.

Por su parte, el Deep Learning utiliza un tipo de arquitectura que permite minimizar la función de error al tiempo que mantiene todo lo que ha aprendido.

Tipos de algoritmos

Podemos diferenciar tres tipos de algoritmos:

  1. Aprendizaje por refuerzo: consiste en la interacción continua basada en la prueba y error, como en el caso de la máquina que ganó a Kaspárov en 1997.
  2. Aprendizaje supervisado: utiliza modelos predictivos que utilizan datos de entrenamiento. A partir de un conjunto de datos, el sistema logra una salida a la resolución del problema planteado. Con este tipo de algoritmo es más sencillo extraer métricas con las que evaluar la aplicación. Por ejemplo, este algoritmo se utiliza en los coches autónomos.
  3. Aprendizaje no supervisado: en este caso se trata de un ejercicio más exploratorio. El algoritmo busca patrones subyacentes en los datos de entrada, y completa un auto entrenamiento sin indicaciones externas.

Después, según el objetivo que se quiera alcanzar, nos planteamos el tipo de tarea, o lo que es lo mismo, utilizaremos alguna de las aplicaciones de ML:

    • Clasificar, como diferenciar el spam en el correo.
    • Clustering, por ejemplo a la hora de recomendar un libro en base a lecturas anteriores.
    • Regresos, como por ejemplo averiguar cuánto va a utilizar un determinado servicio un cliente. Es decir, esta área consiste en determinar un valor.
    • Interpretar el lenguaje mediante el procesamiento de lenguaje natural —NLP por sus siglas en inglés—, como por ejemplo en un traductor que busca la mejor forma de expresar una oración en otro idioma.
  • Generar 

Evaluar la calidad de los modelos

Medir el rendimiento es tan importante como preparar los datos y especificar el entrenamiento del modelo de ML. Además, utilizando diferentes métricas para evaluar el rendimiento, lograremos mejorar el poder de predicción del modelo antes de utilizarlo con datos nuevos. Por otro lado, a parte de medir la precisión de los modelos hay que medir el impacto real que tienen en tu negocio, ya sea en tiempo o en euros.

Para ello, podemos utilizar diferentes métricas:

  1. Matriz de confusión: representación de resultados de las predicciones de cualquier prueba binaria, como la de las pruebas de COVID, por ejemplo. Se utiliza para describir el rendimiento del modelo de clasificación. Con esta matriz podemos ver de forma explícita cuándo una clase se confunde con otra, con lo que podemos trabajar de forma separada diferentes tipos de error.

La terminología asociada a esta matriz puede ser un poco confusa. Cada predicción puede ser uno de cuatro resultados, según cómo coincide con el valor real:

  • Verdadero Positivo (TP): Predigo Verdadero y en realidad es Verdadero.
  • Verdadero Negativo (TN): Predigo Falso y en realidad es Falso.
  • Falso Positivo (FP): Predigo Verdadero y en realidad es Falso.
  • Falso Negativo (FN): Predigo Falso y en realidad es Verdadero.

Lo ideal es que el modelo dé como resultado ningún falso positivo y ningún falso negativo. Muchas de las métricas de desempeño se basan en la matriz de confusión.

  • Accuracy (precisión): es el porcentaje total de elementos clasificados correctamente. Se trata de la medida más directa para ver la calidad de los clasificadores. Es una métrica muy intuitiva, pero no siempre es la más apropiada.
  • Recall o TPR (Tasa de True Positive): es el número de elementos identificados correctamente como positivos del total de positivos verdaderos. 
  • Especificidad o TNR (Tasa Negativa Verdadera): es el número de elementos identificados como negativos fuera del total de negativos.
  • Curva de características operativas del receptor (ROC): nos permite ver el equilibrio entre la tasa de verdaderos positivos y la tasa de falsos positivos.

Como ves, la IA puede ayudar a optimizar muchos procesos según el tipo de algoritmo que se emplee. Es importante entender cómo se relaciona con Machine Learning y Deep Learning y cómo las métricas son grandes aliadas para mejorar el sistema. Ahora que hemos introducido el tema de Inteligencia Artificial y sus algoritmos, nos dedicaremos a estudiar cómo aplicar esta tecnología en la empresa del siglo XXI. Te contamos más en el próximo post. 

Descubre lo último sobre Inteligencia Artificial  descargándote el Ebook aquí

Más artículos

Watson Assistant y Watson Discovery: el chatbot ganador de IBM

Cómo sacarle partido a tus datos con un asistente personalizado de IBM

Los asistentes virtuales son uno de los sistemas de comunicación que más está creciendo en los últimos años. No en vano, ofrecen

Leer másArrow 41

Monitorización: conoce el estado de tus sistemas y aplicaciones en tiempo real

¿Cómo puede Instana contribuir a la optimización del monitoreo 24/7? En anteriores artículos, hemos hablado sobre la importancia de saber que ocurre en nuestros entornos. En este sentido, la...

Leer másArrow 41

Automatiza procesos inteligentes con low-code

La automatización de procesos inteligentes aporta una innumerable cantidad de beneficios y ventajas a las compañías que la implementan, como puede ser la agilización de procesos, reducción del error...

Leer másArrow 41

¿Cómo alcanzar el crecimiento sostenible de una empresa?

Ya sea una startup o una multinacional, todas las empresas tienen en común la búsqueda de un crecimiento sostenible a lo largo del tiempo. ¿Qué es lo que hace que una empresa consiga persistir en el...

Leer másArrow 41

Cómo el Data Fabric y Data Mesh pueden contribuir a un entorno VUCA

Vivimos en un entorno en el que las cosas cambian continuamente y nunca se sabe lo que va a pasar a continuación. Esto trae una complejidad abrumadora, y muchos aspectos pueden llegar a tener un...

Leer másArrow 41