Qué Inteligencia Artificial se necesita para un proyecto exitoso

Definir Inteligencia Artificial (IA) es complicado porque la percepción pública de este concepto es bastante difusa. Es así porque no hay una definición oficial; porque se relacionan con él otros conceptos como Machine Learning, Deep learning, redes neuronales…; por la confusión que supone que el concepto de IA haya sido usado por la ciencia ficción; así como por la dificultad de diferenciar qué tareas son fáciles y cuáles son difíciles, porque lo que parece difícil, como ganar una partida de ajedrez, puede resultar sencillo para la IA. Y lo que parece sencillo, como mover las piezas por el tablero, puede resultar difícil para un ordenador o robot.

En este artículo te explicamos qué es IA, cómo se relaciona con Machine Learning, Deep Learning…, qué tipos hay, y cuál es el más conveniente para llevar a cabo un proyecto con éxito.

Contexto histórico de la IA

La IA aparece a mediados del siglo XX con muchas expectativas a su alrededor. En sus inicios, se relacionó con la ciencia ficción formando parte de la cultura gracias a su protagonismo en obras literarias —como las de Isaac Asimov o Arthur C. Clarke—. Además, películas como 2001: una odisea en el espacio crearon expectativas no realistas sobre el desarrollo de los algoritmos, como por ejemplo tener en el año 2000 robots humanoides en casa.

La inversión alrededor de la IA empezó a desarrollarse en el ámbito militar, aunque terminó por focalizarse en una partida de ajedrez: el ordenador Deep Blue de IBM contra Kaspárov, en 1997. Se habían invertido muchos recursos, pero la conclusión que obtuvo la opinión pública fue que no había aportado valor a las personas y a los negocios. Así que el interés disminuyó durante unos años.

Cuando la tecnología lo permitió, los desarrollos de IA volvieron a producirse, lo que generó una nueva burbuja de interés y la explosión de desarrollo que permitió aprovechar al máximo la tecnología. En la actualidad, la Inteligencia Artificial responde a muchas de las expectativas, es una herramienta extremadamente potente que facilita muchos procesos y se aplica en muchos ámbitos.

¿Qué es IA?

Podemos definir la IA como la combinación de algoritmos —a nivel de software y hardware— desarrollados con el propósito de crear máquinas que imiten las capacidades del ser humano. El objetivo es que estos algoritmos se ejecuten de la forma más eficiente desde el punto de vista de consumo energético como de tiempo de ejecución.

Es la tecnología más revolucionaria desde que se inventó la informática y, aunque pueda parecer mágica, es posible gracias a otros dos conceptos clave: datos y algoritmos. La gran mayoría de algoritmos de IA utilizan el hardware para resolver problemas de un modo concreto. A partir de los datos, el algoritmo aprende a clasificar la información y hacer predicciones.

 

Machine Learning y Deep Learning

Al hablar de IA también debemos hacerlo de Machine Learning y Deep Learning. Podríamos decir que son dos subconjuntos de la IA. 

  • ML: Machine Learning, engloba el proceso por el que se entrena a la máquina para reconocer patrones basados en datos y hacer predicciones.
  • DL: Deep Learning (aprendizaje profundo), se refiere a que la máquina es capaz de razonar y sacar sus propias conclusiones o, lo que es lo mismo, aprender por sí misma.

Por lo tanto, para procesar y analizar una cantidad muy grande de datos, partiendo del hecho de que el esfuerzo de programar reglas y procesos es muy grande, resulta mucho más interesante utilizar Machine Learning. Esto es así porque un sistema de ML no se programa, sino que se entrena y las reglas las predice el algoritmo. Es un cambio de paradigma en toda regla. 

Para poner en marcha todo este proceso lo que hace falta es tener datos. Así el ML nos ayuda en dos procesos necesarios: procesar la ingente cantidad de datos que un negocio puede tener y medir el éxito de las acciones que se pongan en marcha. Dado que los algoritmos de ML son potentes optimizadores, el beneficio puede ser inmenso.

Por su parte, el Deep Learning utiliza un tipo de arquitectura que permite minimizar la función de error al tiempo que mantiene todo lo que ha aprendido.

Tipos de algoritmos

Podemos diferenciar tres tipos de algoritmos:

  1. Aprendizaje por refuerzo: consiste en la interacción continua basada en la prueba y error, como en el caso de la máquina que ganó a Kaspárov en 1997.
  2. Aprendizaje supervisado: utiliza modelos predictivos que utilizan datos de entrenamiento. A partir de un conjunto de datos, el sistema logra una salida a la resolución del problema planteado. Con este tipo de algoritmo es más sencillo extraer métricas con las que evaluar la aplicación. Por ejemplo, este algoritmo se utiliza en los coches autónomos.
  3. Aprendizaje no supervisado: en este caso se trata de un ejercicio más exploratorio. El algoritmo busca patrones subyacentes en los datos de entrada, y completa un auto entrenamiento sin indicaciones externas.

Después, según el objetivo que se quiera alcanzar, nos planteamos el tipo de tarea, o lo que es lo mismo, utilizaremos alguna de las aplicaciones de ML:

    • Clasificar, como diferenciar el spam en el correo.
    • Clustering, por ejemplo a la hora de recomendar un libro en base a lecturas anteriores.
    • Regresos, como por ejemplo averiguar cuánto va a utilizar un determinado servicio un cliente. Es decir, esta área consiste en determinar un valor.
    • Interpretar el lenguaje mediante el procesamiento de lenguaje natural —NLP por sus siglas en inglés—, como por ejemplo en un traductor que busca la mejor forma de expresar una oración en otro idioma.

Evaluar la calidad de los modelos

Medir el rendimiento es tan importante como preparar los datos y especificar el entrenamiento del modelo de ML. Además, utilizando diferentes métricas para evaluar el rendimiento, lograremos mejorar el poder de predicción del modelo antes de utilizarlo con datos nuevos. Por otro lado, a parte de medir la precisión de los modelos hay que medir el impacto real que tienen en tu negocio, ya sea en tiempo o en euros.

Para ello, podemos utilizar diferentes métricas:

  1. Matriz de confusión: representación de resultados de las predicciones de cualquier prueba binaria, como la de las pruebas de COVID, por ejemplo. Se utiliza para describir el rendimiento del modelo de clasificación. Con esta matriz podemos ver de forma explícita cuándo una clase se confunde con otra, con lo que podemos trabajar de forma separada diferentes tipos de error.

La terminología asociada a esta matriz puede ser un poco confusa. Cada predicción puede ser uno de cuatro resultados, según cómo coincide con el valor real:

  • Verdadero Positivo (TP): Predigo Verdadero y en realidad es Verdadero.
  • Verdadero Negativo (TN): Predigo Falso y en realidad es Falso.
  • Falso Positivo (FP): Predigo Verdadero y en realidad es Falso.
  • Falso Negativo (FN): Predigo Falso y en realidad es Verdadero.

Lo ideal es que el modelo dé como resultado ningún falso positivo y ningún falso negativo. Muchas de las métricas de desempeño se basan en la matriz de confusión.

  • Accuracy (precisión): es el porcentaje total de elementos clasificados correctamente. Se trata de la medida más directa para ver la calidad de los clasificadores. Es una métrica muy intuitiva, pero no siempre es la más apropiada.
  • Recall o TPR (Tasa de True Positive): es el número de elementos identificados correctamente como positivos del total de positivos verdaderos. 
  • Especificidad o TNR (Tasa Negativa Verdadera): es el número de elementos identificados como negativos fuera del total de negativos.
  • Curva de características operativas del receptor (ROC): nos permite ver el equilibrio entre la tasa de verdaderos positivos y la tasa de falsos positivos.

Como ves, la IA puede ayudar a optimizar muchos procesos según el tipo de algoritmo que se emplee. Es importante entender cómo se relaciona con Machine Learning y Deep Learning y cómo las métricas son grandes aliadas para mejorar el sistema. Ahora que hemos introducido el tema de Inteligencia Artificial y sus algoritmos, nos dedicaremos a estudiar cómo aplicar esta tecnología en la empresa del siglo XXI. Te contamos más en el próximo post. 

Descubre lo último sobre Inteligencia Artificial  descargándote el Ebook aquí

Más noticias

¿Cómo se ejecuta un proyecto de automatización de procesos con RPA?

La automatización de procesos con RPA es una de las tendencias en la transformación digital. La posibilidad de automatizar tareas, para que las personas puedan dedicar su tiempo y esfuerzo a tareas...

Leer másArrow 41

Explainability AI: cómo hacer nuestro modelo legible

A la hora de tomar decisiones, la inteligencia artificial se ha convertido en una herramienta muy útil en el día a día. Lo curioso es que esto es así tanto en el ámbito personal como en el laboral....

Leer másArrow 41

Inversión en tecnología: clave para hacer frente a la crisis económica

La crisis económica es una realidad palpable en la actualidad. La inflación de los precios, la poca disponibilidad de los combustibles, así como la lenta recuperación de la Covid-19, han hecho que...

Leer másArrow 41

Supply chain: tendencias y retos tecnológicos

En el mundo empresarial contemporáneo, la gestión efectiva de la cadena de suministro es fundamental para el éxito y la competitividad de las organizaciones. La cadena de suministro, o supply chain...

Leer másArrow 41

Cómo diseñar una estrategia de IA para incrementar el éxito de los proyectos de Machine Learning

En el Webinar “AI Strategy: Cómo diseñar una estrategia de IA para incrementar el éxito de los proyectos”, hemos compartido una visión acerca de aquellos problemas generales que hacen que proyectos...

Leer másArrow 41