Tecnologías Modernas (Modern Technologies ES)
¿Cambiará la inteligencia artificial el futuro de la comunicación?

¿Cambiará la inteligencia artificial el futuro de la comunicación?

Resumen:

  • La IA generativa y los modelos lingüísticos utilizan arquitecturas complejas y grandes conjuntos de datos para generar texto o habla similares a los humanos.
  • Estas tecnologías tienen aplicaciones en los negocios y la medicina.
  • Sin embargo, la IA puede sufrir problemas como el sesgo a través de los datos de entrenamiento y la generación de información errónea.
  • Deben aplicarse las protecciones adecuadas para mitigar estos efectos negativos.

Al contactar con el servicio de atención al cliente de cualquier gran empresa, es muy probable que la primera interacción se produzca a través de una interfaz de chat con un chatbot al otro lado. Por lo general, es fácil saber que se está interactuando con un bot debido a sus respuestas poco naturales y preescritas. Sin embargo, recientemente, la inteligencia artificial (IA) ha logrado avances significativos en la creación de textos similares a los humanos a partir de las entradas del usuario, hasta el punto de que es difícil decir si se está interactuando con un humano o con una máquina [1]. Estas tecnologías podrían cambiar la comunicación y constituyen un amplio abanico de aplicaciones en los ámbitos empresarial, industrial y sanitario. Sin embargo, como ocurre con muchas nuevas tecnologías, existe preocupación por la aplicación ética de la IA y su posible uso indebido [2-4]. En este artículo, arrojamos luz sobre el funcionamiento de la IA generativa y exploramos sus repercusiones positivas y negativas.

Las IA generativas son sistemas que pueden producir resultados únicos, como texto o imágenes, a petición del usuario. Para lograrlo, son cruciales dos componentes: la arquitectura de la IA y sus datos de entrenamiento. La arquitectura de una IA define sus capacidades y es específica de su aplicación. Por ejemplo, los modelos lingüísticos de generación de texto, como el ChatGPT, el más capaz actualmente, utilizan probabilidades para predecir las palabras de una frase una tras otra. El modo en que se asignan estas probabilidades, es decir, qué palabra se elige a continuación, depende del contexto de la frase y del texto que la IA haya visto anteriormente: los llamados datos de entrenamiento. Estos datos se utilizan durante el desarrollo de un sistema de IA para «enseñarle» qué tipo de contenido debe producir. En el caso de la IA generadora de texto, un modelo entrenado en poesía probablemente producirá poemas, mientras que un modelo entrenado en libros de leyes producirá textos jurídicos. ChatGPT se entrenó con más de 570 terabytes de texto de Internet, lo que le permitió generar textos de una amplia gama de temas y estilos [5,6].

Una posible aplicación de los modelos lingüísticos es el servicio de atención al cliente. Las empresas pueden, por ejemplo, utilizarlos para generar respuestas automáticas a las consultas de los clientes, lo que puede mejorar los tiempos de respuesta y reducir la carga de trabajo de los agentes de atención al cliente. Esta tecnología ya ha sido implantada por varias empresas [7]. Otra posible aplicación de los modelos lingüísticos es el campo de la medicina. Los investigadores están estudiando su uso para analizar historiales médicos electrónicos y ayudar en el diagnóstico. Por ejemplo, los investigadores han utilizado con éxito modelos lingüísticos para analizar historiales médicos electrónicos e identificar a pacientes con riesgo de sepsis, una enfermedad potencialmente mortal [8,9].

Aunque los posibles beneficios de la IA y los modelos lingüísticos parecen evidentes, también hay que tener en cuenta las repercusiones negativas. Una de las principales preocupaciones es que sesgos como el racismo y el sexismo puedan introducirse en los sistemas de IA a través de los datos de entrenamiento [10-12]. Por ejemplo, en 2016 Microsoft lanzó un chatbot llamado Tay en Twitter, que fue diseñado para aprender de la interacción con los usuarios a través de conversaciones. Sin embargo, a las 24 horas de su lanzamiento, Tay se había convertido en un prolífico vomitador de contenido racista y sexista, lo que llevó a su rápido cierre [13]. Para evitar este tipo de situaciones, los desarrolladores de IA son ahora más cuidadosos con la selección de los datos de entrenamiento y tanto las entradas como las salidas de las IA se filtran en busca de contenidos inapropiados [14].

Otro problema de los sistemas de IA actuales es la generación de información falsa. Por ejemplo, tras el lanzamiento de chatGPT, varios periodistas informaron de que la IA inventaba estudios científicos y presentaba información falsa de forma muy legítima. Esto ocurre porque la principal tarea de un modelo lingüístico es generar frases que suenen naturales y contextuales, no suministrar información precisa [15]. Los desarrolladores están trabajando para mejorar este problema, pero hasta ahora la solución más práctica parece ser aconsejar a los usuarios que comprueben los resultados de la IA [16].

De cara al futuro, parece claro que la IA desempeñará un papel cada vez más importante en nuestra vida cotidiana. Sin embargo, como esta tecnología es aún relativamente nueva, es probable que su aplicación general tenga consecuencias imprevistas y resulta difícil predecir cómo afectará a nuestra comunicación. Sin embargo, una cosa es cierta: la época de los chatbots identificables está llegando a su fin.

Referencias:

  1. K Roose, The Brilliance and Weirdness of ChatGPT, New York Times, Dec 5th 2022
  2. Q Ai, What Is ChatGPT? How AI Is Transforming Multiple Industries, Fobes, Feb 1st 2023
  3. CG Asare, The Dark Side Of ChatGPT, Forbes, Jan 28th 2023
  4. A Agrawal, et al., ChatGPT and How AI Disrupts Industries, Harvard Business Review
  5. M Ruby, How ChatGPT Works: The Model Behind The Bot, Towards Data Science, Jan 30th 2023
  6. A Vasvani et al., Attention Is All You Need, arXiv, arXiv:1706.03762, Jun 12th 2017
  7. R Shrivastava, ChatGPT Is Coming To A Customer Service Chatbot Near You, Forbes, Jan 9th 2023
  8.  M  Rosnati, V Fortuin, MGP-AttTCN: An interpretable machine learning model for the prediction of sepsis, PLOS ONE, May 7th 2021
  9. MY Yan et al., Sepsis prediction, early detection, and identification using clinical text for machine learning: a systematic review, Journal of the American Medical Informatics Association, doi: 10.1093/jamia/ocab236, Dec 13th 2021
  10. R Gordon, Large language models are biased. Can logic help save them?, MIT News, March 3rd 2023
  11. PP Liang et al., Towards Understanding and Mitigating Social Biases in Language Models, arXiv, arXiv:2106.13219, Jun 24th 2021
  12. K Stanczak, I Augenstein, A Survey on Gender Bias in Natural Language Processing, arXiv:2112.14168, Dec 28th 2021
  13. E Hunt, Tay, Microsoft’s AI chatbot, gets a crash course in racism from Twitter, The Guardian, Mar 24th 2016
  14. A Getahun, ChatGPT could be used for good, but like many other AI models, it’s rife with racist and discriminatory bias, Insider, Jan 16th 2023
  15. C Stokel-Walker, R Van Noorden, What ChatGPT and generative AI mean for science, Nature, doi: 10.1038/d41586-023-00340-6, Feb 6th 2023
  16. K Roose, C Newton, The Bing Who Loved Me, and Elon Rewrites the Algorithm, Hard Fork, New York Times, Jan 17th 2023