Los chatbots están ahí, con ChatGPT a la cabeza, pero los errores que cometen a la hora de elaborar artículos o de contestar a sencillas o a complejas preguntas son bastante grandes. En una gran cantidad de ocasiones los textos mostrados muestran información ilegible.
A pesar de que ya existen algunos medios digitales que utilizan estas aplicaciones para elaborar contenidos, los resultados obtenidos no son adecuados. La Inteligencia Artificial centrada en la creación de contenidos busca información en Internet y, en una gran cantidad de ocasiones, la malinterpretan y construyen oraciones gramaticales sin sentido.
Son varios los investigadores que dudan de que estos sistemas puedan tomar decisiones vitales, por lo que hemos indicado. En la Universidad de Columbia un equipo de investigadores se ha centrado en ello y ha llegado a la conclusión de que hay que mejorar el rendimiento de los chatbots, reforzando los aspectos que indican como los humanos procesan el lenguaje.
El lenguaje humano y el de la Inteligencia Artificial
Hoy se ha publicado un artículo en la revista Nature Machine Intelligence, en el que los científicos describen cómo desafiaron nueve modelos de lenguaje diferentes con cientos de pares de oraciones. Para cada par, las personas que participaron en el estudio eligieron cuál de las dos oraciones pensaban que era más natural, es decir, la que era más probable que se leyera o escuchara en la vida cotidiana. Posteriormente hicieron lo mismo, utilizando los mismos modelos, para ver lo que hacían los chatbots.
Todos los modelos de redes neuronales basadas en IA cometieron errores, creando frases que en muchos casos eran irregulares. Además cada modelo de IA emitía diferentes juicios sobre si las oraciones tenían o no sentido
Que nos dicen los expertos
El Dr. Nikolaus Kriegeskorte, PhD, investigador principal del Instituto Zuckerman de Columbia y uno de los autores del artículo, ha dicho lo siguiente: «El hecho de que algunos de los grandes modelos de lenguaje funcionen tan bien sugiere que capturan algo importante, que en los modelos más simples falta. El hecho de que incluso los mejores modelos que estudiamos todavía puedan ser engañados por oraciones sin sentido muestra que a sus cálculos les falta algo sobre la forma en que los humanos procesamos el lenguaje«.
Añadió lo siguiente: «Cada modelo exhibía puntos ciegos, etiquetando algunas oraciones como significativas que los participantes humanos pensaban que eran un galimatías. Eso debería hacernos reflexionar sobre hasta qué punto queremos que los sistemas de inteligencia artificial tomen decisiones importantes, al menos por ahora«.
Conclusión
Está claro que existe una brecha entre el lenguaje humano y el creado por ChatGPT y otros chatbots. Está claro que el funcionamiento del cerebro humano aún no puede ser captado detalladamente por la IA y así crear frases que ronden la perfección. Veremos lo que ocurre en un futuro no demasiado lejano.