Las IAs actuales aprenden, no razonan. Saben sólo lo que se les enseña
Desde la disruptiva aparición de ChatGPT de OpenAI, el término Inteligencia Artificial (IA) parece haber ganado un extremo protagonismo en portadas y artículos de actualidad. Esto se debe principalmente a que ChatGPT es la primera gran herramienta de Inteligencia Artificial diseñada para el uso masivo y que para muchos usuarios/as ha sido la primera experiencia con las capacidades de la IA. Esta misma exposición al gran público ha generado grandes debates tanto éticos como funcionales acerca de las capacidades de esta tecnología. Estos debates generan al mismo tiempo una percepción de estos sistemas alejados de la realidad, donde su capacidad se sobrevalora y se malinterpreta.
ChatGPT es uno de los mayores desarrollos tecnológicos de los últimos años, este modelo de lenguaje diseñado para mantener conversaciones con cualquier persona y proporcionar respuestas coherentes y precisas a través de los algoritmos con los que ha sido entrenado, ha sorprendido a sus usuarios/as posicionándolo como un posible competidor de Google como buscador. Con el fin de entender el funcionamiento de esta herramienta, es importante destacar que se trata de una red neuronal de aprendizaje profundo o Deep Learning, y por consiguiente comprender el funcionamiento y capacidad de una red neuronal es también importante.
El objetivo de una red neuronal es simular el funcionamiento del sistema nervioso, el cual tiene la capacidad de autoaprendizaje en base a experiencias previas. Una red neuronal se compone de neuronas artificiales que se expresan en forma de funciones matemáticas, y que tienen como labor la recepción de la información, su procesamiento y la elaboración de un resultado. Estas neuronas se distribuyen normalmente en capas en función de su labor; entrada, procesamiento o salida.
Volviendo a ChatGPT, son muchos los usuarios/as que han manifestado la incapacidad de esta herramienta de dar respuestas precisas a sus peticiones. Este problema no sorprende cuando uno comprende el funcionamiento del sistema. Una red neuronal depende en su totalidad del acceso a información y de la calidad de la misma. Esta tecnología no razona, aprende, y para ello necesita acceso a una cantidad de datos masiva donde cualquier inexactitud afecta fuertemente a su capacidad de dar respuestas adecuadas en temáticas muy precisas. En esta misma línea, cualquier sesgo, prejuicio o estereotipo que contenga la información a través de la cual aprende tambien podrá afectar a la calidad de las repuestas que otorga. La corrección de estos escenarios requiere de un alto número de especialistas y recursos que escenifican la falta de autonomía de la tecnología. Cuando se le pregunta al propio ChatGPT sobre esto su repuesta es:
“Cabe destacar que mi mejora y actualización también dependen de la calidad de los datos y la información que se me proporciona durante el entrenamiento. Por lo tanto, es importante asegurarse de que los datos y las entradas que se me proporcionan sean precisos y confiables para que pueda mejorar y proporcionar mejores respuestas en el futuro.”
“En cuanto a la corrección de mis sesgos, esto es un proceso que involucra a un equipo de expertos en diversidad e inclusión, que se encargan de analizar mis respuestas y detectar posibles sesgos que puedan haber sido introducidos durante mi entrenamiento.”
Existen otras muchas limitaciones que nos indican que la capacidad de esta tecnología (IA) de replicar un cerebro humano esta todavía lejos de ser realidad como lo es la falta de conciencia propia. Las IAs actuales solo hacen lo que se les enseña a hacer, y en cierto modo, es para lo que están programadas. En este sentido, sin desprestigiar el potencial uso de esta tecnología, es importante equiparar las expectativas a la capacidad real del sistema.