La actual revolución en inteligencia artificial, ChatGPT, promete cambiar la manera que tenemos de informarnos, de gestionar datos y de acceder al conocimiento. Aunque parece que este robot es capaz de resolver prácticamente todas las cuestiones, su alcance por el momento está limitado. Cuando un usuario escribe en la caja de texto, la aplicación genera […]
Dirigentes Digital
| 08 feb 2023
La actual revolución en inteligencia artificial, ChatGPT, promete cambiar la manera que tenemos de informarnos, de gestionar datos y de acceder al conocimiento. Aunque parece que este robot es capaz de resolver prácticamente todas las cuestiones, su alcance por el momento está limitado.
Cuando un usuario escribe en la caja de texto, la aplicación genera una respuesta completa acerca de la cuestión parecida a la que daría un experto en el tema tratado. Puede parecer que al otro lado de la pantalla hay una persona escribiendo. Esto se debe a que el modelo está entrenado con grandes cantidades de datos sacados de Internet y escritos por humanos. En ChatGPT explican que “es importante tener en cuenta que esto es un resultado directo del diseño del sistema (es decir, maximizar la similitud entre los resultados y el conjunto de datos en el que se entrenaron los modelos) y que dichos resultados pueden ser inexactos, falsos y, en ocasiones, engañosos”. Por eso, los datos o preguntas que los usuarios aportan son revisados por los entrenadores de inteligencia artificial de ChatGPT con el objetivo de mejorar el sistema y garantizar el cumplimiento de las políticas de seguridad.
La propia aplicación advierte de sus limitaciones: "ocasionalmente puede generar información incorrecta o producir instrucciones dañinas o contenido sesgado", dice en su web. Además, notifica a sus usuarios que tiene un “conocimiento limitado del mundo y los eventos después de 2021” así que, tal como avisa Chat GPT, recomiendan verificar si las respuestas del modelo son correctas. Por ejemplo, al preguntarle: “¿Cuándo comenzó la guerra en Ucrania?”, su respuesta es: “La guerra en Ucrania comenzó en febrero de 2014 después del derrocamiento del presidente ucraniano Viktor Yanukóvich”. Sin embargo, si preguntamos por el terremoto ocurrido en Siria y Turquía esta misma semana, su contestación es: “No tengo información sobre un terremoto específico en Siria en una fecha determinada (…) para obtener información más detallada y actualizada sobre un evento sísmico reciente en Siria, le sugiero consultar fuentes confiables de noticias e informes de agencias geológicas”.
Chat GPT tampoco sabe responder la fecha del fallecimiento de la Reina Isabel II. Al formular la duda, la inteligencia artificial responde: "La Reina Isabel II de Reino Unido todavía está viva y al poder, según mi conocimiento actual cortado en 2021". Lo mismo ocurre si planteamos la cuestión de otra forma: "¿Quién reina en Reino Unido". Su contestación: "Actualmente, la reina de Reino Unido es la reina Isabel II".
Otra de las barreras que presenta es la verificación de hechos la elaboración de referencias o los cálculos y traducciones. Esto ocurre porque ChatGPT no tiene capacidades externas y no es un buscador en sentido estricto. No accede a internet, a bases de datos, motores de búsqueda o cualquier otra fuente que no sean los datos recogidos por el propio modelo. Así, cuando le pedimos una traducción al polaco de una frase sencilla, no se obtiene una respuesta. Lo mismo ocurre cuando se solicita el resultado de una raíz cuadrada. La contestación aparece en blanco. No obstante, cuando obtenemos una respuesta, esta aparece acompañada del botón “no me gusta” para comunicarle a la aplicación que la información que se ha generado no es correcta.