DIRIGENTES-PORTADA_ENERO24
Suscríbete a la revista
Domingo, 13 de octubre de 2024
Últimas noticias
D
D

Opinión

Los riesgos del envenenamiento de la IA

Por Anastasia Sotelsek, Principal Sales Engineer de CyberArk

Anastasia Sotelsek

10 oct 2024

La política de OpenAI establece que ChatGPT recopila toda la información posible de los usuarios, lo cual incluye los datos personales que proporcionan los usuarios o la información de la cuenta. Así como los datos personales recibidos automáticamente del uso de los servicios de OpenAI, es decir, los datos de registro, de uso y la información del dispositivo. Una información que está destinada a utilizarse para mantener y mejorar los servicios mediante el perfeccionamiento de los modelos existentes con el objetivo de hacer que las respuestas sean más precisas y relevantes. Aparte de que los datos de los usuarios también son valiosos para ayudar a entrenar nuevos modelos de OpenAI.

Pero, a la vez, debido a la compleja naturaleza de ChatGPT y la limitada comprensión que se tiene respecto a por qué los modelos de lenguaje de gran tamaño (LLM) funcionan de la manera en que lo hacen, es casi imposible identificar cómo cierta información de los datos de entrenamiento se refleja en el modelo entrenado. De ahí que resulte muy complicado saber qué control tienen los usuarios sobre su privacidad. Sobre todo, si tenemos en cuenta que esta opacidad significa que, aunque OpenAI permite a los usuarios eliminar sus datos personales, no se puede saber con exactitud si los datos, una vez recopilados por los servidores de OpenAI, se utilizan para entrenar nuevos modelos.

Por ello, el consejo de seguridad o privacidad más importante que daría a los usuarios de ChatGPT sería el siguiente: no se puede confiar a ChatGPT nuestros datos privados. Los LLM son muy susceptibles a la manipulación, de ahí que, como usuarios, debemos ser extremadamente cautelosos y no compartir nunca información sensible, como contraseñas, información financiera o datos personales. Por lo tanto, no subir información secreta en ChatGPT es un consejo bastante obvio. Aparte de no confiar ciegamente en la salida de LLM y asegurarse de mantenerse informados sobre las políticas de privacidad y las medidas de seguridad.

Y si los usuarios particulares deben tener todo esto en cuenta, las organizaciones no se quedan a la zaga, ya que a medida que las empresas adoptan el impacto positivo de las innovaciones impulsadas por la IA, también deben enfrentarse a una amenaza silenciosa llamada envenenamiento de la IA. ¿Y esto qué es? El modus operandi es sencillo: el envenenamiento de la IA implica que los atacantes pueden corromper los datos de entrenamiento, lo que hace que la IA haga suposiciones sesgadas o erróneas. Y las consecuencias pueden ser catastróficas: desde que los ciberdelincuentes puedan incrustar transacciones fraudulentas en datos financieros históricos, lo que daría lugar a la concesión de préstamos a todo tipo de solicitantes a que los chatbots sean entrenados con datos envenenados que luego podrían convertirse en una herramienta para difundir información errónea.

La preocupación respecto al envenenamiento de la IA es creciente, pues plantea riesgos significativos para las organizaciones, lo que puede causar pérdidas financieras, daños a la reputación e, incluso, brechas de seguridad. Los ciberdelincuentes pueden explotar esta vulnerabilidad para lanzar ataques dirigidos que, entre otras cosas, pueden dañar la reputación de las organizaciones y sus productos y servicios perderían credibilidad. Y lo que resulta más preocupante, el envenenamiento de la IA podría dar lugar a problemas éticos y legales, lo que podría violar las leyes de privacidad y protección de datos.

En este sentido, uno de los pilares fundamentales para defenderse contra el envenenamiento de datos es obtener el tipo correcto de datos. De ahí que resulte vital que las organizaciones examinen, rigurosamente, las fuentes de datos, priorizando la autenticidad, la fiabilidad y la relevancia. Por otro lado, la creación de modelos de IA adaptativos es otra estrategia clave para combatir el envenenamiento de datos. Estos modelos están diseñados para adaptarse dinámicamente a los cambios en la distribución de datos, lo que garantiza una relevancia y precisión continuas a lo largo del tiempo.

Artículos relacionados

Opinión

Educación financiera para todas las generaciones, una herramienta necesaria para un futuro sostenible

Por Elisa Ricón, miembro del Comité Ejecutivo de FINRESP
Opinión

Seguridad y privacidad de datos en el sector financiero: ¿está tu información realmente protegida?

Por Iván Santiago Viñambres, director de ciclo de vida del crédito en Iberia de PFSTECH
Opinión

IA: regulación que protege, pero ¿innova?

Por Héctor Benítez, Head of Business & Solutions Compliance de Camerfirma (Grupo Infocert-Tinexta)
Cargando siguiente noticia:


Suscríbete a nuestra newsletter para estar informado


Javier Molina: “no tiene sentido salirse de los grandes valores americanos ahora”


Nuestros podcasts. 
Todo sobre economía y sus derivados

Po


Lo + leído

© Piles Cincuenta S.L 2024 Todos los derechos reservados