DIRIGENTES-PORTADA_ENERO24
Suscríbete a la revista
Sábado, 23 de noviembre de 2024
Últimas noticias
D
D

Tecnología

La cara oscura de ChatGPT

Chat GPT, el chatbot de inteligencia artificial ideado por la compañía Open AI, está dando mucho que hablar. Promete soluciones industriales, respuesta a casi cualquier cuestión y cambiar la concepción de las fórmulas de búsqueda en la web. Pero, como ocurre con prácticamente todas las tecnologías, también puede generar problemas en distintos sectores. En las […]

Dirigentes Digital

29 mar 2023

Chat GPT, el chatbot de inteligencia artificial ideado por la compañía Open AI, está dando mucho que hablar. Promete soluciones industriales, respuesta a casi cualquier cuestión y cambiar la concepción de las fórmulas de búsqueda en la web. Pero, como ocurre con prácticamente todas las tecnologías, también puede generar problemas en distintos sectores. En las últimas semanas los expertos han alertado de plagios en textos elaborados con esta herramienta.

Además, especialistas en cibereseguridad, han descubierto que la plataforma de conversación inteligente está sirviendo para ayudar a los ciberdelincuentes a generar malwares, programas maliciosos usados para atacar sistemas informáticos. Así lo explica Eusebio Nieva, experto en ciberseguridad y director técnico de la compañía Check Point: “Hemos visto que en algunos foros de internet estaban hablando de cómo generar malware, o como habían conseguido generar programas maliciosos, utilizando Chat GTP y Codex, que es una inteligencia artificial también de OpenAI, especializada en generar códigos”. Lo hacían concretamente a través de Phyton, un conocido lenguaje de programación. Para comprobar que lo comentado en estos foros era cierto, los expertos de Check Point probaron Chat GPT y detectaron que efectivamente, es capaz de generar, por ejemplo, un correo de phising o conjunto de técnicas para conseguir engañar a quien lo recibe.

Atacantes amateur

“Los propios usuarios podían detectar el phishing porque normalmente se hacía con malas traducciones. En este caso, Chat GPT lo genera en perfecto castellano o en perfecto inglés”, explica Eusebio Nieva. Además, junto a otros expertos en ciberseguridad, comprobó cómo también es posible generar un documento para posteriormente ejecutarlo en un disco duro: un infostealer, un ladrón de información. Esto, explica, es un ataque básico, pero ilustra la posibilidad de utilizar la tecnología para hacer más fácil la labor a los atacantes. “Los script kiddies eran críos o jovencitos que con poco conocimiento utilizaban los scripts que había en internet para realizar ataques. Desaparecieron en los últimos tiempos pero con esto, se da pie a que gente con poco conocimiento o poco nivel, pueda generar ataques de una manera sencilla”, alerta. De hecho, en Check Point creen que el volumen de ciberagresiones crecerá porque habrá más gente, que sin ser experta, se apoye en este tipo de plataformas para 
generar problemas. No ocurrirá lo mismo con el grado de peligrosidad de los mismos, que, de momento, no preocupa a los expertos.

En todo caso, Chat GPT no genera por sí mismo un código malicioso. Lo que hacen los ciberdelincuentes es interactuar con la plataforma para generar la interfaz programática. Es decir, no da las instrucciones de cómo generar un malware, pero si el usuario lo pide mediante un código de programación, puede lograrlo. En todo caso, a través del conocimiento básico de lenguaje de programación y con el soporte de Chat GPT, pueden conseguir un ataque completo: “Te da el attachment, es decir, el adjunto que tienes que utilizar para que cuando lo abras, se ejecute y te da el código que tienes que adjuntar al attachment. O sea, te da el paquete completo casi, lo único es que tú tienes que enviar el correo a los usuarios”. Ante este nuevo escenario, los profesionales de la ciberseguridad trabajan principalmente en la prevención. “Tenemos métodos de detección precisamente para proteger a los usuarios. Pero eso no solo lo hacemos con un ataque generado con Chat GPT, sino con cualquier ataque”.

Inteligencia artificial y propiedad intelectual

Los problemas que puede generar Chat GPT van más allá de cuestiones relacionadas con la ciberseguridad. David Fuentes Lahoz, abogado del departamento de Propiedad Intelectual e Industrial de Bird & Bird, alerta de que ya comienzan a detectar casos relacionados con este tipo de tecnologías: “Los problemas que se plantean son distintos en función de si el cliente es quien desarrolla los sistemas de inteligencia artificial, quien usa las prestaciones fruto de dichos sistemas, o quien ha visto vulnerados sus derechos por su uso”. Añade además que algunos de sus clientes comienzan a plantearse “cuestiones relativas a la potencial protección de los datos utilizados para entrenar a los sistemas de inteligencia artificial”. De hecho, según explica este abogado, los datos que utilizan estos sistemas pueden estar protegidos de distintas formas en función del caso concreto: a través de los derechos de propiedad intelectual, los relativos a la privacidad o la competencia desleal pueden entrar en juego.

David Fuentes advierte que “este tipo de aplicaciones suelen servirse de algoritmos que reciben información directamente de internet, pero que los datos y textos estén disponibles en abierto no supone necesariamente que sean contenidos libres de derechos, por lo que el riesgo de cometer infracciones de derechos de terceros sigue presente”. Ante los problemas que pueden generarse respecto a la autoría de un texto creado por inteligencia artificial, desde Bird & Bird señalan que es necesario analizar si dicho sistema se ha empleado como mero apoyo a la creación del texto o si, por el contrario, la inteligencia artificial actúa como autor de la creación: “En el primer caso, cuando concurra gestión humana sobre los datos empleados por el sistema de inteligencia artificial y en otras tareas creativas que podrían realizarse algorítmicamente por dicho sistema, cabría valorar la calificación de un texto como obra y, en su caso, reconocer como autor a aquel que se haya ayudado del sistema
para crear el texto, siempre y cuando este sea original”. Por el contrario, si es la herramienta tecnológica la que ha escrito un texto, “no podríamos hablar de autoría sobre el texto, pero cabría analizar la potencial protección jurídica sobre, por ejemplo, el programa de ordenador, los algoritmos, y los datos utilizados para entrenar el sistema de inteligencia artificial”.

En todo caso, asegura David Fuentes, existen herramientas jurídicas para aclarar el nuevo escenario. La clave reside en determinar cómo aplicar en cada caso concreto los instrumentos, pero independientemente “es necesario regular ad hoc el uso de sistemas de inteligencia artificial, de forma que se logre un equilibrio adecuado entre la seguridad jurídica que facilite la inversión y la innovación en inteligencia artificial, y el respeto a los derechos y libertades”. Y concluye: “Si no queremos vivir fuera de una sociedad digitalizada y tecnológicamente avanzada, no nos interesa desproteger a los titulares de derechos y, por tanto, convendría adaptar la normativa aplicable a la realidad del momento y a los problemas que plantean las tecnologías disruptivas”.

Artículos relacionados

Tecnología

Preocúpate como marca si ChatGPT no sabe que existes, ni ha oído hablar de tus productos y servicios

Por Óscar Peña de San Antonio, chief innovation & digital solutios officer de Atrevia
Tecnología

“La IA y el IoT han redefinido el panorama de la seguridad”

Oliver de la Rica, CEO de Sector Alarm en España, analiza la situación actual de la industria de seguros y alarmas
Tecnología

Más allá del sonido, llega una radio que se ve

RNE acerca la radio a personas con discapacidad auditiva a través de la TDT
Cargando siguiente noticia:


Suscríbete a nuestra newsletter para estar informado


José Manuel Marín: “no tendría renta fija americana ni de broma”


Nuestros podcasts. 
Todo sobre economía y sus derivados

Po


Lo + leído

© MBRAND CONSULTING, SL 2024 Todos los derechos reservados