DIRIGENTES-PORTADA_ENERO24
Suscríbete a la revista
Viernes, 26 de abril de 2024
D
D

Tecnología

La cara oscura de ChatGPT

Chat GPT, el chatbot de inteligencia artificial ideado por la compañía Open AI, está dando mucho que hablar. Promete soluciones industriales, respuesta a casi cualquier cuestión y cambiar la concepción de las fórmulas de búsqueda en la web. Pero, como ocurre con prácticamente todas las tecnologías, también puede generar problemas en distintos sectores. En las […]

Dirigentes Digital

29 mar 2023

Chat GPT, el chatbot de inteligencia artificial ideado por la compañía Open AI, está dando mucho que hablar. Promete soluciones industriales, respuesta a casi cualquier cuestión y cambiar la concepción de las fórmulas de búsqueda en la web. Pero, como ocurre con prácticamente todas las tecnologías, también puede generar problemas en distintos sectores. En las últimas semanas los expertos han alertado de plagios en textos elaborados con esta herramienta.

Además, especialistas en cibereseguridad, han descubierto que la plataforma de conversación inteligente está sirviendo para ayudar a los ciberdelincuentes a generar malwares, programas maliciosos usados para atacar sistemas informáticos. Así lo explica Eusebio Nieva, experto en ciberseguridad y director técnico de la compañía Check Point: “Hemos visto que en algunos foros de internet estaban hablando de cómo generar malware, o como habían conseguido generar programas maliciosos, utilizando Chat GTP y Codex, que es una inteligencia artificial también de OpenAI, especializada en generar códigos”. Lo hacían concretamente a través de Phyton, un conocido lenguaje de programación. Para comprobar que lo comentado en estos foros era cierto, los expertos de Check Point probaron Chat GPT y detectaron que efectivamente, es capaz de generar, por ejemplo, un correo de phising o conjunto de técnicas para conseguir engañar a quien lo recibe.

Atacantes amateur

“Los propios usuarios podían detectar el phishing porque normalmente se hacía con malas traducciones. En este caso, Chat GPT lo genera en perfecto castellano o en perfecto inglés”, explica Eusebio Nieva. Además, junto a otros expertos en ciberseguridad, comprobó cómo también es posible generar un documento para posteriormente ejecutarlo en un disco duro: un infostealer, un ladrón de información. Esto, explica, es un ataque básico, pero ilustra la posibilidad de utilizar la tecnología para hacer más fácil la labor a los atacantes. “Los script kiddies eran críos o jovencitos que con poco conocimiento utilizaban los scripts que había en internet para realizar ataques. Desaparecieron en los últimos tiempos pero con esto, se da pie a que gente con poco conocimiento o poco nivel, pueda generar ataques de una manera sencilla”, alerta. De hecho, en Check Point creen que el volumen de ciberagresiones crecerá porque habrá más gente, que sin ser experta, se apoye en este tipo de plataformas para 
generar problemas. No ocurrirá lo mismo con el grado de peligrosidad de los mismos, que, de momento, no preocupa a los expertos.

En todo caso, Chat GPT no genera por sí mismo un código malicioso. Lo que hacen los ciberdelincuentes es interactuar con la plataforma para generar la interfaz programática. Es decir, no da las instrucciones de cómo generar un malware, pero si el usuario lo pide mediante un código de programación, puede lograrlo. En todo caso, a través del conocimiento básico de lenguaje de programación y con el soporte de Chat GPT, pueden conseguir un ataque completo: “Te da el attachment, es decir, el adjunto que tienes que utilizar para que cuando lo abras, se ejecute y te da el código que tienes que adjuntar al attachment. O sea, te da el paquete completo casi, lo único es que tú tienes que enviar el correo a los usuarios”. Ante este nuevo escenario, los profesionales de la ciberseguridad trabajan principalmente en la prevención. “Tenemos métodos de detección precisamente para proteger a los usuarios. Pero eso no solo lo hacemos con un ataque generado con Chat GPT, sino con cualquier ataque”.

Inteligencia artificial y propiedad intelectual

Los problemas que puede generar Chat GPT van más allá de cuestiones relacionadas con la ciberseguridad. David Fuentes Lahoz, abogado del departamento de Propiedad Intelectual e Industrial de Bird & Bird, alerta de que ya comienzan a detectar casos relacionados con este tipo de tecnologías: “Los problemas que se plantean son distintos en función de si el cliente es quien desarrolla los sistemas de inteligencia artificial, quien usa las prestaciones fruto de dichos sistemas, o quien ha visto vulnerados sus derechos por su uso”. Añade además que algunos de sus clientes comienzan a plantearse “cuestiones relativas a la potencial protección de los datos utilizados para entrenar a los sistemas de inteligencia artificial”. De hecho, según explica este abogado, los datos que utilizan estos sistemas pueden estar protegidos de distintas formas en función del caso concreto: a través de los derechos de propiedad intelectual, los relativos a la privacidad o la competencia desleal pueden entrar en juego.

David Fuentes advierte que “este tipo de aplicaciones suelen servirse de algoritmos que reciben información directamente de internet, pero que los datos y textos estén disponibles en abierto no supone necesariamente que sean contenidos libres de derechos, por lo que el riesgo de cometer infracciones de derechos de terceros sigue presente”. Ante los problemas que pueden generarse respecto a la autoría de un texto creado por inteligencia artificial, desde Bird & Bird señalan que es necesario analizar si dicho sistema se ha empleado como mero apoyo a la creación del texto o si, por el contrario, la inteligencia artificial actúa como autor de la creación: “En el primer caso, cuando concurra gestión humana sobre los datos empleados por el sistema de inteligencia artificial y en otras tareas creativas que podrían realizarse algorítmicamente por dicho sistema, cabría valorar la calificación de un texto como obra y, en su caso, reconocer como autor a aquel que se haya ayudado del sistema
para crear el texto, siempre y cuando este sea original”. Por el contrario, si es la herramienta tecnológica la que ha escrito un texto, “no podríamos hablar de autoría sobre el texto, pero cabría analizar la potencial protección jurídica sobre, por ejemplo, el programa de ordenador, los algoritmos, y los datos utilizados para entrenar el sistema de inteligencia artificial”.

En todo caso, asegura David Fuentes, existen herramientas jurídicas para aclarar el nuevo escenario. La clave reside en determinar cómo aplicar en cada caso concreto los instrumentos, pero independientemente “es necesario regular ad hoc el uso de sistemas de inteligencia artificial, de forma que se logre un equilibrio adecuado entre la seguridad jurídica que facilite la inversión y la innovación en inteligencia artificial, y el respeto a los derechos y libertades”. Y concluye: “Si no queremos vivir fuera de una sociedad digitalizada y tecnológicamente avanzada, no nos interesa desproteger a los titulares de derechos y, por tanto, convendría adaptar la normativa aplicable a la realidad del momento y a los problemas que plantean las tecnologías disruptivas”.

Artículos relacionados

Tecnología

GlobalSuite® DORA, el nuevo software de cumplimiento para la Ley de Resiliencia Operativa Digital

Esta ley entró en vigor el 17 de enero de 2023 y será de obligado cumplimiento para bancos, aseguradoras y cualquier otra compañía que ofrezca servicios TIC a partir del próximo 17 de enero de 2025
Tecnología

Qué es la inteligencia artificial responsable y cómo impacta en la estrategia de Responsabilidad Social Corporativa de las empresas

Cada vez son más diversas las iniciativas empresariales que buscan contribuir al bienestar de las personas y al respeto del medioambiente
Tecnología

Ventajas de utilizar un comparador web de telefonía

Al utilizar un comparador de telefonía con el que veamos todas las tarifas que tenemos a nuestro favor, estaremos al tanto de cada una de sus características, de cuáles son los contratos más rentables y si podemos asumir la mensualidad que se nos pide
Cargando siguiente noticia:


Suscríbete a nuestra newsletter para estar informado


Villamor: “Podríamos ver un periodo de estanflación, pero sin una recesión grave”


Nuestros podcasts. 
Todo sobre economía y sus derivados

Po



© Piles Cincuenta S.L 2024 Todos los derechos reservados