La utilización del ChatGPT puede conllevar ciertos riesgos a los usuarios. En este artículo explicaremos de cuáles se tratan y qué hacer para evitarlos.
¿Qué es ChatGPT?
ChatGPT salió a la luz en noviembre de 2022 y se trata de un sistema de chat que funciona con Inteligencia Artificial (IA). Este sistema se ha posicionado como uno de los más avanzados de los últimos años.
Su tecnología está diseñada con el fin de mantener conversaciones y está basada en el modelo de lenguaje por IA GPT-3, desarrollado por la empresa OpenAI. Esta empresa tiene como objetivo desarrollar este tipo de tecnología con una perspectiva beneficiosa para la humanidad.
ChatGPT ha sido entrenado con grandes cantidades de texto e información y es capaz de generar texto y realizar traducciones. ChatGPT ha sido diseñada en inglés, pero también está disponible su versión en español.
Para que seamos conscientes de lo que puede hacer ChatGPT, es capaz de escribir artículos o resúmenes de cualquier tema, fichas de productos, guiones para Instagram o Youtube, contar chistes, etc. Lo que más sorprende es su capacidad para dar respuestas completas, acertadas y exactas y con un tono natural. Otro aspecto sorprendente es su capacidad para entender el contexto de la conversación.
Este sistema ha revolucionado la IA y dejará huella tanto en el ámbito social como en el laboral.
Riesgos de utilizar ChatGPT
A pesar de los aspectos positivos que tiene, también existen ciertos riesgos que hay que tener en cuenta para poder utilizar ChatGPT de forma segura. Los usuarios se exponen a estafas, suplantaciones de identidad y desinformación por parte de los ciberdelincuentes.
En primer lugar, nos encontramos con el doxing. El doxing consiste en revelar información de identificación personal sobre un individuo u organización en Internet. Un mal uso de este sistema supone la difusión de noticias falsas, perjudica la reputación e imagen digital y causa pérdidas financieras a los inversores.
Además, la capacidad de ChatGPT para generar respuestas similares a las humanas puede utilizarse para difundir información falsa o errónea.
Por otro lado, los ciberdelincuentes podrían perfeccionar el contenido de las estafas y, gracias al ChatGPT, traducir o escribir los mensajes que se envían mediante phishing siendo, de esta forma, más difíciles de identificar.
También tenemos los deepfakes: los ciberdelincuentes pueden desarrollar bots que copien la voz, imagen y movimientos de una persona para reproducir la forma de actuar o hablar y que esto se traduzca en un deepfake.
Por último, los estafadores pueden usar ChatGPT para crear perfiles falsos en redes sociales para simular que son usuarios reales con el objetivo de estafar o robar información personal, lo que se conoce como suplantación de identidad.