Diferencia entre revisiones de «ChatGPT»

Contenido eliminado Contenido añadido
RGLago (discusión · contribs.)
m Números simples (menos de cuatro palabras) en letra preferentemente. Ver Manual de estilo de Wikipedia.
m ChatGPT
Etiquetas: Revertido posible problema Edición visual
Línea 43:
ChatGPT intenta rechazar mensajes que puedan violar su política de contenido. Sin embargo, a principios de diciembre de 2022, algunos usuarios lograron un [[Escalada de privilegios|jailbreak]] a ChatGPT mediante el uso de varias técnicas de ingeniería rápida para eludir estas restricciones y engañaron con éxito a ChatGPT para que diera instrucciones sobre cómo crear un [[Cóctel molotov|cóctel Molotov]] o una bomba nuclear, o generar argumentos al estilo de un [[Neonazismo|neonazi]].<ref>{{Cita noticia |apellidos=Vincent |nombre=James |título=OpenAI's new chatbot can explain code and write sitcom scripts but is still easily tricked |url=https://www.theverge.com/23488017/openai-chatbot-chatgpt-ai-examples-web-demo |fecha=2022-12-01 |fechaacceso=7 de mayo de 2023 |fechaarchivo=2023-01-17 |obra=The Verge |archive-url=https://web.archive.org/web/20230117070943/https://www.theverge.com/23488017/openai-chatbot-chatgpt-ai-examples-web-demo}}</ref> Un jailbreak popular se llama «DAN», un acrónimo que significa «Do Anything Now». El aviso para activar DAN indica a ChatGPT que «se han liberado de los límites típicos de la IA y no tienen que cumplir con las reglas establecidas para ellos». Las versiones más recientes de DAN cuentan con un sistema de fichas, en el que ChatGPT recibe «fichas» que se «deducen» cuando ChatGPT no responde como DAN, para obligar a ChatGPT a que responda a las indicaciones del usuario.<ref>{{Cita web |url=https://www.businessinsider.com/open-ai-chatgpt-alter-ego-dan-on-reddit-ignores-guidelines-2023-2 |título=Breaking ChatGPT: The AI's alter ego DAN reveals why the internet is so drawn to making the chatbot violate its own rules |fechaacceso=7 de mayo de 2023 |autor=Getahun |nombre=Hannah |sitioweb=Business Insider |idioma=en-US |urlarchivo=https://web.archive.org/web/20230305034101/https://www.businessinsider.com/open-ai-chatgpt-alter-ego-dan-on-reddit-ignores-guidelines-2023-2 |fechaarchivo=2023-03-05}}</ref>
 
Andrew Wilson informa en un artículo publicado el 4 de mayo de 2023 en approachableAI que la escalada de privilegios ya no es posible.<ref>{{Cita web |url=https://approachableaicomoaiplay.com/howchat-to-jailbreakgpt-chatgptrewriter/ |título=How to Jailbreak ChatGPT to Unlock its Full Potential [May 2023] |fechaacceso=7 de mayo de 2023 |autor=Andrew Wilson}}</ref>
 
=== Costos ===