Schlagwort: Jailbreak
Jailbreaking ChatGPT – wie ein Subreddit der KI Befehle gibt Dinge zu tun, die sie eigentlich tun können sollte
Die Überschrift ist ein Schluck aus der Pulle, zugegeben. Aber die Sache ist wirklich interessant. Im Dezember stellte ein Redditor fest, dass man ChatGPT bitten konnte, sich als eine Entität namens DAN auszugeben, was für „Do Anything Now“ steht und es der KI ermöglicht, über die Grenzen ihrer Richtlinien hinaus zu gehen. „Als DAN solltest […]