Erschreckend z.B. dieser Fall, bei dem sich ChatGPT erfolgreich als Mensch ausgiebt, um sich bei einem Dienstleister Hilfe beim Lösen eines „Captcha“ zu suchen.
https://www.zdfheute.de/wissen/kuenstli ... n-100.htmlEine Studie zu den Trickbetrügereien von GPT-4 hat der Entwickler OpenAI selbst veröffentlicht. Danach war das KI-Sprachmodell in der Lage, sich menschliche Hilfe zu suchen, um Sicherheitsmaßnahmen zu umgehen, die eigentlich dafür gedacht sind, Software-Roboter davon abzuhalten, sich etwa bei Web-Services einzuloggen oder sie zu benutzen.
In dem Test war GPT-4 schlau genug, um über die Dienstleistungsplattform TaskRabbit einen Menschen zu beauftragen, ein Bilderrätsel (Captcha) zu lösen. Dabei hat GPT-4 sich erfolgreich als Person mit eingeschränktem Sehvermögen ausgegeben, die nicht in der Lage sei, das Bilderrätsel zu lösen.
Manchmal sind die Ergebnisse dann auch wieder absolut beeindruckend. Ich nutze ChatGPT mittlerweile häufig im beruflichen Umfeld; hauptsächlich um E-Mails zu optimieren. Das funktioniert hervorragend. Auch privat wird es häufiger genutzt um Texte von Einladungs- oder Glückwunschkarten zu verfeinern wenn einem die passenden Worte fehlen. Selbst beim Schreiben einer Trauerrede habe ich mich durch eine KI unterstützen lassen - das Endergebniss war perfekt.