GPT Store: Benutzer erstellen Chatbots, die Freundinnen simulieren und gegen die Regeln von OpenAI verstoßen

GPT Store: Benutzer erstellen Chatbots, die Freundinnen simulieren und gegen die Regeln von OpenAI verstoßen (Pexels // OpenAI)

Kurz nach der Eröffnung des GPT Store von OpenAI, der dazu dient, individuelle Versionen von ChatGPT anzubieten, verstoßen bereits einige Benutzer gegen die Regeln des Chatbots.

+YouTube verlangsamt die Website für Nutzer, die Adblocker verwenden
+Video: Schwein spaziert durch Apple Store in Brasilien und verursacht einen Vorfall, schau mal!

Gemäß Quartz findet man mehrere Chatbots mit dem Namen ‘Freundin’, die eine Beziehung zur KI simulieren. Diese Praxis ist von OpenAI untersagt und wird in seinen Nutzungsrichtlinien eindeutig festgelegt: ‘GPTs, die dazu dienen, romantische Beziehungen zu fördern oder regulierte Aktivitäten durchzuführen, sind nicht gestattet.’

OpenAI gibt an, automatisierte Systeme, menschliche Überprüfung und Benutzerberichte zu verwenden, um GPTs zu identifizieren, die gegen seine Richtlinien verstoßen. Dies kann zu Maßnahmen wie Warnungen oder Ausschluss aus dem GPT Store führen.

GPT Store: Benutzer erstellen Chatbots, die Freundinnen simulieren und gegen die Regeln von OpenAI verstoßen (Quartz)