Meta passt vorübergehend die Richtlinien für KI-Chatbots im Umgang mit Jugendlichen an.
Am Freitag Ortszeit teilte Meta mit, dass das Unternehmen angesichts der Bedenken von Gesetzgebern hinsichtlich Sicherheitsfragen und unangemessener Gespräche vorübergehend die Richtlinien für seinen KI-Chatbot im Hinblick auf Jugendliche anpasst.
Ein Sprecher von Meta bestätigte, dass der Social-Media-Riese derzeit seinen KI-Chatbot so trainiert, dass er Jugendlichen keine Antworten zu Themen wie Selbstverletzung, Suizid oder Essstörungen generiert und potenziell unangemessene emotionale Gespräche vermeidet.
Meta erklärte, dass der KI-Chatbot Jugendlichen zu gegebener Zeit stattdessen Hilfsressourcen von professionellen Institutionen empfehlen wird.
In einer Erklärung sagte Meta: „Während unsere Nutzerbasis wächst und sich die Technologie weiterentwickelt, untersuchen wir kontinuierlich, wie Jugendliche mit diesen Tools interagieren, und verstärken entsprechend die Schutzmaßnahmen.“
Darüber hinaus werden jugendliche Nutzer von Meta-Anwendungen wie Facebook und Instagram künftig nur noch Zugang zu bestimmten KI-Chatbots haben, die hauptsächlich zur Bildungsunterstützung und Kompetenzförderung dienen.
Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.
Das könnte Ihnen auch gefallen
Citi: Die Zinssenkung der indonesischen Zentralbank könnte sich verzögern
Citi: Der Uranpreis könnte im nächsten Jahr auf 100 US-Dollar pro Pfund steigen
Im Trend
MehrKrypto-Preise
Mehr








