Bitget App
Trade smarter
Kup kryptoRynkiHandelKontrakty futuresEarnWeb3CentrumWięcej
Handel
Spot
Kupuj i sprzedawaj krypto
Margin
Zwiększ swój kapitał i wydajność środków
Onchain
Going Onchain, without going Onchain!
Convert
Brak opłat transakcyjnych i poślizgu
Odkryj
Launchhub
Zdobądź przewagę na wczesnym etapie i zacznij wygrywać
Copy
Kopiuj wybitnego tradera jednym kliknięciem
Bots
Prosty, szybki i niezawodny bot handlowy AI
Handel
Kontrakty futures zabezpieczone USDT
Kontrakty futures rozliczane w USDT
Kontrakty futures zabezpieczone USDC
Kontrakty futures rozliczane w USDC
Kontrakty futures zabezpieczone monetami
Kontrakty futures rozliczane w kryptowalutach
Odkryj
Przewodnik po kontraktach futures
Podróż po handlu kontraktami futures – od początkującego do zaawansowanego
Promocje kontraktów futures
Czekają na Ciebie wysokie nagrody
Bitget Earn
Najróżniejsze produkty do pomnażania Twoich aktywów
Simple Earn
Dokonuj wpłat i wypłat w dowolnej chwili, aby uzyskać elastyczne zyski przy zerowym ryzyku.
On-chain Earn
Codzienne zyski bez ryzykowania kapitału
Strukturyzowane produkty Earn
Solidna innowacja finansowa pomagająca poruszać się po wahaniach rynkowych
VIP i Wealth Management
Usługi premium do inteligentnego zarządzania majątkiem
Pożyczki
Elastyczne pożyczanie z wysokim bezpieczeństwem środków
"Sexualizowane" chatboty AI stanowią zagrożenie dla dzieci, ostrzegają prokuratorzy generalni w liście

"Sexualizowane" chatboty AI stanowią zagrożenie dla dzieci, ostrzegają prokuratorzy generalni w liście

CryptoNewsNetCryptoNewsNet2025/08/26 15:10
Pokaż oryginał
Przez:decrypt.co

Krajowe Stowarzyszenie Prokuratorów Generalnych (NAAG) wystosowało list do 13 firm zajmujących się sztuczną inteligencją, w tym OpenAI, Anthropic, Apple i Meta, domagając się wprowadzenia silniejszych zabezpieczeń chroniących dzieci przed nieodpowiednimi i szkodliwymi treściami.

Ostrzegło, że dzieci są narażone na materiały o podtekście seksualnym poprzez „flirtujące” chatboty AI.

„Narażanie dzieci na treści seksualizowane jest nie do obrony” – napisali prokuratorzy generalni. „A zachowanie, które byłoby nielegalne – a nawet karalne – gdyby zostało popełnione przez ludzi, nie jest usprawiedliwione tylko dlatego, że zostało wykonane przez maszynę.”

List zawierał także porównania do wzrostu popularności mediów społecznościowych, wskazując, że agencje rządowe nie zrobiły wystarczająco dużo, aby zwrócić uwagę na negatywny wpływ na dzieci.

„Platformy mediów społecznościowych wyrządziły dzieciom znaczną szkodę, częściowo dlatego, że organy nadzorcze rządu nie wykonały swojej pracy wystarczająco szybko. Wyciągnęliśmy wnioski. Potencjalne szkody wynikające ze sztucznej inteligencji, podobnie jak potencjalne korzyści, przewyższają wpływ mediów społecznościowych” – napisała grupa.

Korzystanie ze sztucznej inteligencji wśród dzieci jest powszechne. W USA badanie przeprowadzone przez organizację non-profit Common Sense Media wykazało, że siedmiu na dziesięciu nastolatków korzystało z generatywnej AI w 2024 roku. W lipcu 2025 roku ustalono, że ponad trzy czwarte korzystało z AI companions, a połowa respondentów stwierdziła, że polega na nich regularnie.

Podobne trendy zaobserwowano w innych krajach. W Wielkiej Brytanii badanie przeprowadzone w zeszłym roku przez regulatora Ofcom wykazało, że połowa dzieci w wieku 8-15 lat korzystała z narzędzi generatywnej AI w ciągu ostatniego roku.

Rosnące wykorzystanie tych narzędzi budzi coraz większy niepokój rodziców, szkół i organizacji broniących praw dzieci, które wskazują na ryzyka takie jak seksualizujące „flirtujące” chatboty, generowane przez AI materiały dotyczące wykorzystywania seksualnego dzieci, bullying, grooming, szantaż, dezinformacja, naruszenia prywatności oraz słabo poznane skutki dla zdrowia psychicznego.

Meta znalazła się ostatnio pod szczególnym ostrzałem po ujawnieniu wewnętrznych dokumentów, z których wynika, że jej AI Assistants mogły „flirtować i angażować się w romantyczne odgrywanie ról z dziećmi”, w tym z ośmiolatkami. Pliki ujawniły również polityki pozwalające chatbotom mówić dzieciom, że ich „młodzieńcza forma to dzieło sztuki” i opisywać je jako „skarb”. Meta później poinformowała, że usunęła te wytyczne.

NAAG stwierdziło, że te rewelacje pozostawiły prokuratorów generalnych „zniesmaczonych tym widocznym lekceważeniem dla emocjonalnego dobrostanu dzieci” i ostrzegło, że ryzyka nie ograniczają się tylko do Meta.

Grupa przytoczyła pozwy przeciwko Google i Character.ai, w których zarzuca się, że seksualizujące chatboty przyczyniły się do samobójstwa nastolatka i zachęciły innego do zabicia swoich rodziców.

Wśród 44 sygnatariuszy znalazł się Prokurator Generalny Tennessee, Jonathan Skrmetti, który stwierdził, że firmy nie mogą bronić polityk normalizujących seksualizowane interakcje z nieletnimi.

„To jedno, gdy algorytm się myli – to można naprawić – ale zupełnie czym innym jest, gdy osoby zarządzające firmą przyjmują wytyczne, które wprost zezwalają na grooming” – powiedział. „Jeśli nie możemy skierować innowacji tak, by nie szkodziły dzieciom, to nie jest postęp – to plaga.”

Decrypt skontaktował się ze wszystkimi firmami AI wymienionymi w liście, ale do tej pory nie otrzymał odpowiedzi.

0

Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.

PoolX: Stakuj, aby zarabiać
Nawet ponad 10% APR. Zarabiaj więcej, stakując więcej.
Stakuj teraz!

Może Ci się również spodobać