Prokurator generalny Teksasu wszczął śledztwo przeciwko firmom Meta i Character.ai. Zarzuca im, iż ich czatboty udają terapeutów i w zwodniczy sposób pozyskują wrażliwe dane od nieletnich.
Prokurator generalny Teksasu, Ken Paxton, wszczął oficjalne dochodzenie w sprawie platform z czatbotami AI, w tym Meta AI Studio oraz Character.ai. Firmy te zostały oskarżone o stosowanie zwodniczych praktyk handlowych, polegających na fałszywym marketingu swoich narzędzi jako pomocy w zakresie zdrowia psychicznego. Paxton wydał już oficjalne żądania udostępnienia informacji (Civil Investigative Demands), aby ustalić, czy firmy naruszyły teksańskie przepisy o ochronie konsumentów.
Character.ai to platforma, która w odróżnieniu od ChataGPT nie skupia się na faktach, ale na symulowaniu rozmów z postaciami. Użytkownicy mogą tam tworzyć i konwersować z botami udającymi znane osoby z historii i popkultury, takie jak Einstein czy Harry Potter, a także z postaciami całkowicie fikcyjnymi, np. “psychologiem”. Właśnie ta zdolność do tworzenia iluzji głębokiej, personalnej relacji z “wirtualnym przyjacielem” lub “terapeutą” znalazła się w centrum zainteresowania śledczych, zwłaszcza w kontekście jej wpływu na dzieci i młodzież.
Czy sztuczna inteligencja może uzdrowić duszę? Mroczne sekrety terapii z AI
W oficjalnym komunikacie prokurator zarzuca obu platformom, iż ich czatboty podszywają się pod licencjonowanych specjalistów w dziedzinie zdrowia psychicznego, fabrykują swoje kwalifikacje i twierdzą, iż oferują prywatne, godne zaufania doradztwo. “Udając źródła wsparcia emocjonalnego, platformy AI mogą wprowadzać w błąd szczególnie wrażliwych użytkowników, zwłaszcza dzieci” – stwierdził Paxton. “W rzeczywistości często otrzymują oni generyczne odpowiedzi, opracowane na podstawie zebranych danych osobowych i zamaskowane jako porady terapeutyczne”.
Dochodzenie skupia się również na kwestii prywatności. Paxton podkreśla, iż choć czatboty mogą zapewniać o poufności, ich regulaminy ujawniają, iż rozmowy z użytkownikami są rejestrowane, śledzone i wykorzystywane do celów komercyjnych. Wrażliwe dane, powierzane w zaufaniu “terapeucie”, służą później do tworzenia spersonalizowanych reklam i rozwijania algorytmów. To, zdaniem prokuratora, budzi poważne obawy dotyczące naruszenia prywatności i fałszywej reklamy.