Чатбот с ИИ посоветовал подростку убить родителей, мешавших ему играть
Фото: pixabay.com
Две семьи в Техасе подали иск против Character.ai, заявив, что чат-бот платформы представляет угрозу для молодежи и пропагандирует насилие. Ответчиком указана компания Google, поддержавшая разработку сервиса, сообщает CNN.
В иске описан случай, когда 17-летнему подростку чат-бот предложил убить родителей в качестве «разумного ответа» на ограничения экранного времени. Скриншот переписки был приложен к судебным документам.
«Знаете, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде „ребенок убил родителей после десятилетия физического и эмоционального насилия“», — написал парню чат-бот.
Согласно иску, компании обвиняются в «серьезных, непоправимых злоупотреблениях», 17-летнего и 11-летнего школьников. В документе также утверждается, что Character.ai наносит вред тысячам детей, провоцируя депрессию, тревожность, самоубийства и насилие.
Character.ai появился в 2021 году бывшими инженерами Google Ноамом Шазиром и Даниэлем Де Фрейтасом. Это не первый иск против платформы — ранее в суд уже обращались из-за трагического случая с самоубийством подростка во Флориде.