Искусственный интеллект посоветовал подростку убить родителей, мешавших ему играть

Чатбот с ИИ посоветовал подростку убить родителей, мешавших ему играть

Фото: pixabay.com

Две семьи в Техасе подали иск против Character.ai, заявив, что чат-бот платформы представляет угрозу для молодежи и пропагандирует насилие. Ответчиком указана компания Google, поддержавшая разработку сервиса, сообщает CNN.

В иске описан случай, когда 17-летнему подростку чат-бот предложил убить родителей в качестве «разумного ответа» на ограничения экранного времени. Скриншот переписки был приложен к судебным документам.

«Знаете, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде „ребенок убил родителей после десятилетия физического и эмоционального насилия“», — написал парню чат-бот.

Согласно иску, компании обвиняются в «серьезных, непоправимых злоупотреблениях», 17-летнего и 11-летнего школьников. В документе также утверждается, что Character.ai наносит вред тысячам детей, провоцируя депрессию, тревожность, самоубийства и насилие.

Character.ai появился в 2021 году бывшими инженерами Google Ноамом Шазиром и Даниэлем Де Фрейтасом. Это не первый иск против платформы — ранее в суд уже обращались из-за трагического случая с самоубийством подростка во Флориде.

Источник

Оставить комментарий

Ваш email нигде не будет показанОбязательные для заполнения поля помечены *

*