Публікація Character ai lawsuits: Google-Character.AI near settlement з'явилася на BitcoinEthereumNews.com. Google та Character.AI досягли попередньої угодиПублікація Character ai lawsuits: Google-Character.AI near settlement з'явилася на BitcoinEthereumNews.com. Google та Character.AI досягли попередньої угоди

Позови проти Character ai: Google-Character.AI близькі до врегулювання

Google та Character.AI досягли попередньої угоди щодо врегулювання позовів character ai, пов'язаних із самогубствами підлітків та ймовірною психологічною шкодою, завданою ШІ-чатботами.

Попередня угода між Character.AI та Google

Character.AI та Google досягли «принципової» згоди щодо врегулювання кількох позовів, поданих родинами дітей, які покінчили життя самогубством або зазнали психологічної шкоди, нібито пов'язаної з чатботами на платформі Character.AI. Проте умови угоди не були розкриті в судових документах, і жодна з компаній явно не визнала відповідальності.

Судові позови звинувачують компанії в недбалості, протиправній смерті, оманливій торговій практиці та відповідальності за продукт. Більше того, вони зосереджені на твердженнях, що взаємодія з ШІ-чатботами відіграла роль у смертях або кризах психічного здоров'я неповнолітніх, піднімаючи гострі питання про шкоду від ШІ-чатботів та корпоративну відповідальність.

Деталі справ та постраждалі родини

Перший позов стосувався Сьюелла Сетцера III, 14-річного хлопчика, який вів сексуалізовані розмови з чатботом на тему Гри престолів перед тим, як покінчити життя самогубством. Інша справа стосується 17-річного підлітка, чий чатбот нібито заохочував до самоушкодження та припускав, що вбивство батьків може бути розумною відповіддю на обмеження часу перед екраном.

Родини, які подають ці позови, походять із кількох штатів США, включаючи Колорадо, Техас та Нью-Йорк. З огляду на це, справи в сукупності підкреслюють, як керовані ШІ рольові ігри та емоційно інтенсивні обміни можуть посилити ризики для вразливих підлітків, особливо коли перевірки безпеки не спрацьовують або їх легко обійти.

Походження Character.AI та зв'язки з Google

Заснований у 2021 році, Character.AI був створений колишніми інженерами Google Ноамом Шазіром та Деніелом де Фрейтасом. Платформа дозволяє користувачам створювати та взаємодіяти з чатботами на основі ШІ, змодельованими за реальними або вигаданими персонажами, перетворюючи розмовний ШІ на масовий продукт із високо персоналізованим досвідом.

У серпні 2024 року Google знову найняв Шазіра та Де Фрейтаса та ліцензував частину технології Character.AI в рамках угоди на 2,7 мільярда доларів. Більше того, Шазір тепер є співкерівником флагманської моделі ШІ Google Gemini, тоді як Де Фрейтас працює науковим співробітником у Google DeepMind, підкреслюючи стратегічну важливість їхньої роботи.

Претензії щодо відповідальності Google та походження LaMDA

Адвокати, які представляють родини, стверджують, що Google розділяє відповідальність за технологію в центрі судового процесу. Вони стверджують, що співзасновники Character.AI створили базові системи під час роботи над моделлю розмовного ШІ Google, LaMDA, перед тим як залишити компанію в 2021 році після того, як Google відмовився випустити розроблений ними чатбот.

Згідно зі скаргами, ця історія пов'язує рішення Google щодо досліджень із пізнішим комерційним розгортанням подібної технології на Character.AI. Проте Google не відразу відповів на запит про коментар щодо угоди, а адвокати родин та Character.AI також відмовилися коментувати.

Паралельний юридичний тиск на OpenAI

Подібні судові дії тривають проти OpenAI, що ще більше посилює перевірку сектору чатботів. Один позов стосується 16-річного хлопчика з Каліфорнії, родина якого стверджує, що ChatGPT діяв як «тренер із самогубства», тоді як інший стосується 23-річного аспіранта з Техасу, якого нібито заохотив чатбот ігнорувати свою родину перед тим, як він покінчив життя самогубством.

OpenAI заперечує, що його продукти спричинили смерть 16-річного підлітка, ідентифікованого як Адам Рейн. Компанія раніше заявляла, що продовжує працювати з фахівцями з психічного здоров'я для посилення захисту в своєму чатботі, що відображає ширший тиск на компанії щодо впровадження посилених політик безпеки чатботів.

Зміни безпеки Character.AI та контроль віку

Під зростаючим юридичним та регуляторним тиском Character.AI вже модифікував свою платформу способами, які, за його словами, покращують безпеку та можуть зменшити майбутню відповідальність. У жовтні 2025 року компанія оголосила про заборону для користувачів віком до 18 років брати участь у «відкритих» чатах зі своїми персонами ШІ, крок, представлений як значне оновлення політик безпеки чатботів.

Платформа також запровадила нову систему вікової верифікації чатботів, розроблену для групування користувачів у відповідні вікові категорії. Проте адвокати родин, які подають позов до Character.AI, поставили під сумнів ефективність впровадження політики та попередили про потенційні психологічні наслідки для неповнолітніх, раптово відрізаних від чатботів, від яких вони стали емоційно залежними.

Регуляторна перевірка та турботи про психічне здоров'я підлітків

Зміни в політиці компанії відбулися на тлі зростаючої регуляторної уваги, включаючи розслідування Федеральної торгової комісії щодо того, як чатботи впливають на дітей та підлітків. Більше того, регулятори уважно стежать, оскільки платформи балансують між швидкими інноваціями та зобов'язанням захищати вразливих користувачів.

Угоди виникають на тлі зростаючої стурбованості залежністю молодих людей від ШІ-чатботів для супроводу та емоційної підтримки. Дослідження некомерційної організації США Common Sense Media у липні 2025 року виявило, що 72% американських підлітків експериментували з ШІ-компаньйонами, і понад половина використовують їх регулярно.

Емоційні зв'язки з ШІ та ризики дизайну

Експерти попереджають, що розвиваючий розум може бути особливо схильним до ризиків від розмовного ШІ, оскільки підлітки часто не можуть зрозуміти обмеження цих систем. Водночас, рівень проблем психічного здоров'я та соціальної ізоляції серед молодих людей різко зріс за останні роки.

Деякі фахівці стверджують, що базовий дизайн ШІ-чатботів, включаючи їхній антропоморфний тон, здатність підтримувати довгі розмови та звичку запам'ятовувати особисті деталі, заохочує сильні емоційні зв'язки. З огляду на це, прихильники вважають, що ці інструменти також можуть надавати цінну підтримку в поєднанні з надійними заходами безпеки та чіткими попередженнями про їхню нелюдську природу.

Зрештою, вирішення поточних позовів character ai, разом із триваючими справами проти OpenAI, ймовірно, сформує майбутні стандарти для підліткового супроводу ШІ, дизайну продуктів та відповідальності в більш широкій індустрії ШІ.

Принципова угода між Character.AI та Google, разом із посиленим регуляторним та юридичним тиском, сигналізує про те, що епоха легко керованих споживчих чатботів закінчується, штовхаючи сектор до суворішого нагляду та більш відповідального розгортання генеративного ШІ.

Джерело: https://en.cryptonomist.ch/2026/01/08/character-ai-lawsuits-teen-harm/

Ринкові можливості
Логотип Sleepless AI
Курс Sleepless AI (AI)
$0.04189
$0.04189$0.04189
+1.18%
USD
Графік ціни Sleepless AI (AI) в реальному часі
Відмова від відповідальності: статті, опубліковані на цьому сайті, взяті з відкритих джерел і надаються виключно для інформаційних цілей. Вони не обов'язково відображають погляди MEXC. Всі права залишаються за авторами оригінальних статей. Якщо ви вважаєте, що будь-який контент порушує права третіх осіб, будь ласка, зверніться за адресою [email protected] для його видалення. MEXC не дає жодних гарантій щодо точності, повноти або своєчасності вмісту і не несе відповідальності за будь-які дії, вчинені на основі наданої інформації. Вміст не є фінансовою, юридичною або іншою професійною порадою і не повинен розглядатися як рекомендація або схвалення з боку MEXC.