Одна из самых впечатляющих способностей искусственного интеллекта - находить закономерности, которые ускользают от человеческого взгляда. В так называемом «обучОдна из самых впечатляющих способностей искусственного интеллекта - находить закономерности, которые ускользают от человеческого взгляда. В так называемом «обуч

[Перевод] Код неравенства: как ИИ научился дискриминировать

cf58e52f8c29a8e7e40c56b081fa3b71.png

Одна из самых впечатляющих способностей искусственного интеллекта - находить закономерности, которые ускользают от человеческого взгляда. В так называемом «обучении без учителя» разработчики не размечают данные заранее, а позволяют модели самостоятельно выявлять скрытые структуры. Результаты порой поражают: алгоритмы обнаруживают признаки рака на снимках задолго до того, как их заметит опытный радиолог.

Но у этого подхода есть оборотная сторона: мы никогда не знаем заранее, какие именно закономерности уловит машина.

Допустим, мы обучаем модель на наборе изображений:

3b4a36490d651e172346c14035e79ff0.png

Человек мгновенно понимает разницу между котом и коалой. Но что усвоила машина? Если после обучения показать ей следующий снимок:

b57431970488ee256f4a758e8c98b5b9.png

...что она ответит? Научилась ли она отличать виды животных - или просто запомнила, что «пушистое на дереве» и «пушистое не на дереве» - это разные категории?

Именно поэтому обучение без учителя требует осторожности. Данные нужно отбирать тщательно, иначе модель рискует усвоить уроки, которые окажутся бесполезными - или откровенно вредными.


Дискриминация без дискриминаторов

В 2018 году агентство Reuters сообщило, что Amazon свернула проект по автоматическому отбору резюме. Причина оказалась неожиданной: алгоритм систематически занижал оценки женщин-кандидатов, даже если их квалификация не уступала мужской, а порой и превосходила ее.

Модель обучали на резюме успешных сотрудников за последние десять лет. Большинство из них были мужчинами - такова была реальность технологической отрасли. Машина сделала «логичный» вывод: мужчины предпочтительнее. Она понижала в рейтинге резюме, содержащие слово «women's» (например, «капитан женского шахматного клуба»), и занижала оценки выпускницам женских колледжей.

Инженеры попытались сделать алгоритм нейтральным к гендерной лексике, но модель находила обходные пути: выводила пол косвенно и продолжала дискриминировать. Не найдя решения, проект закрыли.

Это не единичный случай. В 2023 году Дерек Мобли - темнокожий мужчина за сорок, страдающий тревожным расстройством и депрессией - подал иск против компании Workday, разрабатывающей программное обеспечение для найма. Мобли обвинил алгоритм в дискриминации по расе, возрасту и состоянию здоровья.

На первый взгляд его резюме безупречно: выпускник Морхауса - одного из старейших исторически черных колледжей, опытный IT-инженер с работой в HP и Налоговой службе США. Но после сотен отказов Мобли заподозрил неладное. По его мнению, алгоритм вычислил его расу по месту обучения, возраст - по датам в резюме, а психическое здоровье - по ответам в личностных тестах. И использовал эти выводы против него.

Ключевой момент: ни один из этих алгоритмов не создавался с целью дискриминировать. Amazon активно пыталась предотвратить сексистские выводы - и потерпела неудачу. В юридической терминологии это называется «различием в последствиях» (disparate impact): формально нейтральные практики, которые все равно приводят к дискриминации по защищенным признакам.

Проблемы возникают, когда ИИ принимает решения о судьбах людей. Но для повседневных задач - написания текстов, анализа данных, автоматизации рутины - нейросети остаются мощным инструментом.

Делегируйте часть рутинных задач вместе с BotHub!

2c4bcc67ac65964c408a8c7608765a55.png

Для доступа к сервису не требуется VPN, и можно использовать российскую карту.


Два взгляда на одну проблему

Когда в 2024 году Колорадо принял первый в США комплексный закон об искусственном интеллекте, законодатели выделили «высокорисковые» сферы - здравоохранение, жилье, образование, трудоустройство - и запретили «алгоритмическую дискриминацию». Закон прямо определяет ее как «незаконное различие в обращении или последствиях, неблагоприятное для людей по защищенным признакам».

Европейский закон об ИИ идет схожим путем. Статья 10 требует проверять системы на «предвзятости, способные повлиять на здоровье и безопасность людей, негативно отразиться на основных правах или привести к дискриминации, запрещенной законодательством Союза». Более того, закон разрешает обрабатывать чувствительные данные - расу, этничность, пол - «ровно в той мере, в какой это строго необходимо для обнаружения и исправления предвзятости».

Оба закона признают фундаментальный факт: в отличие от людей, системы ИИ не имеют отношения к выносимым суждениям. Они учатся на данных и делают любые выводы, которые эти данные позволяют, - независимо от того, предвидели мы их или нет, одобрили бы или ужаснулись. Машины способны воспроизводить человеческую предвзятость, сами не будучи предвзятыми.


«Я не вижу цвета»

Техасский закон о надлежащем управлении ИИ предлагает радикально иной подход. Он запрещает только те системы, которые созданы «с единственным намерением» дискриминировать. Более того, закон прямо указывает: «одного лишь различия в последствиях недостаточно, чтобы доказать намерение».

Иными словами, недостаточно показать, что система явно дискриминирует по расе или полу. Нужно доказать, что ее спроектировали именно для этого - и ни для чего другого.

На практике такой закон пропустит подавляющее большинство случаев алгоритмической предвзятости, потому что доказать намерение почти невозможно. Возможно, в этом и был замысел.

В январе 2025 года президент Трамп издал указ «О предотвращении "вок"-ИИ в федеральном правительстве», запрещающий госагентствам закупать системы, содержащие «идеологические предубеждения или социальные программы» - в частности, инициативы по разнообразию, равенству и инклюзивности (DEI).

Но что считать DEI в модели? Согласно указу, система «вок», если она: подавляет или искажает фактическую информацию о расе или поле; манипулирует расовым или половым представительством в результатах; включает концепции критической расовой теории, трансгендерности, бессознательной предвзятости, интерсекциональности, системного расизма; дискриминирует по расе или полу.

Заметьте противоречие. Международная компания, соблюдающая европейские нормы, будет тестировать свои системы на скрытую предвзятость и корректировать параметры, чтобы избежать дискриминационных результатов. Но в США те же самые усилия могут квалифицироваться как «манипуляция расовым или половым представительством» или «внедрение концепций бессознательной предвзятости и системного расизма».


Слепой ведет слепого

Как мы оказались в таком тупике? И американские, и европейские власти декларируют неприятие дискриминации - но приходят к противоположным выводам о том, как ее выявлять и устранять в системах ИИ.

Ответ кроется в давнем споре, который предшествует нынешним культурным войнам вокруг DEI и «вокизма». На протяжении десятилетий консервативные мыслители, включая председателя Верховного суда Джона Робертса, утверждали: «Способ прекратить дискриминацию по расе - перестать дискриминировать по расе». Они предлагают сосредоточиться исключительно на намерениях и полагают, что любые сознательные попытки избежать расовой дискриминации неизбежно порождают новые проблемы.

Левые возражают: между тем, что мы намеревались при создании законов и институтов, и тем, какие результаты они дают на практике, - пропасть. Дорога в антиутопию вымощена благими намерениями, а притворство не создает равных возможностей. Поэтому либералы допускают учет расы «в той мере, в какой это строго необходимо для обнаружения и исправления предвзятости» - как лаконично сформулировал европейский закон.

Долгое время в американской судебной практике существовало разделение: иски о нарушении конституционных гарантий равной защиты требовали доказательства намеренной дискриминации, тогда как дела по Разделу VII Закона о гражданских правах допускали аргумент о «различии в последствиях». Но консервативные политики и судьи последовательно стирают это различие, оставляя лишь намерение как основание для претензий.

Этим объясняется, почему Техас и администрация Трампа стремятся изгнать концепцию disparate impact из регулирования ИИ.


Зеркало, которое не видит отражения

Проблема в том, что практически никто не создает расистский или сексистский ИИ намеренно. Большинство разработчиков искренне стремятся сделать полезный, объективный инструмент, который работает как заявлено - именно этого хотят клиенты.

Сам ИИ, судя по всему, ничего «не хочет» - он лишь воспроизводит паттерны прошлого человеческого поведения. Он держит зеркало перед человечеством, не замечая и не понимая, когда люди вели себя дурно. Результат - явно дискриминационные решения без явного виновника и без защиты для тех, кого эти решения задели.


Урок для всех нас

Самое примечательное в этой ситуации - как она обнажает проблему узкого запрета только намеренной дискриминации, причем не только применительно к ИИ.

Как бы мы ни гордились способностью понимать и корректировать собственные суждения, правда в том, что мы часто не осознаем, как нас сформировали прежние человеческие паттерны и предубеждения. Машинное обучение копирует человеческие предположения и поведение, принимая за норму то, что распространено, - точно так же, как дети копируют родителей, сверстников и общество вокруг.

Теория «различий в последствиях» разрывает этот порочный круг - в отличие от подхода, сфокусированного лишь на намерениях. Она отвергает субъективный анализ ментальных состояний и смотрит на измеримые результаты. Для систем ИИ, у которых, вероятно, нет «ментальных состояний» в нашем понимании, disparate impact - единственный осмысленный способ оценить предвзятость.

Но для правых «disparate impact» звучит как синоним «вокизма» или DEI. Это ложное отождествление мешает понять, почему доказать намеренную дискриминацию в ИИ практически невозможно.

Левые давно спорят с правыми о «цветовой слепоте». Мы все видим расу и учитываем ее - пусть даже бессознательно. Минимум, что мы можем сделать, - осознанно учитывать эти факторы, чтобы снизить вред и продвинуть равенство.

Это в полной мере относится и к ИИ. Можно приказать модели игнорировать расу и пол - но это не помешает ей вывести эти категории самостоятельно. И когда это происходит, заявление «мы не видим цвета» не оправдывает использование предвзятых инструментов с безрассудным пренебрежением к их изъянам.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно

Starbucks расширяет охват благодаря новому партнёрству с MrBeast для второго сезона Beast Games

Starbucks расширяет охват благодаря новому партнёрству с MrBeast для второго сезона Beast Games

Вкратце: Starbucks присоединяется к Beast Games S2 с обслуживанием на площадке и кросс-платформенным охватом. Напиток Cannon Ball Drink запускается как лимитированная коллаборация, созданная на съемочной площадке для фанатов
Поделиться
Coincentral2025/12/31 03:40
Технический анализ SEI: может ли цена действительно достичь 0,36 $ в ближайшее время?

Технический анализ SEI: может ли цена действительно достичь 0,36 $ в ближайшее время?

SEI остаётся в чётком недельном нисходящем тренде, торгуясь решительно ниже 9-EMA и средней полосы Боллинджера. Целевые уровни снижения включают 0,105 $, затем 0,085 $, после чего 0
Поделиться
Tronweekly2025/12/31 02:30
Китайские инвесторы вложили 188 млн $ в компании цифрового юаня после того, как НБК разрешил начисление процентов на кошельки

Китайские инвесторы вложили 188 млн $ в компании цифрового юаня после того, как НБК разрешил начисление процентов на кошельки

Китайские инвесторы вложили более 188 млн $ в акции, связанные с цифровым юанем, после решения Народного банка Китая (PBOC) разрешить центральному банку
Поделиться
CryptoNews2025/12/31 03:17