Может ли ИИ стать сознательным? Или как ограничить бессознательную предвзятость в принятии решений

Может ли ИИ стать сознательным? Или как ограничить бессознательную предвзятость в принятии решений
Может ли ИИ стать сознательным? Или как ограничить бессознательную предвзятость в принятии решений

Tribune Libre, Жан-Пьер Бушира, вице-президент Veritas Technologies по Южной Европе

Примечание: сделанные здесь комментарии не касаются редакции GNT, а представляют собой обоснованное мнение эксперта в своей области, которым мы сочли уместным поделиться с вами. Это не рекламный товар, между этой компанией и GNT нет финансовой или иной связи, единственный интерес состоит в том, чтобы предоставить вам интересное представление о конкретной области.

Искусственный интеллект развивается настолько быстро, что уже не просто инструмент, а одновременно и судья, и опекун: его алгоритмы диагностируют пациентов, решают, кто имеет или не имеет права на социальную безопасность, отбирают кандидатов на работу интервью… Поскольку ИИ занимает все больше и больше места в нашем процессе принятия решений, мы должны ощутить большую скорость и эффективность обработки информации, что могло бы высвободить 30% государственных служащих в течение следующих нескольких лет. Однако для достижения наилучших возможных результатов мы должны стремиться разработать ИИ, который в равной степени разделяет эти преимущества.

Мы влияем на новые технологии так же, как они влияют на нас. К сожалению, это означает, что есть риск, что ИИ примет некоторые из наших худших недостатков. И если мы не предпримем необходимых шагов сейчас, так называемые «бессознательные» предубеждения могут сохраниться или даже еще глубже укорениться в нашем обществе.

Данные многое говорят о человеке, но не все. Последнее, чего мы хотим, - это мир, в котором о вас судят не по вашим способностям или потенциалу, а по тем данным, которые вы оставляете после себя. Очевидно, что для того, чтобы ИИ можно было использовать с пользой, он должен быть оптимизирован для обеспечения справедливости.

искусственный интеллект-искусственный интеллект
искусственный интеллект-искусственный интеллект

Неосознанная предвзятость является проблемой для данных

Выражение «если входы в систему плохие, то и выходы должны быть такими же» (Garbage in, Garbage out - GIGO) стало известным в разработке программного обеспечения по многим веским причинам. Каким бы сложным и мощным он ни был, искусственный интеллект сводится к ряду алгоритмов, предназначенных для выполнения конкретной задачи. ИИ полностью зависит от данных, предоставляемых ему для его разработки. Поэтому он может только анализировать доступные ему данные и пытаться максимально использовать их. То, что нам кажется плохим выбором, на самом деле является оптимальным решением, сделанным на основе плохого набора данных. И это не умаляет серьезности и проблемности ситуации.

Известные случаи, такие как чат-бот Microsoft Tay или виртуальный помощник Алиса от Яндекса, являются хорошими демонстрациями того, что может произойти, когда самообучающиеся решения получают неверные данные. В любом случае, ожидалось, что человеческое взаимодействие поможет ему развить неотразимую человеческую личность. К сожалению, контакт с серией агрессивных взаимодействий создал системы, которые сами научились быть агрессивными.

Однако, когда решения, принимаемые ИИ, начинают влиять на средства к существованию людей, последствия могут быть гораздо более серьезными. В будущем, когда решения будут приниматься на основе данных, мы должны обеспечить, чтобы меньшинства в наборе данных не были лишены избирательных прав.

Давайте рассмотрим пример алгоритма распознавания лиц, который обучался только на изображениях светлокожих моделей. Когда алгоритм ИИ сталкивается с чернокожим пользователем, он может ошибочно идентифицировать его или даже не распознать вовсе. Итак, представьте, каковы будут последствия, если эта технология распознавания лиц ИИ станет основой систем найма или оплаты труда? Таким образом, определенные группы могут оказаться в невыгодном положении, пострадать от плохого взаимодействия с пользователем или даже получить отказ в доступе к услуге. Дискриминация может быть непреднамеренной, но ее последствия столь же разрушительны.

Бессознательные предубеждения ИИ в основном связаны с проблемой данных. Без большой, разнообразной и всеобъемлющей базы данных существует реальный риск того, что искусственный интеллект завтрашнего дня автоматически определит победителей и проигравших общества без учета общей картины. Поэтому крайне важно, чтобы компании и организации располагали максимально большими и разнообразными базами данных.

Конечно, им также необходимо убедиться, что их решения ИИ могут эффективно использовать все эти данные. Это означает надежные инструменты и политики управления данными, обеспечивающие классификацию, консолидацию и упрощение данных для использования искусственным интеллектом.

Разнообразие данных

Собрать как можно больше данных - не самое простое решение. Тот факт, что у вас больше данных, чем у средней компании, не означает, что набор данных лучше или даст более точные результаты. Отделы кадров в инженерном секторе, например, могут иметь большой объем исторических данных для использования. Но хотя в отрасли всегда доминировали мужчины, женщинам может быть труднее стать идеальными кандидатами для алгоритма ИИ.

Лучшее, что вы можете сделать для борьбы с бессознательной предвзятостью в ИИ, - это осознавать ее. Слишком многие компании относятся к ИИ как к черному ящику с входными и выходными данными, но для обеспечения корректности алгоритмов требуется хорошее понимание того, как работает решение и как оно взаимодействует с данными. На этапе проектирования имейте четкое представление о результатах, которых вы хотите избежать, и о тех, которых хотите достичь. Затем примените это обоснование к набору данных, на котором будет обучаться ИИ, обеспечив справедливое представительство для всех социальных, расовых и гендерных групп.

То, как компания решает, что является «правильным», является гораздо более широкой и тонкой темой, чем проблема предвзятости ИИ. Этика будет варьироваться от компании к компании, поэтому руководители и их сотрудники должны разработать этическую основу, с которой они могут согласиться и которая затем повлияет на их решения. Однако важна прозрачность: ни одна компания не должна бояться объяснять общественности или своим сотрудникам, как принимаются эти решения или как они реализуются.

Вертикальный подход редко бывает лучшим. То, что может показаться правильным для одного человека, может быть сомнительным или неправильным для другого. Хороший способ достичь консенсуса - создать комитет по многообразию, состоящий из заинтересованных лиц со всей вашей компании. Затем решения этого комитета могут быть переведены в решение AI.

искусственный интеллект-ia-ai
искусственный интеллект-ia-ai

Слишком человечно

Однако этичное использование ИИ в будущем потребует большего, чем просто осведомленность. В какой-то степени компаниям частного и государственного секторов придется изменить свое мировоззрение. Многие компании привержены сочетанию культуры и политики для выполнения конкретной задачи, будь то получение прибыли или выполнение квот. Часто все остальные соображения становятся второстепенными или вовсе забываются.

Такие организации могут преуспеть, но их ИИ-решения вряд ли принесут наилучшие решения для общества в целом. Со временем такой ограничительный подход может вбить клин между компанией и ее клиентами. Поскольку злоупотребления, совершаемые решениями ИИ, будут разоблачены, компания может быстро стать мишенью для законодателей.

Решение о том, чего вы на самом деле хотите достичь с помощью решения ИИ, вероятно, является наиболее важным фактором в определении того, будут ли его результаты этичными. Если ваша цель состоит только в том, чтобы получить прибыль или выполнить план, решения вашего ИИ вряд ли будут этичными. Компания, которая может использовать ИИ, скорее всего, достигнет своей цели, но разве это похвально?

Финансовая компания может изучить, как они могут получить более высокую доходность по своим кредитам, поэтому они разрабатывают решение ИИ, которое определяет, кто, скорее всего, заплатит. Тем не менее, если это решение принимает решение на основе характеристик заявителей, оно может легко дискриминировать определенные группы и отказывать им в кредитах независимо от их платежеспособности.

В конечном счете, чтобы создать искусственный интеллект, который будет принимать более «человеческие» и сострадательные решения, люди должны будут начать вести себя менее как машины. Бизнес-лидеры не должны подходить к ИИ с какой-то одной целью, но должны осознавать, какое влияние ИИ может оказать на людей и их клиентов. Понимание нюансов и контекста - одно из основных преимуществ людей перед машинами, поэтому важно, чтобы мы их применяли. Данные дают великую силу, а вместе с ними должны быть ответственность и цель, большая, чем прибыль.

Хотя это трудно признать, бессознательная предвзятость является частью нас. Некоторые предубеждения так же связаны с нашим мышлением, как код запрограммирован в программное обеспечение. Единственный способ победить его - признать его существование и разработать стратегии, ограничивающие его влияние на наши решения. Но это не произойдет в одночасье: его нужно обучать так же, как мы обучаем ИИ, чтобы получить желаемые результаты.