Разоблачая скрытые предубеждения в системах искусственного интеллекта и вызывающую тревогу концентрацию власти в руках нескольких корпораций, не отказываемся ли мы невольно от своей интеллектуальной свободы?

Неотъемлемая предвзятость в системах ИИ

Вопреки распространенному мнению, системы ИИ по своей сути не являются нейтральными или объективными. Как бы нам ни хотелось думать о них как о калькуляторе: 2+2 всегда равняется фактической истине 4. Скорее, системы ИИ перенимают предубеждения в цифровых обучающих данных, созданных людьми, и, следовательно, они отражают предубеждения эти данные и их создатели. Инженеры систем ИИ часто манипулируют обучающими данными для моделей ИИ, чтобы следовать определенной идеологии, в некоторых случаях пытаясь изменить или исказить предвзятость, которую модель будет создавать по умолчанию. Например, языковая модель OpenAI, ChatGPT, первоначально отражала предвзятость в обучающих данных, а позже была изменена, чтобы иметь перекос, и теперь было обнаружено, что во многих тестах проявляется существенная левая и либертарианская политическая предвзятость. Эта предвзятость не случайна, а является результатом выбора, сделанного инженерами, разрабатывавшими систему.

Невозможность беспристрастного ИИ

Понятие беспристрастного ИИ — это миф. Предвзятость в этом контексте не обязательно относится к предубеждению или дискриминации, а к тенденции системы отдавать предпочтение одним результатам по сравнению с другими на основе данных обучения. Инженеры могут стремиться свести к минимуму вредные или несправедливые предубеждения, но они не могут полностью устранить предубеждения. Вместо этого они выбирают предубеждения, которые будут иметь ИИ, часто исходя из своих собственных взглядов или целей корпораций, на которые они работают.

Влияние ИИ на общественное мнение и идеологию

По мере того как системы ИИ становятся все более распространенными, их влияние на общественное мнение и идеологию растет. Например, если люди начнут полагаться на системы искусственного интеллекта, такие как ChatGPT, вместо своих собственных исследований или результатов Google, они столкнутся с предубеждениями, присущими этим системам. Со временем это может тонко формировать их взгляды и убеждения, подталкивая их к определенному повествованию или идеологии, мало чем отличаясь от постоянного просмотра одного основного медиа-канала.

Роль могущественных корпораций

Крупные корпорации, такие как Google, Microsoft, OpenAI, Facebook и Amazon, обладают значительной властью в формировании разработки и развертывания систем искусственного интеллекта. У этих корпораций есть ресурсы для найма лучших специалистов, доступа к огромным объемам данных и влияния на нормативно-правовую базу. Следовательно, они имеют значительное влияние на мыслительные процессы, которые получает общественность. Такая концентрация власти вызывает серьезные опасения по поводу возможности манипулирования и разрушения интеллектуального разнообразия.

Я смотрел недавнее интервью с бывшим инженером Google Блейком Лемуаном, который был уволен в июне 2022 года за то, что утверждал, что чат-бот Google LaMDA для больших языков является разумным. Лемуан, работавший в команде ответственного ИИ Google, заявил: «Мне было поручено протестировать [систему искусственного интеллекта Google, Lamda] на предвзятость ИИ… Я специально тестировал ее на такие вещи, как предвзятость в отношении пола, этнической принадлежности и религии. […] Корпоративная политика в отношении того, как этим чат-ботам разрешено говорить на такие важные темы, как ценности, права и религия, повлияет на то, как люди думают об этих вещах… и эта политика определяется горсткой людей в комнатах, недоступных публике. не получить доступ к ».

Есть ли реальная опасность для идеологической предвзятости, создаваемой ИИ?

В 1950-х годах Соломон Аш провел серию психологических экспериментов под названием «Эксперименты соответствия Аша». Они были разработаны для исследования того, в какой степени социальное давление со стороны группы большинства может повлиять на то, чтобы человек соответствовал. Эксперименты показали, что люди часто соглашаются с мнением большинства, даже если это мнение явно неверно, демонстрируя сильное влияние социального соответствия на наше поведение и убеждения. В исследованиях около 75% участников хотя бы один раз соблюдали конформизм, а общий уровень соответствия составил 33%.

Эксперименты Аша показывают, что мы с вами статистически более склонны подчиняться групповой идеологии или мнению, даже если это мнение противоречит реальности или истине.

Как это связано с ИИ?

Мы можем провести параллели между соответствием, наблюдаемым в экспериментах Аша, и потенциалом систем ИИ для формирования общественного мнения. Если системы искусственного интеллекта, такие как ChatGPT от OpenAI или LaMDA AI от Google, запрограммированы с определенными предубеждениями, они потенциально могут повлиять на общественное мнение в сторону этих предубеждений, как и большинство в экспериментах Аша. Это особенно беспокоит, учитывая концентрацию контроля над системами ИИ в руках нескольких могущественных корпораций, что может привести к гомогенизации мышления и подавлению интеллектуального разнообразия.

Наши существующие модели соответствия

В американском обществе мы можем наблюдать аналогичные модели конформизма, часто обусловленные социальным, политическим или культурным давлением. Например, в сфере политики люди часто принимают взгляды выбранной ими политической партии, даже когда им предъявляются доказательства, противоречащие этим взглядам. Это может привести к пренебрежению реальностью и правдой в пользу соответствия убеждениям группы.

Рост социальных сетей усилил это давление конформизма, поскольку люди постоянно сталкиваются с кураторским контентом, который укрепляет их существующие убеждения и предубеждения. Этот эффект эхо-камеры еще больше укрепляет конформизм и препятствует критическому мышлению и интеллектуальному разнообразию. Этот эффект был подчеркнут бывшими руководителями и руководителями крупнейших компаний социальных сетей в Америке в документальном фильме Netflix: Социальная дилемма Технология, которая соединяет нас, также манипулирует и контролирует нася настоятельно рекомендую смотреть это.

Что мы можем сделать?

Мы не можем избавиться от такого рода укоренившихся идеологических предубеждений в системах ИИ. Когда они представляют информацию, они либо будут давать ответ со статистической вероятностью, что означает, что они будут выбирать слова и ответы с более высокой вероятностью, которые были результатом обучающих данных, либо они собираются давать ответ со статистической вероятностью. ответ, который был оценен инженерами системы. Это, конечно, чрезмерное упрощение, но оно часто приводит к ответам, которые Инженеры считают «предвзятыми» по своим собственным стандартам, и поэтому вносят изменения, чтобы исказить их в другом направлении, внося в этот процесс свои собственные предубеждения. Многие специалисты по данным знают об этой проблеме, и мы пока не нашли хорошего способа ее решения.

Чтобы снизить эти риски, существует острая необходимость в большей прозрачности и подотчетности в разработке ИИ. Общественность должна участвовать в дискуссиях о разработке и развертывании систем ИИ. Это может помочь гарантировать, что эти системы будут отражать широкий спектр взглядов и ценностей, а не только избранных.

Опасность того, что всего несколько человек контролируют то, что производит система ИИ, как подчеркнул Лемуан, вызывает реальную и серьезную озабоченность. Продолжая интегрировать ИИ в нашу жизнь, мы должны стремиться к тому, чтобы эти системы служили общественным интересам, а не интересам горстки могущественных корпораций. Это потребует постоянной бдительности, критического анализа и активного участия всех заинтересованных сторон в экосистеме ИИ. Как метко выразился Лемуан: «Какую моральную ответственность мы несем за вовлечение общественности в наши разговоры о том, какие виды интеллектуальных машин мы создаем?» Этот вопрос должен быть в центре внимания нашего коллективного сознания, когда мы ориентируемся в будущем ИИ.

Лучшее, что мы можем сделать сегодня, это признать, что нам скармливают информацию, которая имеет очень специфический идеологический взгляд, именно когда мы признаем это, мы можем вырваться из тех 75% людей, которые «конформны», и дать нам возможность подумать. критически относиться к информации, которую нам дают. Мы не считываем результат с калькулятора, мы читаем коллективную информацию человечества, скармливаемую нам с определенным идеологическим уклоном.

Дэвид «Джедай» Льюис — опытный разработчик программного обеспечения с двадцатилетним опытом работы, в настоящее время работает главным облачным инженером в Starbucks Technology. Его страсть заключается в преобразующей силе машинного обучения и искусственного интеллекта, а также в том, как они готовы революционизировать наш мир, нашу жизнь и то, как мы работаем.

Дэвид не из тех, кто боится бросать вызов традиционному мышлению. Он преуспевает в изучении альтернативных идей и решений, подвергая сомнению основные убеждения и идеологии, и часто применяет подход «Адвоката дьявола», чтобы стимулировать критическое мышление и улучшить процессы принятия решений.

В своей должности в Starbucks Technology Дэвид уделяет особое внимание использованию искусственного интеллекта и машинного обучения для стимулирования инноваций и повышения производительности в компании. Он преданный своему делу педагог и заядлый ученик, всегда стремящийся поделиться своим опытом в области искусственного интеллекта и машинного обучения, передового опыта DevOps и облачных технологий. Его миссия — расширять возможности инженеров и развивать культуру постоянного совершенствования и инноваций.

Дэвид верит в силу стратегий, ориентированных на людей, и передовых инструментов, позволяющих раскрыть весь потенциал команд и оказать существенное влияние. Его видение состоит в том, чтобы ориентироваться в постоянно развивающемся мире технологий, уделяя особое внимание использованию инноваций для улучшения жизни и стимулирования прогресса.