Поскольку такие инструменты искусственного интеллекта, как DALL·E, начинают все более широко применяться общественностью, важно осознавать и риск вреда, который они представляют.

По мере того, как все больше людей получают доступ к инструментам искусственного интеллекта, таким как DALL·E и Stable Diffusion, мы с большей вероятностью увидим появление некоторых более темных аспектов этой новой технологии. У этих проблем нет простых решений, и повышение осведомленности общественности помогает гарантировать, что они не останутся незамеченными.

проблемы предвзятости и разнообразия

Из-за врожденной предвзятости, присутствующей в наборах данных, используемых для их обучения, многие инструменты ИИ имеют явное отсутствие разнообразия в своих результатах. Например, если вы попросите DALL·E сделать студийный портрет модели, вы, скорее всего, увидите на выходе стройных женщин, а не любого другого типа телосложения или пола. Аналогичные проблемы существуют, когда врачи чаще изображаются мужчинами, а медсестры чаще изображаются женщинами во многих моделях генеративного искусства.

Если вы хотите получить что-то более разнообразное на выходе, вам часто приходится специально запрашивать это в подсказке. Вещи становятся лучше по мере корректировки различных весов, используемых моделями ML, но в первую очередь нам нужны более разнообразные обучающие данные.

дезинформация и дезинформация

Благодаря способности создавать реалистичные изображения людей, мест, транспортных средств и погоды художественные инструменты ИИ облегчат создание дезинформации (преднамеренно вводящего в заблуждение контента, распространяемого с намерением причинить вред) на огромном, автоматизированное масштабирование, что неизбежно приведет к дезинформации (вводящему в заблуждение контенту, распространяемому без намерения причинить вред), когда он публикуется в социальных сетях теми, кто ничего не знает .

Существует острая и безотлагательная потребность в повышении осведомленности о типах контента, которые могут генерировать эти модели машинного обучения, поскольку слишком многие люди уже верят всему, что читают в Интернете; что будет только ухудшаться в будущем, поскольку эти инструменты ИИ завоевывают долю рынка и становятся продуктами общего пользования.

вывод nsfw/nsfl

Хотя в большинстве общедоступных моделей ИИ предпринимаются шаги по ограничению контента nsfw, по-прежнему слишком легко обойти фильтры цензуры, чтобы генерировать наготу или кровь. Хотя это, скорее всего, превратится в игру в кошки-мышки между разработчиками ИИ и теми, кто пытается перехитрить цензоров, в конечном итоге это может остаться неразрешимой проблемой.

Когда дело доходит до текстовых подсказок, всегда можно описать что-то с помощью эвфемизма, аллегории и метафоры, даже не называя вещь напрямую, что приводит к неэффективному механизму цензуры.

Просто нет способа защититься от человеческой изобретательности.

тренировочные данные

Художники — не единственные, чьи данные использовались для обучения таких инструментов ИИ, как DALL·E.

Наборы обучающих данных часто берутся из Интернета и, таким образом, могут содержать все виды данных, включая порнографию и медицинские изображения.

Сразу возникает ряд вопросов:

Кто дал согласие на использование этих данных для обучения?

Почему этот тип данных в наборе обучающих данных в первую очередь?

Какие права есть у нас как у отдельных лиц, когда речь идет о включении наших личных данных в эти наборы обучающих данных?

троллинг

Одним из наиболее неприятных аспектов широкого использования инструментов искусственного интеллекта является появление индивидуальных моделей машинного обучения с использованием настраиваемых наборов данных для обучения, как это недавно было замечено с GPT-4chan.

Благодаря этим типам инструментов, доступных для настройки, целенаправленное преследование будет поднято на новый уровень. Учитывая, насколько легко социальные сети позволяют отслеживать фотографии людей в Интернете, было бы слишком просто создать обучающий набор данных для модели машинного обучения, предназначенной для создания неприятных или порочащих изображений жертвы и/или ее семьи.

Какие технические шаги предпринимаются для обеспечения того, чтобы изображения, созданные ИИ, могли быть идентифицированы как таковые, даже если изображение обрезано, чтобы удалить водяной знак или иным образом скрыть его происхождение?

экономическое влияние, авторское право и блокчейн

Благодаря возможности быстро создавать искусство в бесконечных стилях, инструменты ИИ будут иметь большое экономическое влияние во многих отраслях. Наша устаревшая система авторского права уже с трудом справляется со своевременным рассмотрением простых дел о нарушении прав в Интернете, и эта проблема будет только усугубляться.

Нам понадобится технология блокчейна, если мы хотим отслеживать традиционные модели собственности перед лицом того, что вот-вот станет неконтролируемым взрывом художественных деривативов.

У любой технологии есть две стороны, и художественные инструменты ИИ ничем не отличаются. Мы должны сделать все, что в наших силах, чтобы смягчить их недостатки и максимально увеличить потенциал их роста. Возможно, при осторожном подходе, руководстве и открытом общении инструменты искусственного интеллекта следующего поколения помогут решить некоторые из этих проблем.

Николас Птачек — писатель-ветеран и технолог с почти 20-летним опытом работы в индустрии кибербезопасности, создающей отмеченное наградами программное обеспечение для компьютерной безопасности. Его работа широко освещалась в печатных и новостных СМИ, включая CNNMoney, Macworld и журнал MacDirectory, а также в многочисленных публикациях в прессе, включая The Information и Vice.

Николас документирует свое путешествие, создавая искусство совместно с GPT-3 и DALL-E. Вы можете следить за его экспериментами с искусственным интеллектом в Твиттере по адресу: @nptacek.

Это эссе 4 из 4 для 2-й когорты писателей 1729