Чем быстрее развивается ИИ, тем больше вопросов стоит перед человечеством. И первый из них - этический. Например, когда и при каких условиях применение искусственного интеллекта обосновано, насколько безопасно доверять программе сбор, обработку данных и кто будет отвечать за неправомерные, ошибочные действия ИИ.
Проблема усложняется тем, что разработка, внедрение ИИ не регламентируются законом. Хотя о необходимости контроля за технологиями в сфере ИИ говорил Илон Маск в 2017 году, еще до бешеной популярности чата GPT.
Поместить работу тех же нейронок в рамки законодательства пока вряд ли возможно из-за слишком быстрого развития. Но нормы, которые бы помогли определить этичность применения ИИ все же есть. Пусть пока они принимаются локально, в каждой стране.
Главные принципы – это:
Кроме государства, проблемой этики занимаются и сами создатели технологий. Компании-разработчики готовят внутрикорпоративные регламенты, либо объединяются в альянсы, подчиняющиеся локальным стандартам.
Этот документ, регулирующий сферу технологий сильно отличается от стандартных юридических нормативов. И часто это – рекомендации, невыполнение которых не влечет ответственности для нарушителя.
В общей сложности нормы при обращении с технологией ИИ разработали порядка 10 стран. В 2021 году кодекс этики в сфере искусственного интеллекта был принят в КНР. В нем большое внимание уделено управляемости ИИ, контролю и расширению прав человека. В документе указано, что пользователи могут сами ограничивать взаимодействие с ИИ, управлять или запрещать доступ нейросетей к персональным данным.
В США подготовкой правил занялось Министерство Обороны. В них упор на надежность, беспристрастность, безопасность алгоритмов для человека. А также проработку методов по единовременной деактивации, отключения программного обеспечения.
Кодекс этики искусственного интеллекта в России был подписан 26 октября 2021 года. Подписантами стали 187 компаний, среди которых Сбер, Яндекс, Циан, ВК, ВТБ.
Документ рекомендательный, а правила содержащиеся в нем распространяются на все этапы взаимодействия с ИИ в течение жизненного цикла ПО. От стадии идеи, до разработки, внедрения и закрытия проекта. Основные принципы этики искусственного интеллекта:
Правила кодекса рекомендуют разработчикам принимать меры по обеспечению защиты ПО от вмешательства третьих лиц, давать правдивую информацию об ИИ и уведомлять пользователей о том, что они взаимодействуют с ПО, а не с человеком. А также не передавать программе полномочия принимать решения или перекладывать на нее вину за неверные рекомендации. Поскольку ответственность за действия ПО несет человек.
Авторы также призывают разработчиков- объединяться в альянсы, создавать комиссии, чтобы дополнять правила, делиться рабочими или неудачными практиками решения вопросов, возникающих на всех этапах жизненного цикла ПО.
До повсеместного внедрения машинной обработки информации еще далеко, полноценного ИИ пока нет. Но даже с нейронками уже возникают проблемы. Например, алгоритмы, использованные для рекрутинговой компании дискриминировали женщин - 60 % одобренных кандидатов на свободные вакансии были мужчинами. Просто потому, что анализировали предыдущий опыт компании, а не оценивали параметры кандидатов.
Второй пример связан с медициной. Нейросети доверили проанализировать данные пациентов и определить кому из них нужна дополнительная помощь. Работа была выполнена, но оказалось, что при отборе программа учитывала не истории болезни, а материальное положение пациентов.
Ясно, что вины самого ПО здесь нет. Нейронки обучают люди, и программа “перенимает” все человеческие недостатки. Но подобные ошибки обработки данных, на основании которых будут приниматься любые значимые решения, недопустимы.
Еще одна проблема нейросетей – вброс ложной информации в инфополе. Это псевдонаучные статьи, с неправильными датами или выдуманными исследованиями или даже новости. То есть задача по манипуляции общественным сознанием упрощается в разы.
Чего стоит скандал, случившийся в конце мая 2023 года с завирусившимся в сети фото, на котором якобы изображен взрыв Пентагона. Опровержение власти дали быстро. Но паника в соцсетях докатилась и до финансовых рынков, обвалив индексы крупных компаний. Кто дал задание нейросети сгенерировать фотографию и зачем это было сделано - неизвестно.
Чтобы сократить риски в любой области, будь то тексты или фото на новостных сайтах, автоматическая обработка данных или любое взаимодействие с ИИ нужны правила. И разработка регламентов, пусть пока содержащих общие рекомендации, это только начало.