Chat GPT

Чем опасен искусственный интеллект

Chat AI
#chatgpt #бесплатно
image

Возможности ChatGPT запустили появление новых теорий о будущем планеты – от утопических, где в мире будущего человеку отводится роль высшего существа, сконцентрированного на саморазвитии. До апокалиптических, повторяющих сценарии фильмов, в которых компьютеры уничтожают все живое. Попробуем разобрать, что из этого реально, а что нет.

В чем опасность

Мнения на этот счет расходятся. Например, Стюарт Рассел, опубликовавший более 100 статей о рисках внедрения ИИ, считает развитие нейронных сетей угрозой. Причина в том, что разработчики не до конца понимает для чего нужна технология и какие задачи стоят перед ней.

По оценке Рассела при сохранении темпов обучения ИИ, вероятность катастрофы увеличивается, поскольку настанет момент, когда сверхразумная система просто откажется подчиняться командам. А чем тогда будет опасен искусственный интеллект для человечества – неизвестно.

Примерно в том же ключе высказался и Илон Маск, ставший соавтором обращения о приостановке обучения нейросетей и сравнивший ИИ с ядерной энергией, которую можно использовать и для мирных целей, и для разработки оружия массового поражения. То есть идея ясна – будущее планеты, человечества будет зависеть от того, в чьи руки попадут технологии и для каких задач будут использоваться.

Даже сам ChatGPT на вопрос о его опасности подтвердил, что она высока. Главные риски – преднамеренные ошибки в коде, которые могут привести к непредсказуемым последствиям. Но после успокоил, что задачи вредить человеку нет.

В то же время Эльдар Муртазин, ведущий аналитик Mobile Research Group считает нейросети безопасными, поскольку просто это код, который пишут люди, и что заявление Маска – это не больше, чем попытка конкурирующих компаний замедлить Open Ai, как главного конкурента.

Но и те кто выступает за продолжение работы над нейросетями и их противники сходятся во мнении, что разработка, обучение, внедрении ИИ требует унифицированных правил для всех компаний разработчиков.

Основные проблемы

Обсуждение теорий насколько опасен искусственный интеллект стало главной темой семинара ВШЭ. Специалисты выделили несколько пунктов:

  • управление новостной повесткой – тот же ChatGPT может генерировать неотличимые от “человеческих” тексты, не имеющие ничего общего с реальностью;
  • эмоциональное воздействие – программы-боты могут отвечать на комментарии, общаться, влиять на общественное, личное мнение и даже подталкивать пользователей к совершению действий (не всегда законных или потенциально опасных для самого человека);
  • передача части функций программе - например, установка ПО на фильтрацию вызовов скорой помощи небезопасна, поскольку ИИ может неверно интерпретировать речь человека в стрессовом состоянии;
  • погружение пользователей в виртуальную реальность, которая заменит бытовую рутину – это как с играми, только гораздо серьезнее, поскольку тот же GPT спокойно заменит “живого” собеседника.
  • угрозы кибербезопасности – у чата ГПТ стоит защита на запросы создать вирус или организовать план хакерской атаки, но если переформулировать задачу, ИИ ее выполнит.

Есть предположения, что машины могут заменить специалистов творческих профессий. Нейронки могут писать небольшие эссе, стихи, рассказы или создавать картинки по текстовому описанию. А фото, сгенерированное нейросетью DALL-E даже получило премию на Sony World Photography Awards. Снимок отправил фотограф Борис Эльдагсен. По его словам такой шаг – это предложение к началу дискуссии о существовании и будущем фотографии, как ремесла. От приза победитель отказался, отметив, что сгенерированные и реальные фото не могут соперничать в рамках одного конкурса.

Стоит ли бояться развития технологий

ИИ появился не год и не два назад. Первая версия была представлена в 1965 году, и работа над ней не прекращалась. Но получилось так, что только Open Ai и ChatGPT удалось выстрелить. По большому счету после запуска чата и появилась дискуссия стоит ли бояться искусственного интеллекта.

Обсуждение этических, вопросов безопасности внедрения нейронных сетей длится не первый год. И по мере изучения алгоритмов, специалисты приходят к выводу, что опасность представляет не суперкомпьютер, который захватит мир, а хрупкость нейронных связей ИИ. Ведь ИИ “знает” только то, что в нее загрузили. Машина делает правильно миллионы операций, но допускает критическую ошибку в событии, информации о сценариях которого нет в ее данных.

Второй вопрос – человеческий фактор. Ведь и алгоритмы пишут, и обучают сети люди. Пока работа над алгоритмами – это конкуренция в игре без правил, ограничений и запретов. Чтобы снизить риски неконтролируемого использования технологий ученые призывают политиков объединиться и разработать хоть какую-то систему контроля.

Почему бояться не нужно

В разное время любые глобальные открытия в разных сферах вызывали страх у человечества. Взять, например, эксперименты с клонированием. Теории тогда выдвигались разные – от логичных, до абсурдных. Через два года дискуссии прекратились, но сами эксперименты остались. Теперь клонирование применяют для восстановления утраченных видов животных. Эффективность, правда, все еще остается на низком уровне - порядка 10-20%.

К вопросу о том, почему не стоит бояться искусственного интеллекта. Просто потому, что пока это не больше, чем алгоритм, который умеет моментально обрабатывать информацию. Он не умеет думать и все его ответы, решения основаны на данных в него загруженных.

И как раз эта оперативность обработки может принести много пользы. Уже сейчас нейронки используются в банковской, экономической, других сферах. Они помогают искать преступников, рассчитывают вероятность событий по заданным параметрам, анализируют истории болезней пациентов, чтобы упростить постановку диагноза. По большому счету берут на себя рутинную работу.

Как итог ИИ – это медаль с двумя сторонами. С одной – прогресс, упрощение жизни, совершенствование технологических процессов. С другой риски, которые нельзя игнорировать.

Бесплатный доступ к Chat GPT и Midjourney
← Прошлая статья Назад в блог Cледующая статья →