Как ИИ может контролировать свое опасное потомство

Оглавление:

Как ИИ может контролировать свое опасное потомство
Как ИИ может контролировать свое опасное потомство
Anonim

Ключевые выводы

  • В новой статье утверждается, что искусственный интеллект может определять, какие исследовательские проекты нуждаются в большем регулировании, чем другие.
  • Это часть растущих усилий по выявлению того, какой тип ИИ может быть опасным.
  • Один эксперт говорит, что реальная опасность ИИ заключается в том, что он может сделать людей тупыми.

Image
Image

Искусственный интеллект (ИИ) предлагает много преимуществ, но также и некоторые потенциальные опасности. И теперь исследователи предложили способ следить за своими компьютерными творениями.

Международная команда утверждает в новой статье, что ИИ может определить, какие типы исследовательских проектов могут нуждаться в большем регулировании, чем другие. Ученые использовали модель, которая сочетает в себе концепции из биологии и математики и является частью растущих усилий по выявлению того, какой тип ИИ может быть опасным.

«Конечно, хотя «научно-фантастическое» опасное использование ИИ может возникнуть, если мы так решим […], ИИ опасен не сам ИИ, а [то, как мы его используем],» Тьерри Рейна, заведующий кафедрой технологий для перемен в Политехнической школе во Франции, сказал Lifewire в интервью по электронной почте. «Внедрение ИИ может быть либо повышением компетентности (например, он усиливает актуальность навыков и знаний человека/работника), либо уничтожением компетентности, то есть ИИ делает существующие навыки и знания менее полезными или устаревшими».

Сохранение вкладок

Авторы недавней статьи написали в посте, что они построили модель для имитации гипотетических соревнований ИИ. Они запускали симуляцию сотни раз, чтобы попытаться предсказать, как могут сложиться гонки ИИ в реальном мире.

«Переменной, которую мы обнаружили особенно важной, была «продолжительность» гонки - время, которое наши моделируемые гонки требовали для достижения своей цели (функционального продукта искусственного интеллекта)», - написали ученые. «Когда гонки ИИ быстро достигли своей цели, мы обнаружили, что участники, которых мы запрограммировали всегда игнорировать меры предосторожности, всегда побеждали».

Исследователи, напротив, обнаружили, что долгосрочные проекты ИИ не так опасны, потому что не всегда выигрывали те, кто пренебрегал безопасностью. «Учитывая эти результаты, регулирующим органам будет важно установить, как долго могут длиться различные гонки ИИ, применяя различные правила в зависимости от ожидаемых сроков», - написали они. «Наши результаты показывают, что одно правило для всех гонок ИИ - от спринтов до марафонов - приведет к некоторым результатам, далеким от идеальных».

Дэвид Чжао, управляющий директор Coda Strategy, компании, которая консультирует по ИИ, сказал в интервью по электронной почте Lifewire, что выявление опасного ИИ может быть затруднено. Проблемы заключаются в том, что современные подходы к ИИ основаны на глубоком обучении.

«Мы знаем, что глубокое обучение дает лучшие результаты во многих случаях использования, таких как обнаружение изображений или распознавание речи», - сказал Чжао. «Однако люди не могут понять, как работает алгоритм глубокого обучения и как он производит свой результат. Поэтому трудно сказать, опасен ли ИИ, который дает хорошие результаты, потому что люди не могут понять, что происходит»."

Программное обеспечение может быть «опасным» при использовании в критически важных системах, которые имеют уязвимости, которые могут быть использованы злоумышленниками или давать неверные результаты, сказал по электронной почте Мэтт Ши, директор по стратегии AI-фирмы MixMode. Он добавил, что небезопасный ИИ также может привести к неправильной классификации результатов, потере данных, экономическим последствиям или физическому ущербу.

«С традиционным программным обеспечением разработчики программируют алгоритмы, которые человек может изучить, чтобы выяснить, как устранить уязвимость или исправить ошибку, просмотрев исходный код», - сказал Ши.«Однако с ИИ большая часть логики создается из самих данных, закодированных в структурах данных, таких как нейронные сети и тому подобное. В результате системы становятся «черными ящиками», которые нельзя исследовать, чтобы найти и исправить уязвимости. как обычное программное обеспечение."

Впереди опасности?

Хотя в таких фильмах, как «Терминатор», ИИ изображался как злая сила, намеревающаяся уничтожить человечество, реальная опасность может быть более прозаичной, говорят эксперты. Рейна, например, предполагает, что ИИ может сделать нас глупее.

«Это может лишить людей возможности тренировать свой мозг и развивать опыт», - сказал он. «Как вы можете стать экспертом в области венчурного капитала, если не тратите большую часть своего времени на чтение заявок от стартапов? Хуже того, ИИ, как известно, является «черным ящиком» и мало поддается объяснению. Незнание того, почему было принято то или иное решение ИИ, означает, что из него можно будет извлечь очень немногое, точно так же, как нельзя стать опытным бегуном, разъезжая по стадиону на сегвее.”

Трудно сказать, опасен ли ИИ, который дает хорошие результаты, потому что люди не могут понять, что происходит.

Возможно, самая непосредственная угроза со стороны ИИ заключается в том, что он может давать необъективные результаты, сказал Лайл Соломон, юрист, который пишет о юридических последствиях ИИ, в интервью по электронной почте.

«ИИ может помочь углубить социальные разногласия. ИИ в основном построен на данных, собранных от людей», - добавил Соломон. «[Но] несмотря на обширные данные, они содержат минимальное количество подмножеств и не включают то, что все думают. Таким образом, данные, собранные из комментариев, публичных сообщений, обзоров и т. д., с присущими им предубеждениями, заставят ИИ усилить дискриминацию и ненависть».

Рекомендуемые: