Почему эксперты говорят, что мы должны контролировать ИИ уже сейчас

Оглавление:

Почему эксперты говорят, что мы должны контролировать ИИ уже сейчас
Почему эксперты говорят, что мы должны контролировать ИИ уже сейчас
Anonim

Ключевые выводы

  • Новые исследования показывают, что, возможно, не существует способа контролировать суперумный искусственный интеллект.
  • В журнальной статье утверждается, что управление ИИ потребует гораздо более передовых технологий, чем те, которыми мы располагаем в настоящее время.
  • Некоторые эксперты говорят, что по-настоящему разумный ИИ может появиться раньше, чем мы думаем.
Image
Image

Если люди когда-нибудь разработают супер-умный искусственный интеллект, возможно, не будет никакого способа его контролировать, говорят ученые.

ИИ уже давно рекламируется либо как лекарство от всех проблем человечества, либо как апокалипсис в стиле Терминатора. Однако до сих пор ИИ не приблизился даже к интеллекту человеческого уровня. Но, согласно недавней статье, опубликованной в Journal of Artificial Intelligence Research, удержание передового ИИ на привязи может стать слишком сложной проблемой для людей, если он когда-либо будет разработан.

«Сверхразумная машина, которая управляет миром, звучит как научная фантастика», - заявил в пресс-релизе один из соавторов статьи Мануэль Себриан.

"Но уже есть машины, которые выполняют определенные важные задачи самостоятельно, без полного понимания программистами того, как они этому научились. Поэтому возникает вопрос, может ли это в какой-то момент стать неуправляемым и опасным для человечества."

Скоро появится суперкомпьютер рядом с вами

В журнальной статье утверждается, что управление ИИ потребует гораздо более передовых технологий, чем те, которыми мы располагаем в настоящее время.

В своем исследовании команда разработала теоретический алгоритм сдерживания, который гарантирует, что сверхразумный ИИ не сможет причинить вред людям ни при каких обстоятельствах, сначала моделируя поведение ИИ и останавливая его, если он считается вредным. Но авторы обнаружили, что такой алгоритм построить невозможно.

"Если разбить проблему на основные правила теоретической информатики, окажется, что алгоритм, который приказывает ИИ не уничтожать мир, может непреднамеренно остановить свои собственные операции." Об этом в пресс-релизе заявил Ияд Рахван, директор Центра изучения людей и машин Института человеческого развития им. Макса Планка в Германии.

"Если бы это произошло, вы бы не знали, продолжает ли алгоритм сдерживания анализировать угрозу, или он прекратил сдерживание вредоносного ИИ. По сути, это делает алгоритм сдерживания непригодным для использования."

Image
Image

По-настоящему интеллектуальный ИИ может появиться раньше, чем мы думаем, утверждает Михалис Вазиргианнис, профессор компьютерных наук Политехнической школы во Франции. «ИИ - это человеческий артефакт, но он быстро становится автономной сущностью», - сказал он в электронном письме Lifewire.

"Критическим моментом будет, если/когда произойдет сингулярность (т.е. когда агенты ИИ будут иметь сознание как сущность) и, следовательно, они будут претендовать на независимость, самоконтроль и, в конечном итоге, доминирование."

Сингулярность грядет

Вазиргианнис не одинок в предсказании скорого появления суперИИ. Истинно верящие в угрозу ИИ любят говорить об «сингулярности», которая, как объясняет Вазиргианнис, заключается в том, что ИИ заменит человеческий интеллект и «что алгоритмы ИИ потенциально осознают свое существование и начнут вести себя эгоистично и сообща».

По словам Рэя Курцвейла, технического директора Google, сингулярность наступит до середины 21 века. «2029 год - это точная дата, которую я предсказал, когда ИИ пройдет действительный тест Тьюринга и, следовательно, достигнет человеческого уровня интеллекта», - сказал Курцвейл Futurism.

Если мы не можем убраться в собственном доме, какой код мы должны просить ИИ соблюдать?

"Я установил дату 2045 года для "Сингулярности", когда мы умножим наш эффективный интеллект в миллиард раз, слившись с разумом, который мы создали."

Но не все эксперты по ИИ считают, что интеллектуальные машины представляют угрозу. ИИ, который находится в стадии разработки, скорее всего, будет полезен для разработки лекарств и не демонстрирует реального интеллекта, сказал в интервью по электронной почте консультант по ИИ Эммануэль Маджори. «Существует большая шумиха вокруг ИИ, из-за чего кажется, что это действительно революционно», - добавил он. «Существующие системы искусственного интеллекта не так точны, как рекламируются, и допускают ошибки, которые человек никогда бы не совершил».

Управляйте ИИ прямо сейчас

Регулировать ИИ так, чтобы он не выходил из-под нашего контроля, может быть сложно, говорит Вазиргианнис. Компании, а не правительства, контролируют ресурсы, обеспечивающие работу ИИ. «Даже сами алгоритмы обычно производятся и развертываются в исследовательских лабораториях этих крупных и мощных, как правило, многонациональных организаций», - сказал он.

«Поэтому очевидно, что правительства штатов все меньше и меньше контролируют ресурсы, необходимые для управления ИИ».

Некоторые эксперты говорят, что для управления сверхразумным ИИ людям потребуется управлять вычислительными ресурсами и электроэнергией. «Научно-фантастические фильмы, такие как «Матрица», пророчат антиутопическое будущее, в котором люди используются искусственным интеллектом в качестве источников биоэнергии», - сказал Вазиргианнис.

"Несмотря на маловероятные возможности, человечество должно обеспечить достаточный контроль над вычислительными ресурсами (т. е. компьютерными кластерами, графическими процессорами, суперкомпьютерами, сетями/коммуникациями) и, конечно же, вредно для функции ИИ."

Image
Image

Проблема с контролем ИИ заключается в том, что исследователи не всегда понимают, как такие системы принимают решения, сказал в интервью по электронной почте Майкл Бертольд, соучредитель и генеральный директор компании по разработке программного обеспечения для обработки данных KNIME. «Если мы этого не делаем, как мы можем «контролировать» это?»

Он добавил: «Мы не понимаем, когда принимается совершенно другое решение на основе нерелевантных для нас данных».

Единственный способ контролировать риск использования ИИ - это гарантировать, что он используется только тогда, когда этот риск управляем, сказал Бертольд. «Иными словами, два крайних примера: не доверяйте ИИ управление вашей атомной электростанцией, где небольшая ошибка может привести к катастрофическим побочным эффектам», - добавил он.

"С другой стороны, ИИ предсказывает, что если температура в вашей комнате должна немного повышаться или понижаться, это может стоить крошечного риска в пользу жизненного комфорта."

Если мы не можем контролировать ИИ, нам лучше научить его манерам, сказал бывший компьютерный инженер НАСА Питер Скотт в интервью по электронной почте. «В конечном итоге мы не можем обеспечить управляемость ИИ больше, чем мы можем обеспечить управляемость наших детей», - сказал он.

"Мы воспитываем их правильно и надеемся на лучшее; пока что они не разрушили мир. Чтобы хорошо их воспитать, нам нужно лучше понимать этику; если мы не можем убраться в собственном доме, что код, которому мы должны просить ИИ следовать?"

Но надежда человечества не потеряна, говорит исследователь искусственного интеллекта Йонатан Векслер, исполнительный вице-президент по исследованиям и разработкам в OrCam. «Хотя достижения действительно впечатляют, лично я считаю, что человеческий интеллект не следует недооценивать», - сказал он в интервью по электронной почте. «Мы как вид создали довольно удивительные вещи, включая сам ИИ».

Поиски еще более умного ИИ продолжаются. Но, возможно, лучше подумать о том, как мы контролируем наши творения, пока не стало слишком поздно.

Рекомендуемые: