ИИ может не просто изменить мир, он может «уничтожить человечество»: Google DeepMind
ИИ может не просто изменить мир, он может «уничтожить человечество»: Google DeepMind
В отличие от современного ИИ, который хорошо справляется с узкими задачами, AGI стремится воспроизвести гибкий, адаптируемый интеллект человека.
Пугающая новая статья, опубликованная компанией Google DeepMind, вновь разожгла споры о будущем искусственного интеллекта. В ней говорится, что к 2030 году искусственный общий интеллект (AGI) — машины с интеллектом, подобным человеческому, — может стать реальностью. Но вместе с этим технологическим прорывом приходит и серьёзное предупреждение: AGI может не просто изменить мир, но и покончить с ним.
В докладе не стесняются в выражениях, говоря о рисках. В нём открыто признаётся возможность того, что ИИ может «навсегда уничтожить человечество», и это рассматривается как один из «серьёзных рисков», требующих срочного внимания.
Что делает AGI таким особенным?
В отличие от современного ИИ, который хорошо справляется с узкими задачами, AGI стремится воспроизвести гибкий, адаптируемый интеллект человека. Он мог бы понимать, учиться и применять знания в широком спектре дисциплин — это машина, которая не просто вычисляет, а мыслит.
И именно поэтому, по мнению DeepMind, осторожность имеет решающее значение. Гонка за сверхразумным искусственным интеллектом может ускоряться, но наши меры предосторожности тоже должны ускоряться.
От разрушения к разрушению: строгая оценка рисков DeepMind
В статье, написанной в соавторстве с Шейном Леггом, соучредителем DeepMind, описывается спектр потенциальных рисков, связанных с ИИ, — от социальных потрясений до прямых экзистенциальных угроз. Хотя в статье не объясняется, как именно может произойти такая катастрофа, она классифицирует риски по четырём ключевым категориям: злоупотребление, несоответствие, ошибки и структурные уязвимости.
«Учитывая огромное потенциальное влияние сверхразумного искусственного интеллекта, мы ожидаем, что он также может представлять потенциальную опасность серьёзного вреда», — говорится в статье. Однако авторы отмечают, что решение о том, что считать «серьёзным» вредом, зависит не только от Google: «Вопрос о том, является ли конкретный вред серьёзным, не входит в компетенцию Google DeepMind; вместо этого он находится в ведении общества, которое руководствуется своей коллективной толерантностью к риску и концептуализацией вреда».
DeepMind подчёркивает, что в настоящее время основное внимание уделяется предотвращению злоупотребления ИИ, когда отдельные лица или организации могут использовать технологию в разрушительных целях, что является центральным элементом стратегии безопасности компании.
Призыв к глобальному надзору: Генеральный директор DeepMind настаивает на управлении искусственным интеллектом
Ещё в феврале генеральный директор DeepMind Демис Хассабис предложил своё видение того, как мир может ответить на вызов, связанный с искусственным интеллектом, — не только с помощью инноваций, но и посредством глобального сотрудничества.
«Я бы выступил за своего рода CERN для сверхразумных ИИ, и под этим я подразумеваю своего рода международное сотрудничество в области передовых исследований на границах развития сверхразумных ИИ, чтобы попытаться сделать его максимально безопасным», — сказал Хассабис, предложив комплексный подход, включающий надзор, исследования и глобальное управление.
«Вам также нужно будет объединить его с каким-нибудь институтом вроде МАГАТЭ, чтобы отслеживать небезопасные проекты и как-то с ними справляться. И, наконец, нужен какой-то контролирующий орган, в котором участвуют многие страны по всему миру и который влияет на то, как вы хотите использовать и внедрять эти системы. Что-то вроде зонтика ООН, что-то подходящее для этой цели, техническая ООН», — добавил он.
Поделиться: