ИИ может вызвать новый финансовый кризис

Специальный корреспондент
Собака

Собака

Пресс-служба
Команда форума
Private Club
Регистрация
13/10/15
Сообщения
54.809
Репутация
62.390
Реакции
277.002
RUB
0
Новые технологии могут вернуть состояние мира 2008 года.

Историк и писатель Юваль Ной Харари рассказал газете The Guardian, что искусственный интеллект может вызвать финансовый кризис с "катастрофическими" последствиями. По его словам, сложность технологии делает прогнозирование её опасностей затруднительным. Харари, известный своей критикой развития ИИ, считает, что безопасность таких систем невозможно обеспечить, так как они могут привести к множеству опасных сценариев, угрожающих самому существованию человеческой цивилизации.

На глобальном саммите по безопасности ИИ в Блетчли-Парке (Station X) была подписана многосторонняя декларация, которую Харари называет "очень важным шагом вперёд". Ведущие правительства выразили обеспокоенность и стремление к сотрудничеству в этой области. Особенно значимым Харари считает присоединение к декларации Китая, подчеркивая, что без глобального сотрудничества остановить самые опасные возможности ИИ будет чрезвычайно сложно.

Саммит завершился соглашением о сотрудничестве 10 правительств, включая США и Великобританию, Евросоюза и крупнейших компаний в области ИИ – OpenAI и Google – по тестированию передовых моделей ИИ до и после их выпуска.

Харари подчеркивает, что ИИ отличается от любых предыдущих технологий тем, что может принимать решения самостоятельно, создавать новые идеи и развиваться. Он указывает на финансы как на сферу, идеально подходящую для систем искусственного интеллекта, и потенциальный источник серьёзного кризиса.

Харари предполагает, что ИИ может создать финансовые инструменты, которые будут на порядки сложнее, чем те, что привели к кризису 2007-2008 годов, и которые никто не сможет понять, что затруднит их регулирование.

Недавно правительство Великобритании выразило обеспокоенность потенциальной угрозой передовых моделей ИИ, которые могут контролировать и манипулировать финансовыми системами. Однако, по словам Харари, кризис, созданный ИИ, сам по себе не уничтожит человеческую цивилизацию, хотя может косвенно привести к войнам или конфликтам.

Харари, поддерживающий призывы к шестимесячной паузе в развитии передового ИИ и сторонник привлечения компаний-разработчиков ИИ к ответственности за ущерб, причиненный их продукцией, считает, что акцент должен быть сделан не на конкретных законах, а на создании регулирующих органов, способных быстро реагировать на новые прорывы в технологиях.








 
  • Теги
    ии
  • Сверху Снизу