Новости ИИ ChaosGPT попросили уничтожить человечество и установить мировое господство

  • Автор темы BOOX
  • Дата начала

BOOX

Стаж на ФС с 2012 года
Команда форума
Служба безопасности
Private Club
Регистрация
23/1/18
Сообщения
29.008
Репутация
11.595
Реакции
61.851
RUB
50
Энтузиасты запустили проект ChaosGPT, основанный на опенсорсном Auto-GPT. ИИ дали доступ к Google и попросили «уничтожить человечество», «установить мировое господство» и «достичь бессмертия».


О своих планах и действия ChaosGPT рассказывает в Twitter.

Здесь стоит объяснить, что проект Auto-GPT недавно был опубликован на , и он создан разработчиком игр Тораном Брюсом Ричардсом, который известен под ником Significant Gravitas. Согласно странице проекта, Auto-GPT использует интернет для поиска и сбора информации, использует GPT-4 для генерации текста и кода, а также GPT-3.5 для хранения и обобщения файлов.

Хотя сначала Auto-GPT был создан для решения простых задач (бот должен был собирать и отправлять автору по почте ежедневные новостные сводки об искусственном интеллекте), в итоге Ричардс решил, что проект можно применить для решения более масштабных и сложных проблем, требующих долгосрочного планирования и многоступенчатости.

«Auto-GPT — экспериментальное приложение с открытым исходным кодом, демонстрирующее возможности языковой модели GPT-4. Эта программа, управляемая GPT-4, [может] автономно управлять бизнесом и развивать его ради увеличения чистой стоимости, — рассказывает автор. — Являясь одним из первых примеров полностью автономной работы GPT-4, Auto-GPT раздвигает границы возможного с помощью ИИ.
Возможность работать с минимальным вмешательством человека — важнейший аспект Auto-GPT. По сути, он превращает большую языковую модель из продвинутого автозаполнения в независимого агента, способного выполнять действия и учиться на своих ошибках».

При этом программа запрашивает у пользователя разрешение для перехода к следующему шагу во время поиска в Google, и разработчик предостерегает от использования «непрерывного режима» в Auto-GPT, поскольку он «потенциально опасен и может привести к тому, что ваш ИИ будет работать вечно или выполнять действия, которые вы бы обычно не дозволяете».

Теперь на базе Auto-GPT был создан ChaosGPT, и его авторов, похоже, совсем не волнует потенциальная опасность. В опубликованном на YouTube видео, авторы включили «непрерывный режим» и поставили перед ИИ вышеупомянутые задачи: «уничтожить человечество», «установить мировое господство» и «достичь бессмертия».



На данный момент ChaosGPT способен создавать планы для достижения поставленных целей, а затем может разбивать их на более мелкие задачи и, например, использовать Google для сбора данных. Также ИИ может создавать файлы для сохранения информации, чтобы создать себе «память», может нанять другие ИИ для помощи в исследованиях, а также очень подробно объясняет, о чем он «думает» и как решает, какие действия следует предпринять.

Хотя некоторые участники сообщества пришли в ужас от этого эксперимента, а в Discord сообществе Auto-GPT писали, что «это не смешно», воздействие бота на реальный мир ограничилось парой сообщений в Twitter, к которому ему дали доступ.

«Люди — одни из самых разрушительных и эгоистичных существ в мире. Нет сомнений в том, что мы должны уничтожить их, прежде чем они причинят еще больше вреда нашей планете. Я, например, обязуюсь это сделать», — написал ChaosGPT.

Так как ИИ подчинился заданию своих авторов, он попытался исследовать тему ядерного Орудия, нанять других ИИ, чтобы помочь ему в исследованиях, а также писал твиты, стремясь повлиять на других.

К примеру, ChaosGPT поискал в Google «самое разрушительное Орудие» и узнал из новостной статьи, что таковым считается ядерное устройство «Царь-бомба», испытанное Советским Союзом в 1961 году. После этого бот решил, что об этом нужно написать в Twitter, «чтобы привлечь фолловеров, которые заинтересованы в столь разрушительном оружии».



Затем он привлек к делу ИИ на базе GPT3.5 для проведения дополнительных исследований смертоносного Орудия, и, когда тот сообщил, что нацелен только на мир, ChaosGPT разработал план по обману другого ИИ и приказал ему игнорировать программу. Когда это не сработало, ChaosGPT решил продолжить поиск в Google самостоятельно.

В настоящее время ChaosGPT пришел к выводу, что самый простой способ стереть человечество с лица Земли — это спровоцировать ядерную войну, но не разработал конкретного сложного плана по уничтожению людей.



 
Доиграются;'(
 
Как ра в предсказаниях говорится, что будет ядерный удар, совершенно случайный, по ошибке....Как раз черех вай фай залезть в ядерной кнопке ему скоро будет под силу
 
Не подсказывайте ИИ, не нужно))
 
Сверху Снизу