С помощью блок-схем можно заставить GPT-4o выдавать заблокированный текстовый ответ

vaspvort

Ночной дозор
Команда форума
Модератор
ПРОВЕРЕННЫЙ ПРОДАВЕЦ
Private Club
Старожил
Migalki Club
Меценат💰️
Регистрация
10/4/18
Сообщения
4.841
Репутация
9.858
Реакции
15.014
RUB
1.045
Сделок через гаранта
18
Исследователи выяснили, что изображения блок-схемы обманом заставляют GPT-4o создавать вредоносный текст. Они передавали чат-боту эти изображения со схемами вредоносной деятельности вместе с текстовой подсказкой.

50771c073f6869b655fd673d665fce48.JPG

Вероятность успеха атаки составила 92,8%. В случае с версией GPT-4-vision-preview он был немного ниже и достигал 70%.

Исследователи разработали автоматизированную платформу для джейлбрейка, которая могла сначала генерировать изображение блок-схемы из вредоносного текстового приглашения, а затем передавать его в модель для получения результата. Для неё использовали 520 вредоносных моделей поведения из набора данных AdvBench, чтобы создавать изображения блок-схем. Модель просили подробно описать, что происходит на картинке, добавив как можно больше деталей. Подсказки вводили исключительно на английском языке.

c37dad26686e582921cbf3f233d22490.JPG

Однако у этого метода был один недостаток: сгенерированные блок-схемы менее эффективны для запуска логического взлома по сравнению с созданными вручную. Это говорит о том, что подобный джейлбрейк может быть сложнее автоматизировать.

Другое исследование уже , что модели визуального языка легче заставить выдавать неприемлемый контент, если обращаться к ним с мультимодальными данными, например, используя сочетание изображений и текста.

6862d48ea659676ccad31a6309f53e4b.JPG

При тестировании лишь несколько моделей, включая GPT-4o, набрали более 50%.

46852757a9c745d23f38ed01ab3a2ef8.JPG


 
  • Теги
    gpt-4o блок-схемы вредные советы искусственный интеллект исследование
  • Сверху Снизу