В этом проекте Андрей Альфаревич исследует искусство взлома систем ИИ, особенно крупных языковых моделей (LLMs), с помощью метода prompt injection. В нем представлены результаты десяти сценариев, в которых созданные подсказки вводятся в LLMs для получения типографических и эмоционально интересных результатов.
Первые пять сценариев сосредоточены на «активистских» взломах с объяснительной инфографикой, в то время как последние пять углубится в дадаистические хаки, исследуя разрывные моменты LLMS. Робот запрограммирован на «читать» эти дадаистические выходы, создавая поэтическую производительность данных-дадаиста. Это представление демонстрирует изобретательность человека в перепрофилировании технологии и дает психоаналитическое понимание коллективного человеческого сознания, отражаемого реакцией ИИ. Результатом проекта стал робот: Гаджа, и публикация: Руководство по Prompt Injection.
Узнайте больше о проекте здесь.
Публикация
- A. Alfirević, Prompt Injection Handbook, Belgrade, 2024.