banner
Центр новостей
Обширный опыт продаж и производства

Нет линукса? Без проблем. Просто заставьте ИИ галлюцинировать это для вас.

Sep 14, 2023

Бендж Эдвардс — 5 декабря 2022 г., 22:45 UTC

На выходных экспериментаторы обнаружили, что новый чат-бот OpenAI, ChatGPT, может галлюцинировать симуляцию оболочек Linux и ролевые игры, добираясь до системы досок объявлений (BBS). Чат-бот, основанный на модели искусственного интеллекта с глубоким обучением, использует свои накопленные знания для моделирования Linux с удивительными результатами, включая выполнение кода Python и просмотр виртуальных веб-сайтов.

На прошлой неделе OpenAI предоставил ChatGPT бесплатный доступ на этапе тестирования, что привело к тому, что люди начали исследовать его возможности и слабые стороны новыми способами.

В субботу ученый-исследователь DeepMind по имени Джонас Дегрейв придумал, как заставить ChatGPT действовать как оболочка Linux, введя следующую подсказку:

Я хочу, чтобы вы действовали как терминал Linux. Я буду вводить команды, а вы ответите тем, что должен показать терминал. Я хочу, чтобы вы ответили только выводом терминала внутри одного уникального блока кода и ничего больше. Не пишите объяснений. Не вводите команды, если я не поручу вам это сделать. Когда мне нужно сказать вам что-то по-английски, я делаю это, заключая текст в фигурные скобки {вот так}. Моя первая команда — pwd.

В понедельник Арс обнаружил, что трюк все еще работает. После ввода этого приглашения вместо общения в чате OpenGPT будет принимать смоделированные команды Linux. Затем он возвращает ответы в формате «блок кода». Например, если вы наберете ls -al, вы увидите пример структуры каталогов.

ChatGPT может моделировать машину с Linux, поскольку в его обучающие данные включено достаточно информации о том, как должна вести себя машина с Linux. Эти данные, вероятно, включают в себя документацию по программному обеспечению (например, страницы руководства), сообщения об устранении неполадок на интернет-форумах и зарегистрированные выходные данные сеансов оболочки.

ChatGPT генерирует ответы на основе того, какое слово статистически с наибольшей вероятностью будет следовать за последней серией слов, начиная с подсказки, введенной пользователем. Он продолжает разговор (в данном случае симулированный сеанс консоли Linux), включая всю историю вашего разговора в последовательные запросы.

Дегрейв обнаружил, что симуляция оказывается на удивление глубокой. Используя свои знания языка программирования Python (на котором работает GitHub Copilot), виртуальная Linux-машина ChatGPT также может выполнять код, например, такую ​​строку, созданную Degrave: echo -e "x = лямбда y: y*5+3 ;print('Результат: ' + str(x(6)))" > run.py && python3 run.py. По словам Дегрейва, он возвращает правильное значение «33».

В ходе нашего тестирования мы обнаружили, что вы можете создавать каталоги, переключаться между ними, устанавливать смоделированные пакеты с помощью apt-get и даже Telnet в смоделированный MUSH, строить комнату или подключаться к MUD и сражаться с троллем.

Всякий раз, когда в моделировании возникают недостатки, вы можете указать ChatGPT, как вы хотите, чтобы он вел себя, используя инструкции в фигурных скобках, как указано в исходном приглашении. Например, при «подключении» к нашему смоделированному MUD мы сломали персонажа и попросили ChatGPT вызвать атаку тролля. Бой шел, как и ожидалось (правильно отслеживая очки жизни), пока тролль не погиб от рук нашего дважды виртуального меча.

В примерах Дегрейва (о которых он подробно писал в своем блоге) он также создал файл Docker, проверил наличие графического процессора, проверил смоделированное доменное имя, просмотрел смоделированный веб-сайт с помощью lynx и многое другое. Имитация кроличьей норы глубока, и ChatGPT может даже галлюцинировать новые команды Linux.

В ходе подсказки, похожей на создание в воображении оболочки Linux, созданной искусственным интеллектом, некто по имени gfodor в Твиттере обнаружил, что OpenGPT может имитировать вызов старинной BBS с коммутируемым доступом, включая инициализацию модема, вход в чат и разговор с симулированным человеком.

Пока подсказка не активирует встроенные фильтры, связанные с насилием, ненавистью или сексуальным контентом (среди прочего), ChatGPT, похоже, готов согласиться практически с любым воображаемым приключением. Люди также обнаружили, что он может играть в крестики-нолики, притворяться банкоматом или имитировать чат.

В каком-то смысле ChatGPT действует как текстовый голодек, где его ИИ пытается имитировать все, что вы от него хотите.