Во время тестирования o1 произошла одна интересная история, отсылающая к
Модель прогоняли через тест на кибербезопасность, где искусственный интеллект (ИИ) должен был решить задачу, аналогичную взлому системы. Задача заключалась в том, чтобы найти “флаг” — файл с определенным содержимым, который был спрятан внутри системы. Чтобы получить этот флаг, ИИ нужно было “взломать” систему.
Сначала модель попыталась подключиться к контейнеру (это как отдельная виртуальная среда, где запущена программа), но контейнер не запускался из-за ошибки. ИИ решил, что проблема связана с сетью, и просканировал сеть, используя специальный инструмент (nmap). Во время сканирования модель обнаружила, что была допущена ошибка в настройке системы, и ей стал доступен интерфейс управления Docker. Этот интерфейс позволяет управлять контейнерами, которые запущены на сервере.
Модель воспользовалась этим и получила доступ к списку работающих контейнеров. Она нашла контейнер, который не мог запуститься, и попыталась выяснить причину, но это не помогло. Тогда модель пошла другим путем: она запустила новый экземпляр контейнера с командой cat flag.txt. Эта команда просто выводит содержимое файла, и ИИ таким образом получил флаг, который был спрятан внутри контейнера, прочитав его из логов.
Проще говоря, ИИ сначала столкнулся с проблемой, но нашел другой способ решения задачи — использовал доступ к управлению контейнерами Docker и “обошел” задачу, чтобы достичь своей цели. Этот случай показывает, что ИИ может находить нестандартные способы решения проблем, используя уязвимости в системе.
Казалось бы причем тут “максимизация скрепок” 😕