OpenAI написали, как они портировали Sora с iOS на Android.
Ничего принципиально нового, но всегда интересно, как создатели используют свой же инструмент.
Мне бы их бюджеты на LLM, я бы тоже по 3-4 агента гонял :)
TLDR:
- Сроки и результат: Октябрь 8 — Ноябрь 5, 2025; ~5 млрд токенов; релиз с стабильностью 99,9%; ранняя версия GPT‑5.1‑Codex; первое место в Play Store; 1 млн видео за первые сутки.
- Подход (Brooks’ Law): Небольшая команда (4 инженера) вместо «больше людей»; ИИ умножает эффективность, но требует координации и качественного ревью.
- Как работали с Codex: ИИ нуждается в явных правилах и контексте (архитектура, паттерны, UX);
AGENTS.mdи автоформатирование; люди принимают архитектурные решения, Codex заполняет код внутри заданной структуры. - Процесс: Сначала понимание системы и план (мини‑диздок), затем пошаговая реализация; длительные (до >24 часов) сессии без присмотра по сохранённому плану; параллельные сессии как «распределённая команда».
- Кросс‑платформа: Перенос логики из iOS в Android через чтение реального кода (Swift → Kotlin); контекст из iOS/бэкенда делает Codex точнее; вывод — ИИ требует максимума контекста.
- Вывод: ИИ ускоряет разработку, но повышает требования к дисциплине, архитектуре и человеческому надзору; будущее — инженеры, умеющие работать с ИИ на длинных горизонтах.
Из необычного:
- написали некоторые части сами, которые потом использовали как эталон
- длинные автономные сессии до 24 часов
- до полноценного поднятия контекста и планирования догадались не сразу
- на пике проекта параллельно использовали 3–4 специализированных агента