Поточний рівень використання LLM, який у нас склався.
У компанії:
- Загальні питання і питання по базі знань компанії — асистент у Slack, з RAG, самописний, на базі OpenAI 4o + Zed
- Copilot — GitHub Copilot у розробників, QA та Ops/DevOps/SRE
- IDE — Cursor, Windsurf у окремих розробників, у тестовому режимі
- Pull Request — самописний сервіс коментує PR, на базі OpenAI 4o, з промптом на тему пошуку потенційних проблем і як приклад здорового фідбеку
- Созвони — використання сторонніх сервісів для транскрипції, створення саммарі, формулювання наступних кроків тощо
Особисто:
- Загальні питання — ChatGPT, з використанням проєктів для розділення питань і додавання додаткових контекстів
- Вузькоспеціалізовані питання — ChatGPT через GPTs
- Переклад, перевірка помилок, зміна стилю — Raycast, з власними командами, на базі Claude Sonnet, бо вона краще дотримується інструкцій
- “Поясни це”, “Перевір факти з тексту”, “Перекажи відео” та інші невеликі автоматизації — Raycast, власні команди на базі OpenAI 4o
- Створення commit message, виправлення консольних команд і все інше, що пов’язане з CLI — github.com/sigoden/aichat
- IDE — Cursor, у “нормальному” режимі, з повним керуванням контекстом