Поточний рівень використання LLM, який у нас склався.

У компанії:

  • Загальні питання і питання по базі знань компанії — асистент у Slack, з RAG, самописний, на базі OpenAI 4o + Zed
  • Copilot — GitHub Copilot у розробників, QA та Ops/DevOps/SRE
  • IDE — Cursor, Windsurf у окремих розробників, у тестовому режимі
  • Pull Request — самописний сервіс коментує PR, на базі OpenAI 4o, з промптом на тему пошуку потенційних проблем і як приклад здорового фідбеку
  • Созвони — використання сторонніх сервісів для транскрипції, створення саммарі, формулювання наступних кроків тощо

Особисто:

  • Загальні питання — ChatGPT, з використанням проєктів для розділення питань і додавання додаткових контекстів
  • Вузькоспеціалізовані питання — ChatGPT через GPTs
  • Переклад, перевірка помилок, зміна стилю — Raycast, з власними командами, на базі Claude Sonnet, бо вона краще дотримується інструкцій
  • “Поясни це”, “Перевір факти з тексту”, “Перекажи відео” та інші невеликі автоматизації — Raycast, власні команди на базі OpenAI 4o
  • Створення commit message, виправлення консольних команд і все інше, що пов’язане з CLI — github.com/sigoden/aichat
  • IDE — Cursor, у “нормальному” режимі, з повним керуванням контекстом