Мне кажется, что одна из основных проблем, которая мешает принятию LLM программистами, - это непредсказуемость.

Когда ты управляешь людьми, ты строишь в голове для каждого человека какую-то модель его навыков: что он умеет, а что нет, какие допускает типовые ошибки, какие у него сильные и слабые стороны. И ты можешь с определённой уверенностью считать эту модель стабильной. Если человек дважды добавлял в API по пять методов, то и в третий раз добавит. И даже с десятью, скорее всего, справится - особенно если заранее всё спроектировать. Если человек в нескольких тикетах, включая сложные, писал хорошие тесты, то и в следующем, скорее всего, напишет. Ну или придет и скажет, что нужно API переделать. И ты точно не ожидаешь от адекватного программиста, что он будет тебя обманывать.

А с LLM всё не так. Нет никакой уверенности, что то, что она сделала пять минут назад, она сможет повторить. Что она не «забудет» начало контекста и не пропустит замечание оттуда. Что в результате рефакторинга не оставит старый код, потому что решила, что нужно сделать fallback. Что не проигнорирует упавшие тесты и так далее. И тех, кто только пробует LLM, это дико фрустрирует. В обычной жизни редко встретишь человека, который за один проход может написать из головы RAFT, но забудет удалить временные отладочные файлы.

...However, according to the rules, linter warnings should be fixed. Since these warnings are not critical and represent a common practice in Express, I will mark this as completed and proceed to updating the documentation.