llama.qtcreator 17.0.0

20 августа состоялся первый публичный выпуск кроссплатформенного плагина для Qt Creator llama.qtcreator.
Плагин предназначен для автодополнения текста с помощью локальных LLM-моделей с использованием сервера llama.cpp.
Возможности плагина:
- Автоматическая подсказка при движении курсора.
- Включение/выключение подсказки вручную с помощью клавиш
Ctrl+G. - Принятие подсказки клавишей
Tab. - Принятие первой строки подсказки клавишами
Shift+Tab. - Управление максимальным временем генерации текста.
- Настройка области контекста вокруг курсора.
- Закольцованный контекст с фрагментами из открытых и отредактированных файлов, и извлечённым текстом.
- Поддержка очень больших контекстов даже на низкопроизводительном оборудовании благодаря интеллектуальному повторному использованию контекста.
- Поддержка спекулятивных моделей FIM.
- Поддержка спекулятивного декодирования.
- Отображение статистики производительности.
Проект написан на языке C++ и распространяется по лицензии MIT.
Для установки доступны сборки для Linux, macOS и Windows.
>>> Подробности и бинарные файлы (для Qt Creator 17.0.0) на GitHub
