gskaro-v1/.skaro/milestones/01-improvements/add-missing-tests/clarifications.md

4.4 KiB
Raw Permalink Blame History

Clarifications: add-missing-tests

Question 1

Как будет обрабатываться длинный ответ модели в LLM Streaming?

Context: Необходимо определить поведение для обработки длинных ответов модели, чтобы избежать переполнения памяти или замедления работы сервера.

Options:

  • A) Отправлять ответ в виде нескольких частей (streaming)
  • B) Ограничивать длину ответа и выдавать ошибку при превышении
  • C) Завершать работу модели после достижения максимального размера ответа

Answer: Отправлять ответ в виде нескольких частей (streaming)

Question 2

Как будет реализована авторизация для LLM Console?

Context: Необходимо определить поведение авторизации, чтобы защитить конфиденциальные данные и предотвратить несанкционированный доступ.

Options:

  • A) Использовать стандартную аутентификацию (логин/пароль)
  • B) Использовать OAuth для внешней авторизации
  • C) Не использовать авторизации, доступ к API ограничивать по IP

Answer: Не использовать авторизации, доступ к API ограничивать по IP

Question 3

Как будет реализован выбор модели в LLM Console?

Context: Необходимо определить поведение для выбора модели, чтобы пользователь мог легко переключаться между доступными моделями.

Options:

  • A) Предоставить список доступных моделей и позволить пользователю выбрать одну из них
  • B) Автоматически подбирать модель в зависимости от конкретного запроса
  • C) Не предоставлять возможности выбора модели, использовать только одну модель для всех запросов

Answer: Предоставить список доступных моделей и позволить пользователю выбрать одну из них

Question 4

Как будет реализована валидация ввода в LLM Console?

Context: Необходимо определить поведение валидации, чтобы предотвратить некорректные запросы и обеспечить качественную работу модели.

Options:

  • A) Проверять валидность данных перед отправкой на обработку
  • B) Ограничивать длину ввода и выдавать ошибку при превышении
  • C) Не проводить никакой валидации, допуская любые запросы

Answer: Проверять валидность данных перед отправкой на обработку

Question 5

Как будет реализована история LLM?

Context: Необходимо определить поведение хранения и просмотра истории запросов и ответов модели, чтобы пользователь мог легко контролировать работу модели.

Options:

  • A) Хранить историю в базе данных и предоставлять возможность просмотра
  • B) Сохранять историю локально на сервере, но не предоставлять возможность просмотра
  • C) Не хранить историю, лишь сохранять последний ответ модели

Answer: Сохранять историю локально на сервере, но не предоставлять возможность просмотра