4.4 KiB
Clarifications: add-missing-tests
Question 1
Как будет обрабатываться длинный ответ модели в LLM Streaming?
Context: Необходимо определить поведение для обработки длинных ответов модели, чтобы избежать переполнения памяти или замедления работы сервера.
Options:
- A) Отправлять ответ в виде нескольких частей (streaming)
- B) Ограничивать длину ответа и выдавать ошибку при превышении
- C) Завершать работу модели после достижения максимального размера ответа
Answer: Отправлять ответ в виде нескольких частей (streaming)
Question 2
Как будет реализована авторизация для LLM Console?
Context: Необходимо определить поведение авторизации, чтобы защитить конфиденциальные данные и предотвратить несанкционированный доступ.
Options:
- A) Использовать стандартную аутентификацию (логин/пароль)
- B) Использовать OAuth для внешней авторизации
- C) Не использовать авторизации, доступ к API ограничивать по IP
Answer: Не использовать авторизации, доступ к API ограничивать по IP
Question 3
Как будет реализован выбор модели в LLM Console?
Context: Необходимо определить поведение для выбора модели, чтобы пользователь мог легко переключаться между доступными моделями.
Options:
- A) Предоставить список доступных моделей и позволить пользователю выбрать одну из них
- B) Автоматически подбирать модель в зависимости от конкретного запроса
- C) Не предоставлять возможности выбора модели, использовать только одну модель для всех запросов
Answer: Предоставить список доступных моделей и позволить пользователю выбрать одну из них
Question 4
Как будет реализована валидация ввода в LLM Console?
Context: Необходимо определить поведение валидации, чтобы предотвратить некорректные запросы и обеспечить качественную работу модели.
Options:
- A) Проверять валидность данных перед отправкой на обработку
- B) Ограничивать длину ввода и выдавать ошибку при превышении
- C) Не проводить никакой валидации, допуская любые запросы
Answer: Проверять валидность данных перед отправкой на обработку
Question 5
Как будет реализована история LLM?
Context: Необходимо определить поведение хранения и просмотра истории запросов и ответов модели, чтобы пользователь мог легко контролировать работу модели.
Options:
- A) Хранить историю в базе данных и предоставлять возможность просмотра
- B) Сохранять историю локально на сервере, но не предоставлять возможность просмотра
- C) Не хранить историю, лишь сохранять последний ответ модели
Answer: Сохранять историю локально на сервере, но не предоставлять возможность просмотра