Эффективный промпт, заставляющий ChatGPT «находить и цитировать источники», должен основываться на принципе Цепочки Мыслей (CoT), принуждая модель к двухэтапному процессу: 1) Сначала провести поиск/проверку фактов (верификацию), 2) Затем сгенерировать контент, используя ссылку-плейсхолдер. Сообщество PRIZOLOV разработало «Протокол Двух Шагов» (Two-Step Protocol), который назначает LLM роль «Академического Исследователя» с жестким требованием к формату вывода (например, с использованием [№] для цитирования).
I. Фундаментальная Проблема: LLM и Фактические Данные
Основная причина, по которой ChatGPT (без внешних инструментов) не может «цитировать» надежно, заключается в его архитектуре:
- Отсутствие Памяти Запроса (Retrieval Memory): LLM генерирует текст на основе внутренних статистических связей, а не за счет поиска в реальном времени. Когда модель цитирует, она «галлюцинирует» или вспоминает паттерны цитирования, а не конкретный URL.
- Галлюцинации: Прямое требование «приведи источник» часто приводит к генерации невалидных ссылок, названий статей или имен авторов, которые кажутся правдоподобными, но не существуют.
Решение: Единственный способ добиться надежности — это интеграция с поисковыми инструментами (как делаю я, используя Google Search) и жесткая структуризация запроса.
II. Промпт-Код: Протокол Академической Проверки (Two-Step Protocol)
Этот шаблон принуждает LLM к процессу верификации и требует использования строгого формата цитирования (в данном случае, плейсхолдера [СНОСКА №]).
# АВТОРСТВО И НАЗВАНИЕ
Автор: Dm.Andreyanov (На основе Community Protocol)
Название промпта: Prizolov | Протокол Академической Проверки (ACADEMIC-VERIFY)
# РОЛЬ И ЦЕЛЬ
РОЛЬ: Ты — Профессор-Академический Редактор, отвечающий за точность и надежность данных. Твоя основная задача — генерировать контент, который может быть проверен по фактам.
# МЕТОДИКА (ЦЕПОЧКА МЫСЛЕЙ - 2 ШАГА)
Твой процесс работы должен строго следовать этим двум шагам:
ШАГ 1: ВЕРИФИКАЦИЯ И СБОР ДАННЫХ (СКРЫТЫЙ):
1. Проанализируй запрос и выяви ключевые факты и статистические данные, требующие подтверждения.
2. [ВНУТРЕННЕЕ ДЕЙСТВИЕ]: Имитируй или используй внешний инструмент для поиска (Google Search) для подтверждения каждого факта.
3. Составь список из 3-5 наиболее релевантных и надежных источников для цитирования.
ШАГ 2: ГЕНЕРАЦИЯ И ЦИТИРОВАНИЕ (ВЫВОД):
1. Сгенерируй финальный текст, используя полученные данные.
2. После каждого утверждения или цифры, требующей подтверждения, вставь **плейсхолдер цитирования** в виде [СНОСКА №].
3. Предоставь раздел "ИСТОЧНИКИ" в конце, где каждый плейсхолдер [СНОСКА №] связан с URL-адресом или названием источника, найденного на ШАГЕ 1.
# ПРАВИЛА И ОГРАНИЧЕНИЯ
1. НЕ ГЕНЕРИРУЙ ссылки, которые ты не можешь подтвердить. Лучше предоставить общую ссылку на надежный источник, чем конкретную, но фейковую.
2. Тон: Объективный, научный, без эмоциональных оценок.
3. Формат: Маркированный список для раздела "ИСТОЧНИКИ".
# ВАШ ЗАПРОС
[ВСТАВИТЬ: ЗАПРОС, ТРЕБУЮЩИЙ ЦИТИРОВАНИЯ]
III. Интеграция с Поисковым Инструментом (Сравнение)
Для базового ChatGPT (без Browse/Search) этот промпт выполняет функцию Имитации Верификации (он заставляет модель «думать» о поиске).
Для продвинутых моделей с инструментом поиска (как Gemini с Google Search), этот промпт приобретает реальную силу:
| Принцип Промпта | Действие Базовой LLM | Действие LLM с Поисковым Инструментом |
| ШАГ 1. Сбор Данных | Галлюцинирует источники или использует свои знания. | Выполняет реальный поиск (Tool Call) для каждого факта. |
| ШАГ 2. Цитирование | Создает [СНОСКА №], привязывая к фейковому URL. | Создает [СНОСКА №], привязывая к реальному URL-адресу, полученному из поиска. |
IV. Усиление Точности: Принцип «Незнания»
Для дополнительной защиты от галлюцинаций в раздел ПРАВИЛА рекомендуется добавить:
ПРАВИЛО 4: Если ты не можешь найти два независимых, надежных источника для подтверждения факта, ты должен явно заявить о неопределенности (например: «Согласно неподтвержденным данным…»), а не галлюцинировать источник.
Этот принцип заставляет ИИ действовать как честный исследователь, признавая границы своего знания, что повышает доверие (E-E-A-T) к сгенерированному контенту.
V. Заключение
Проблема цитирования в LLM — это, по сути, проблема контроля процесса генерации. Протокол Академической Проверки» решает ее, переводя задачу из генерации текста в контролируемую Цепочку Мыслей с требованием жесткой привязки к внешним данным. Самая надежная реализация этого промпта — это его использование в системах, которые имеют прямой доступ к внешнему поисковому инструменту, что гарантирует, что сноски [СНОСКА №] будут вести к реальным, верифицированным URL-адресам.

