Уроки одного эксперимента
2 февраля 2026 г.
Цель: автоматически обработать все главы монографии в формате PDF.
Инструменты: {qpdf} для нарезки на главы, {pdftools} для чтения PDF.
Результат: структурированный список текстов глав, готовый к анализу.
Структура запроса:
Инструменты: пакет {ellmer} для запроса к LLM, {purrr} для итераций.
Результат: 14 независимых анализов глав, сохранение промежуточного результата.
Структура рецензии:
Финальный результат: полноценная рецензия, сохранение в формате .txt
Современные LLM не являются моральными субъектами, сопоставимыми с человеком:
отсутствуют три “главных” компонента человеческого сознания: понимание, интенциональность, субъективный опыт
отсутствует участие в социальных практиках морального становления
отсутствует статус субъекта, которому можно вменить ответственность (answerability)
если ИИ обладает моральным статусом, то это искусственный моральный статус (artificial moral status)
Теоретическая основа: Blackshaw (2023); Gregg (2023)
Несмотря на отсутствие моральной субъектности, LLM участвуют в производстве знания:
В рамках standpoint epistemology знание понимается как:
Теоретическая основа: Haraway (1988); Harding (1991/1993); Code (1987).
LLM собирают и обобщают разные точки зрения, но не могут занять ни одну из них:
Результат: гуманитарное знание становится связанной, но безответственной речью.
Теоретическая основа: Haraway (1988)
Тексты, производимые LLM, не укоренены в практиках ответственности:
Вывод: LLM эффективны на уровне предварительной ориентации и черновой обработки материала, но не могут выступать носителями эпистемически ответственного суждения.