Ссылка для цитирования: Евстафьев В.А., Тюков М.А., Хисметова Р.Р. Новые ИИ-инструменты в стратегических коммуникациях: архитектура виртуального пиар-консультанта // Меди@льманах. 2025. № 4 (129). С. 56−65. DOI: 10.30547/mediaalmanah.4.2025.5665
УДК 659.4:004.8
DOI: 10.30547/mediaalmanah.4.2025.5665
EDN: GCLWAZ
© Евстафьев Владимир Александрович
доктор филологических наук, профессор, заведующий кафедрой рекламы и связей
с общественностью факультета журналистики МГУ имени М.В. Ломоносова
(г. Москва, Россия), vladimir.evstafiev@gmail.com
© Тюков Максим Алексеевич
директор по маркетингу Interio Grand
(г. Москва, Россия), maxim.interiogrand@list.ru
© Хисметова Регина Руслановна
независимый исследователь
(г. Москва, Россия), Regi.Khismm@gmail.com
Развитие современной сферы связей с общественностью находится на переломном этапе, связанном с проникновением в пиар генеративного искусственного интеллекта (ГИИ). Стратегические коммуникации в цифровую эпоху характеризуются гигантским ростом баз данных и высокой динамикой изменений корпоративных коммуникаций. Для эффективного влияния на аудиторию требуется быстро обрабатывать большие массивы информации и мгновенно адаптировать сообщения. В таких условиях востребованы методы, объединяющие преимущества разных ИИ-инструментов (Евстафьев, Тюков, 2024).
В последние годы особое внимание привлекают мультиагентные ИИ-системы (Multi-Agent System, MAS) и технологии генерации, дополненной поиском (Retrieval-Augmented Generation, RAG). MAS представляют собой совокупность специализированных ИИ-агентов, каждый из которых осуществляет свою функцию (сбор данных, анализ, генерацию текста, валидацию и т.д.). При распределенной кооперации агенты могут обращаться к общей памяти и проверять результаты работы друг друга, что позволяет параллельно выполнять сложные задачи и снижать зависимость от постоянного вмешательства человека. Метод RAG, в свою очередь, дает возможность интегрировать поиск внешней информации в процесс создания контента: перед формированием ответа модель запрашивает актуальные данные из баз знаний или интернета.
Синергетическое сочетание MAS и RAG фактически формирует новую интеллектуальную экосистему — своего рода виртуального пиар-консультанта. Предполагается, что такая система может одновременно мониторить информационное пространство, генерировать инсайты и предлагать коммуникационные решения в режиме реального времени. При этом меняется роль профессиональных коммуникаторов: рутинная обработка потоков сведений уходит к ИИ, а человек решает задачи стратегической интерпретации, творческого планирования и этического контроля. Налицо двойственный эффект влияния искусственного интеллекта на общественное мнение: с одной стороны, повышается точность таргетинга и оперативность реагирования, с другой — возрастают риски распространения дезинформации. Встает задача сбалансировать технические возможности ИИ-агентов с сохранением доверия и прозрачности (Singh, 2025).
Цель данного исследования — выявить прикладные возможности и ограничения синергии MAS+RAG, дополнительные цели публичных коммуникаций, а также с помощью сценарного моделирования предложить теоретическую архитектуру виртуального пиар-консультанта. Для этого решены следующие задачи:
1) проведен обзор актуальной научной и отраслевой литературы 2025 г. по тематике MAS, RAG и агентного искусственного интеллекта в коммуникациях;
2) проанализированы и сопоставлены возможности современных платформ (фреймворков и no-code — без написания кода вручную) для построения мультиагентных систем;
3) смоделирован сценарий архитектуры ИИ-консультанта в типовой пиар-ситуации;
4) рассмотрены этические и организационные аспекты применения подобных агентов.
Концепция MAS, зародившаяся в исследованиях по ИИ, получила в 2020 гг. новый импульс благодаря развитию больших языковых моделей. Сегодня аналитики относят ИИ-агентов к числу ведущих технотрендов: предполагается, что автономные агенты будут решать задачи на всех уровнях — от индивидуального ассистента до корпоративных рабочих процессов. Однако создание таких агентов с нуля требует решения множества сложных проблем: как организовать память и обмен знаниями, как интегрировать внешние инструменты, как обеспечить надежность планирования действий.
Чтобы облегчить решение этих задач, появились специализированные фреймворки. Так, библиотека LangChain предложила модульный подход к оркестрации LLM: разработчик получает «из коробки» компоненты для управления памятью, инструментами, диалогом и т.п. AutoGen от Microsoft сфокусирован на совместной работе нескольких агентов через обмен сообщениями на естественном языке, что упрощает сценарии с участием человека в цикле. В 2025 г. наблюдается переход от создания экспериментальных агентных прототипов к их промышленному внедрению: вместо месяцев ручной сборки логики все чаще используют готовые шаблоны и агенты-«болванки» из фреймворков. Это ускоряет разработку и закладывает единые стандарты (взаимодействие агентов, протоколы безопасности). Исследования демонстрируют, что мультиагентная организация позволяет улучшить качество решений за счет разделения сложных проблем на подзадачи и коллективного обсуждения. Например, Т. Нгуен, П. Чин и Ю.-В. Тай (Nguyen, Chin, Tai, 2025) описали MA-RAG — систему из четырех агентов (планировщик, постановщик шагов, извлекатель данных и отвечающий), которые совместно решали сложные задачи. Такая коллективная работа повышает интерпретируемость хода мыслей искусственного интеллекта и надежность: каждый агент проверяет действия предшественника, снижая риск ошибок.
Параллельно в сфере языковых моделей укрепляется тренд интеграции внешних знаний. RAG-концепция возникла как ответ на ограничения LLM, связанные с их обучением на статичных данных и склонностью придумывать факты. Смысл RAG — перед генерацией ответа выполнить поиск и подставить в промт модели найденные из надежных источников сведения. Работы 2020–2024 гг. (OpenAI, MSR) показали, что такой подход существенно повышает фактическую точность и актуальность ответов, особенно в области задач с динамично обновляющейся информацией. В коммуникациях это означает возможность генерировать тексты, уже содержащие последние цифры, новости, цитаты, вместо обобщенных шаблонов. Большинство современных реализаций RAG — от поисковых движков типа чат-бота Bing до корпоративных помощников (например, на платформе Amazon Bedrock) — строятся по схеме «поиск + GPT».
В 2025 г. предлагается расширить эту парадигму до агентного RAG: когда не один, а сразу несколько агентов участвуют в цепочке поиска и генерации. Это позволяет более гибко обрабатывать запрос, разбивая его на подпункты, привлекая разные источники, анализируя противоречия. Для пиар-аналитики, которая оперирует разнородной информацией (медиатексты, социальные сети, опросы, внутренние данные), агентный RAG представляется особенно перспективным. Он обеспечивает как наполнение коммуникационных рекомендаций актуальными фактами, так и их доказательность (возможность тут же предъявить ссылки на источники, усиливая доверие аудитории).
В процессе исследования использовались качественные методы — обзорно-аналитический и сценарно-моделирующий. На первом этапе были рассмотрены публикации (научные статьи, технологические блоги, отраслевые отчеты) за 2025 г., посвященные мультиагентным системам, RAG и применению ГИИ в коммуникациях. Целью обзора было зафиксировать текущее состояние знаний, ключевые тренды и практики. Особый акцент сделан на западных источниках (IEEE, arXiv, Gartner, IBM, PRSA и др.), как наиболее оперативно реагирующих на появление новых технологий.
На втором этапе выполнено концептуальное моделирование — разработка гипотетической архитектуры ИИ-агента для пиара на основе принципов MAS+RAG. Методологически использован сценарный подход: описание работы системы в формате мысленного эксперимента, имитирующего реальную ситуацию. Сценарное моделирование широко применяется в стратегическом анализе для оценки последствий внедрения инноваций без прямого эксперимента. В нашем случае смоделирована ситуация антикризисной коммуникации, где виртуальный агент выполняет роль советника пиар-менеджера. Были определены роли агентов, их функции, порядок взаимодействия и обмен данными. Такой сценарий позволил выявить потенциальные преимущества и возможные недостатки предложенной архитектуры.
На третьем этапе проведен анализ платформ и инструментов для реализации MAS+RAG. Рассмотрены: а) кодовые фреймворки (LangChain, AutoGen, Haystack и др.) — с точки зрения возможностей и требований к разработчикам; б) no-code и low-code (минимальное кодирование вручную) решения (Dust, n8n, Relevance AI и пр.), ориентированные на бизнес-пользователей; в) кастомные подходы (собственная разработка на базе open-source моделей). Данные собирались из документации, обзоров и кейсов. Результаты позволили сопоставить технические варианты по критериям сложности, гибкости, скорости внедрения, безопасности и др.
Методология исследования не предполагает количественных экспериментов, однако комплексность (сочетание теоретического обзора и практического сценария) обеспечивает надежность выводов. Выстроенный сценарий проверялся экспертным обсуждением: результаты соотнесены с имеющимися практиками внедрения ИИ в пиар для оценки реалистичности. Ограничением работы является отсутствие эмпирической валидации предложенной модели на реальных данных — это планируется в рамках дальнейших исследований.
Архитектуру MAS+RAG-агента для пиара можно реализовать разными способами — от программирования с нуля до использования облачных конструкторов. Рассмотрим три подхода: применение разработческих фреймворков, использование платформ no-code, кастомная доработка «под себя».
Профессиональные разработчики, создающие агентные системы, в 2025 г. располагают богатым набором библиотек и SDK (Software Development Kit — набор инструментов для программного обеспечения). Ключевое преимущество кодовых фреймворков — максимальная гибкость: можно настроить агента под любые нестандартные требования; например, LangChain предоставляет API для интеграции практически любых инструментов (от баз данных до веб-скрейперов) и работы с разными LLM. AutoGen, в свою очередь, позволяет «из коробки» организовать коллектив агентов, общающихся естественным языком, — это удобно, когда нужно объединить нескольких ботов и человека. Однако плата за гибкость — сложность и порог входа. Освоение таких фреймворков требует уверенных навыков Python и понимания основ NLP. По мере усложнения сценариев вырастает и объем кода: разработчику приходится вручную прописывать логику принятия решений, хранение контекста, обработку ошибок. Кроме того, важна инфраструктура: для своих агентов компании зачастую используют облачные сервисы (например, Azure AI, OpenAI API), что требует учитывать вопросы безопасности данных и стоимости (Hu, Yin, Chen, Bucher et al., 2025). Словом, фреймворки подходят тем организациям, где есть ИТ-команда, готовая вложиться в кастомное решение, либо когда стандартные средства не позволяют решить поставленную задачу.
Платформы no-code/low-code. В последние два года активно развиваются платформы, позволяющие строить ИИ-агентов без программирования, с помощью визуальных интерфейсов и готовых блоков. Они делают технологии доступными для широкого круга пользователей, включая самих пиар-менеджеров. Пример — Dust (dust.tt), позиционирующая себя как «OS для ИИ в компании». Она предлагает конструктор, где можно выбрать шаблоны агентов (например, «аналитик», «контент-генератор», «редактор»), подключить источники данных (Slack, Google Docs, базы знаний) и задать логику их взаимодействия. Другой пример — n8n, популярный open-source инструмент автоматизации, который в 2023 г. добавил ноду LLM Agent. С его помощью можно визуально собрать рабочий процесс: например, настроить триггер на появление упоминания бренда в социальных сетях, затем ИИ-агент автоматически классифицирует тональность и либо отправит шаблон ответа клиенту, либо эскалирует инцидент команде. Главные плюсы платформ no-code — скорость и простота: прототип ИИ-помощника можно собрать за часы (что подтвердилось в ряде хакатонов 2024–2025 гг.), тогда как классическая разработка заняла бы недели. По прогнозам компании Gartner, к 2026 г. до 65% корпоративных приложений будут создаваться на платформах low-code/no-code1. Для коммуникационных отделов это шанс самостоятельно экспериментировать с ИИ-сервисами, не зависеть от загрузки ИТ-отдела. Ограничения, правда, тоже есть: типовые шаблоны могут не учесть специфики конкретной организации; настраиваемость таких систем ниже, чем у кода (сложно реализовать то, что не предусмотрено разработчиками платформы); и, конечно, вопросы безопасности — данные вашей компании зачастую проходят через внешние сервисы, что требует тщательной оценки рисков и наличия опций on-premise.
Кастомная разработка подразумевает создание агентной системы собственными силами, без опоры на единый фреймворк или платформу. Как правило, он избирается, если у компании есть уникальные требования: например, необходимо полностью офлайн-решение (без обращения к внешним API), либо требуется глубокая интеграция с унаследованными системами. Кастомный подход дает полный контроль над функциональностью и данными — «все своими руками». Разработчики могут взять открытые LLM (типа Llama 2), обучить на собственных данных, написать коммуникационный слой между агентами с учетом специфики задач. Однако затраты на такой проект максимальны: нужны высококвалифицированные ML-специалисты, оборудование (GPU-серверы), много времени на тестирование. Поэтому на практике компании редко идут по пути кастомной разработки, если только не обладают сильной R&D-командой или не создают ИИ-продукт для внешнего рынка (Hu, Yin, Chen, Bucher et al., 2025).
Выбор подхода определяется масштабом и задачами организации: для быстрых экспериментов и небольших команд подойдут платформы no-code, тогда как сложные сценарии в крупной среде требуют использования кодовых фреймворков или их комбинации с кастомизацией.
На основании обзора технологий предложен сценарий работы мультиагентной системы MAS+RAG, функционирующей как виртуальный пиар-консультант. Цель такого ИИ-агента — помочь пиар-отделу оперативно мониторить информационное поле, анализировать репутационные риски и вырабатывать рекомендации по коммуникационной стратегии. Предлагаемая система состоит из нескольких специализированных агентов:
Агент-мониторинг — непрерывно собирает данные из внешних источников (новости, социальные медиа, форумы, внутренние отчеты). Его задача — обеспечить систему актуальной информацией. Он может использовать API новостных порталов, модули парсинга соцсетей, подписки на ключевые слова и т.п. Результат работы — агрегированный поток событий и фактов, релевантных для компании. В терминах RAG этот агент выполняет стадию retrieval — доставляет свежий контент для последующего анализа.
Агент-аналитик — обрабатывает собранные данные и превращает их в инсайты. Он анализирует тональность упоминаний, выделяет основные темы обсуждений, сравнивает текущие метрики (например, объем негатива) с историческими значениями или материалами конкурентов. Возможно применение методов NLP (кластеризация текстов, извлечение sentiment) и простых логических правил. Агент-аналитик отвечает на вопрос, что происходит и почему это важно для нас. Его вывод — структурированное представление ситуации (тренды, аномалии, ключевые риски).
Агент-генератор контента — на основе инсайтов от аналитика формирует черновики коммуникационных материалов. Это могут быть пресс-релизы, посты для соцсетей, ответы на типовые вопросы или даже скрипт речи для спикера. Агент использует возможности большой языковой модели, обученной на большом корпусе текстов, включая отраслевые коммуникации. Генерируемый им текст учитывает тональность и стиль, принятые в компании, и направлен на решение обнаруженной проблемы. Например, если аналитик зафиксировал кризисную ситуацию, генератор подготовит варианты публичных извинений и планы действий.
Агент-валидатор — проверяет качество и достоверность сгенерированного контента. Во-первых, он проводит фактчекинг: сверяет все фактические утверждения с базой данных (или переспрашивает у агента-мониторинга). Во-вторых, валидатор оценивает соответствие текста корпоративной политике и этическим нормам. Он же контролирует наличие излишне оптимистичных или вводящих в заблуждение формулировок. При обнаружении несоответствий валидатор либо самостоятельно вносит правки, либо возвращает запрос агенту-генератору на переработку с указанием замечаний. Таким образом, реализуется самокорректирующийся цикл, снижающий вероятность ошибок.
Агент-координатор — оркестратор всей системы. Он принимает внешние запросы (например, «оценить репутационный ущерб от ситуации Х и предложить план действий») и разбивает их на задачи для остальных агентов. Координатор знает, какой агент за что отвечает и в каком порядке нужно объединить их результаты. Также он следит за дедлайнами и может подключить человека, если агенты не справляются или требуется решение вне компетенции ИИ.
В типичном рабочем цикле координатор получает запрос от пользователя и определяет последовательность действий агентов. Сначала агент-мониторинг извлекает из внешних источников свежие данные (например, фиксирует всплеск негативных упоминаний бренда в соцсетях). Затем агент-аналитик интерпретирует эту информацию — выделяет ключевые темы, тренды, сравнивает с историческими показателями. На основе инсайтов агент-генератор формирует черновик коммуникационного решения: будь то пресс-релиз, пост в социальных сетях или план антикризисных шагов. Полученный проект передается агенту-валидатору, который проверяет факты и соответствие корпоративным стандартам. При необходимости валидатор вносит коррективы (или возвращает задачу генератору для правок), устраняя неточности и нежелательные формулировки. Наконец, агент-координатор собирает итоговый результат — аналитическую сводку ситуации и рекомендованные сообщения — и предоставляет его пиар-команде.
Предположим, коммуникационный директор запрашивает: «Нужно срочно оценить ситуацию вокруг жалоб на продукт и подготовить пресс-релиз». Координатор поручает мониторингу собрать все упоминания проблемы в Сети, аналитик определяет, что жалобы связаны с последним обновлением продукта, рост негативных отзывов составил 30% за двое суток и формируются нарративы о «плохой поддержке». Генератор на основе этих данных пишет черновик пресс-релиза с извинениями и объявлением о запуске программы компенсаций. Валидатор находит, что генератор указал некорректную цифру («95% пользователей уже получили ответ» — на деле обратная связь еще в процессе), и исправляет ее, а также смягчает эмоционально окрашенную тональность. Координатор выводит финальный пакет: краткую аналитику (что случилось и как воспринимается) и готовый пресс-релиз. Все это — за считанные минуты с минимальным участием человека.
Важно, что система MAS+RAG сохраняет прозрачность рассуждений. Лог взаимодействия агентов (какие факты извлек мониторинг, какие правки внес валидатор и т.д.) можно протоколировать для последующего разбора. Это повышает доверие к ИИ внутри организации: менеджер видит, что выводы агента опираются на конкретные данные, а не взяты «с потолка». С внешней стороны качество работы компании проявляется в ускорении и обоснованности коммуникаций: пиар-отдел реагирует на кризис быстрее конкурентов и подкрепляет каждое заявление фактами.
Безусловно, выявляются и ограничения. Если данные на входе неполные или искаженные, даже идеальная связка агентов даст неверные рекомендации. Многое зависит от настройки параметров: агентов нужно «учить» специфике отрасли, иначе генератор может предложить нелепые шаги (например, многомиллионные компенсации, нереальные в данном бизнесе). Не меньший вызов — интерфейс взаимодействия человека и ИИ. Выдавая готовые тексты, виртуальный консультант может снижать бдительность команды: привыкнув доверять ИИ, люди могут упустить скрытые риски или контексты. Поэтому даже в идеальном MAS+RAG предусматривается роль человеческого модератора. Его задача — принимать итоговые решения, оценив предложения ИИ с позиций опыта, корпоративных ценностей и здравого смысла. Такой тандем человека и машины представляется оптимальной моделью на ближайшее будущее коммуникаций.
Широкое внедрение ИИ-агентов в публичные коммуникации требует внимательного отношения к этическим нормам. Принцип открытости — фундамент профессиональной этики связей с общественностью. Поэтому при применении ГИИ важно решить, когда и как раскрывать этот факт. Если пресс-релиз или пост написан при участии ИИ, следует ли об этом сообщать аудитории? Единых стандартов пока нет, но тренд идет к повышению прозрачности. Например, Комиссия ЦИПР (конференция «Цифровая индустрия промышленной России») по этике ИИ рекомендует организациям внутренне документировать степень вмешательства ИИ в создание контента и быть готовыми публично признать использование ИИ, если это выяснится. Внутри команд все больше практикуется маркировка ИИ-генерированных материалов, чтобы коллеги знали, какой текст требует особого контроля. Исследования отмечают, что сокрытие использования ИИ, или если оно будет раскрыто постфактум, может подорвать доверие. С другой стороны, избыточная демонстрация ИИ-участия способна снизить ценность сообщения в глазах аудитории (восприятие «не человек старался, а машина»). Вырабатывая политику прозрачности, пиар-службам следует учитывать ожидания целевой аудитории и регулятивные требования. Так, в ряде стран готовятся нормы об обязательной маркировке синтетического медиаконтента, чтобы бороться с дипфейками и дезинформацией. Пиар-агент может взять эти функции на себя — автоматически помечать генерируемые изображения или видео водяными знаками.
ИИ-системы способны как повышать достоверность коммуникаций (благодаря фактчекингу и ссылкам на источники), так и создавать угрозы распространения ложной информации. Распространение фейков, созданных ИИ, — уже реальность: алгоритмы генерируют сотни фейковых статей и комментариев, поддерживая нужную повестку. Пиар-специалисты оказываются на линии фронта этой войны правды и лжи. С одной стороны, они могут использовать агентов для отслеживания и опровержения слухов (например, настроить мониторинг подозрительных вбросов, автоматическое распространение контрнарратива). С другой — должны противостоять искушению самим прибегнуть к «темной стороне силы» и создавать выгодные, но ложные истории. Этические кодексы однозначно запрещают дезинформацию, независимо от инструмента. Ответственное применение MAS+RAG предусматривает встроенные ограничения: агент-генератор не должен придумывать факты, его промпты обучены избегать клеветы и дискриминации; валидатор направлен на отсеивание непроверенных сведений. Необходимо разработать правила и сценарии использования ИИ в коммуникациях. Например, назначить ответственных за проверку ИИ-контента (главный редактор для виртуального консультанта), определить допустимые и недопустимые сферы применения ИИ (возможно, запретив его использование в финансовой отчетности или юридических заявлениях) (UNESCO, 2025). Такой аудит и контроль помогут не допустить репутационных потерь из-за неосторожного обращения с ИИ (Li, Stenzel, Eickhoff, Bahrainian, 2025).
В целом этические и управленческие аспекты MAS+RAG сводятся к одному понятию — ответственность. Организации должны ответственно относиться к содержанию, которое генерирует их ИИ, к людям, на которых он влияет, и к самим технологиям, которые они «приручают».
Развитие мультиагентных систем и RAG-технологий открывает новые горизонты для практики пиара и стратегических коммуникаций. Проведенное исследование позволяет сформулировать ряд ключевых выводов в отношении MAS+RAG как интеллектуальной системы поддержки пиара. Синергия мультиагентной архитектуры с генерацией, дополненной поиском, формирует эффективный инструмент для коммуникационных команд. Виртуальный ИИ-консультант способен параллельно мониторить инфополе, анализировать данные и генерировать рекомендации, существенно сокращая цикл принятия решений. В сценарном эксперименте показано, что такой агент может за минуты подготовить черновик антикризисного плана, тогда как у человеческой команды на это ушли бы часы. Таким образом, MAS+RAG потенциально повышает оперативность и проактивность стратегических коммуникаций. MAS+RAG демонстрирует ряд прикладных выгод: а) масштабируемость — система легко охватывает десятки источников, обрабатывая больше информации, чем человек; б) консистентность — валидатор устраняет противоречия, обеспечивая единый тон и достоверность сообщений; в) обучение на опыте — агенты могут накапливать знания (через общую базу или fine-tuning — тонкую настройку), давая возможность глубже понять специфику бренда. Однако существуют ограничения: зависимость от качества данных (на «мусорных» входах агент также выдаст «мусорный» выход), риск сбоев или непредвиденных ошибок (алгоритмы несовершенны), необходимость адаптации под языковые и культурные нюансы (англоязычные модели не всегда адекватно работают с русскоязычным контентом). Кроме того, агенту сложно заменить креативность человека и его эмоциональный интеллект — в тонких вопросах эмпатии или нестандартных идеях ИИ пока уступает профессионалам (Nguyen, Chin, Tai, 2025).
Внедрение ИИ-агентов не отменяет роли человека, а преобразует ее. Пиар-специалист становится наставником и редактором ИИ: он задает правильные вопросы, проверяет и утверждает ответы. Этический контроль особенно важен — ИИ должен работать в рамках принципов прозрачности, правдивости и уважения к аудитории. Компании, внедряющие MAS+RAG, должны разработать внутренние гайдлайны и обеспечить аудит действий виртуального агента. Только так можно сохранить доверие общества и избежать репутационных рисков.
На 2025 г. уже доступны все ключевые компоненты для создания мультиагентного пиар-ассистента — от облачных LLM с доступом к поиску до удобных платформ оркестрации. Многие ведущие фирмы (Microsoft, IBM) двигаются в этом направлении, предлагая инструменты для разработчиков и бизнес-пользователей. Однако степень внедрения сильно различается по отраслям и странам. Для успешной реализации предложенной концепции организация должна обладать определенной цифровой культурой, готовностью инвестировать в ИИ и обучать персонал. Вероятно, в ближайшие два—три года MAS+RAG-подход будут опробовать прежде всего крупные международные корпорации и агентства, после чего лучшие практики распространятся шире.
Практическая значимость исследования состоит в том, что она предлагает конкретную архитектуру виртуального пиар-агента и рассматривает нюансы ее функционирования. Это может служить отправной точкой для компаний, планирующих эксперименты с ИИ в коммуникациях. Научная новизна — в комплексном рассмотрении MAS и RAG именно в сфере стратегических коммуникаций, где ранее эти темы изучались разрозненно.
Подчеркнем, что мультиагентные системы и RAG — не панацея и не «волшебная палочка», но мощный новый инструмент. Его ценность зависит от того, в чьих руках он окажется и с какими намерениями будет использован. Пиар как профессия, нацеленная на диалог и взаимопонимание, должна взять лучшее от этих технологий, оставаясь верной своим базовым ценностям — честности, уважению и ответственности. При таком подходе MAS+RAG действительно может стать тем самым «виртуальным советником», который усилит возможности человека, но не заменит его в добросовестном и творческом отношении к работе.
1 Goasduff L. (2021) Gartner Says Cloud Will Be the Centerpiece of New Digital Experiences. Gartner, 10 November. Режим доступа: https://www.gartner.com/en/newsroom/press-releases/2021-11-10-gartner-says-cloud-will-be-the-centerpiece-of-new-digital-experiences (дата обращения: 12.05.2025).
Евстафьев В.А., Тюков М.А. Искусственный интеллект и нейросети: практика применения в рекламе: учеб. пособие. М.: Дашков и Ко, 2024.
Hu Y., Yin Z., Chen S., Bucher B. et al. (2025) Multi-Agent Systems in the Era of Foundation Models: Opportunities, Challenges and Futures. In: Proceedings of the 39th International Conference on Machine Learning. Workshop. Режим доступа: https://icml.cc/virtual/2025/workshop/39955 (дата обращения: 18.07.2025).
Li S., Stenzel L., Eickhoff C., Bahrainian S.A. (2025) Enhancing Retrieval-Augmented Generation: A Study of Best Practices. In: Proceedings of the 31st International Conference on Computational Linguistics. Abu Dhabi, UAE: Association for Computational Linguistics, pp. 6705–6717.
Nguyen T., Chin P., Tai Y.-W. (2025) MA-RAG: Multi-Agent Retrieval-Augmented Generation via Collaborative Chain-of-Thought Reasoning. Режим доступа: https://arxiv.org/pdf/2505.20096 (дата обращения: 12.05.2025).
Singh M. (2025) Multi-Agent Systems: The Future of Distributed AI Platforms for Complex Task Management. World Journal of Advanced Research and Reviews 26 (3): 48–55. DOI: 10.30574/wjarr.2025.26.3.1985
Sustaining Trust in the Future of Internal Communication: AI Ethics Charter (2025). Institute of Internal Communication. Режим доступа: Downloads/IoICAI-Ethics-Charter.pdf (дата обращения: 12.05.2025).
UNESCO (2025) The 3rd UNESCO Global Forum on the Ethics of AI 2025 (Bangkok, Thailand, 24–27 June 2025). Режим доступа: https://unesdoc.unesco.org/ark:/48223/pf0000393655 (дата обращения: 29.06.2025).
Дата поступления в редакцию: 19.07.2025
Дата публикации: 20.08.2025