Как улучшить результат работы ChatGPT с помощью методики COSTAR

Сегодня понимание принципов, на которых основывается эффективное построение запросов, становится краеугольным камнем успешного использования ИИ в профессиональной среде. Фреймворк COSTAR (Context, Objective, Style, Tone, Audience, Response) предлагает системный и детализированный подход, позволяющий формировать запросы со строгой логической структурой и практической направленностью в отношении практически любой предметной области.

Как работает фреймворк COSTAR

С технической точки зрения рекомендуется:

  • Выделять слова хештегами, например: # CONTEXT #, # STYLE# и проч.
  • Описание параметров начинать с новой строки.

Рассмотрим каждый параметр фреймфорка более подробно.

С – Сontext (контекст): создание рамок для работы

Контекст, или определение исходной информации и условий задачи, является основополагающим этапом. ИИ, несмотря на свою мощь, требует четко заданных границ для ответа на задаваемый запрос. Чем более общим будет  описание на входе, тем менее качественным получится результат. Контекст служит подобием «интеллектуальной карты», направляющей ИИ по пути наиболее релевантного поиска.

O – Objective (цель): уточнение желаемого результата

Определение цели фактически представляет собой искусство ясно формулировать желаемый результат. Когда цель задана четко, ИИ фокусирует свои вычислительные ресурсы на создании решения, полностью соответствующего ожиданиям от запроса. Например, формулировка: «Разработать дорожную карту для цифровой трансформации предприятия», — задает конкретный вектор поиска, исключая излишние или неуместные детали.

S – Style (стиль): отражение профессионального контекста

Стиль запроса не только формирует восприятие, но и влияет на структуру ответа. В академической или деловой среде предпочитают сдержанный, формальный стиль, который соответствует стандартам профессиональной коммуникации. Для публичных выступлений и презентаций на широкую аудиторию лучше придерживаться неформального стиля. Таким образом, данный параметр задает предпочтения по стилю взаимодействия, обеспечивает согласованность содержания запроса и формы ответа на нее.

T – Tone (тон): управление эмоциональной составляющей

Этот параметр определяет эмоциональный окрас ответа. Например, в бизнесе и науке часто используется нейтральный тон, подчеркивающий объективность и беспристрастность. Есть определенные ситуациях, в которых необходимо усилить мотивирующий или вдохновляющий эффект подачи материала. Так, запрос, ориентированный на поддержание командного духа, будет оформлен иначе, чем аналитический для формирования финансового отчета.

А – Audience (аудитория): персонализация адресата

Признание важности предпочтений целевой аудитории отражает зрелость подхода промпт-инженера. Для профессионалов и управленцев старшего возраста ключевыми характеристиками ответа являются глубина анализа, структура и практическая применимость выводов. Это предполагает использование языка, который сочетает элегантность текста с его точностью, избегая излишне упрощенных формулировок или чрезмерной наукообразности. Для более молодой аудитории могут потребоваться более вовлекающие лингвистические конструкции.

R – Response (ответ): формирование идеального результата

На финальном этапе фреймворк фокусируется на содержании ответа. Здесь каждая деталь имеет значение: структура, логика изложения и точность формулировок, — они должны быть четко продуманы. Результатом глубокой проработки данного параметра будут ответы, которые не только соответствуют ожиданиям, но могут и превосходить их. 

COSTAR — это не просто фреймворк, а философия взаимодействия с интеллектуальными технологиями, которая отражает стремление к максимальной эффективности и более полному использованию потенциала генеративных сетей.

Пример использования фреймворка COSTAR

Семья хочет организовать отпуск, чтобы провести время вместе, отдохнуть и узнать что-то новое. Сформулируем запрос:

  • Контекст. Семья из четырех человек: двое взрослых и двое детей 8 и 12 лет. Отпуск планируется на одну неделю летом, бюджет ограничен. Все любят природу, но хотят комфорта.
  • Цель. Организовать путешествие, которое будет интересным и расслабляющим для всех членов семьи, с учетом бюджета и возрастных предпочтений детей.
  • Стиль. Простой и дружелюбный стиль — нужно обсудить варианты, чтобы все члены семьи чувствовали себя вовлеченными в процесс.
  • Тон. Позитивный и вдохновляющий, чтобы мотивировать семью радоваться предстоящему отпуску.
  • Аудитория. Два взрослых (родители), которым важны удобство и безопасность, и дети, которым нужны развлечения и новые впечатления.
  • Ответ. План путешествия включает поездку в ближайший природный заповедник с проживанием в уютном коттедже. Днем запланированы прогулки, велосипедные поездки и посещение местных достопримечательностей. Вечером — семейные игры и пикники. Общий бюджет не превышает запланированной суммы, а отдых обещает быть комфортным и интересным для всех.

Ответ ChatGPT: итоговый план семейного отпуска

Место отдыха: природный заповедник «Зеленые холмы», три часа на машине от дома.

Проживание: уютный коттедж с двумя спальнями, кухней и террасой. Стоимость аренды — 50 тыс. рублей за неделю.

Дневная программа:

  • Прогулки по лесным тропам с посещением смотровых площадок.
  • Аренда велосипедов для всей семьи, 1 тыс. рублей в день.
  • Экскурсия по местным достопримечательностям, включая старинную мельницу и мини-зоопарк.

Вечерняя программа:

  • Семейные пикники с приготовлением блюд на гриле.
  • Настольные игры и просмотр семейных фильмов.

Бюджет: Общая стоимость отпуска — 75 тыс. рублей, включая проживание, питание, транспорт и развлечения.

Читайте также:

Расскажите коллегам:
Комментарии
Консультант, Москва

Алексей Аникин пишет:Только простите мое занудство, вот кто-то прямо так берет и ОБЩАЕТСЯ с chatGPT?

Я вот прямо так и общаюсь с deepseek. И ничего, жив пока. Но "пластмассовый привкус" остается - ну прямо облагороженный поисковик, как и все они. Восторги пройдут, все вернется на круга свои. Конечно, калькулятор быстрее перемножает девятизначные числа, чем человек усредненный. "Какой умный калькулятор" - глубокомысленно может заключить некий персонаж. Не надоело все это мусолить? Ну проиграл (?)  человек экскаватору в копании грунта и что, трагедия? 

Большие "коробки ИИ"  (их аналоги - монолиты в софте, кто понимает; кто не в курсе - обратитесь к ИИ - там пояснят популярно)- это уже вчерашний день, на мой взгляд. Это хорошие справочники, шпаргалки для троечников и имитаторов, что дает им возможность ощущений "я тоже типа умный...". Ну и пусть тешатся. Для промышленного ИИ все эти монстры мало пригодны. Будущее - за распределенными и локальными системами на производстве непосредственно. За вариантами роевых систем по отраслям, блокам процессов. Ну и т.д. Но интереснее пока фастфуд обсуждать, наверное или...психологию, психотерапию, тарологию...

 

Аналитик, Москва
Сергей Средний пишет:
Алексей Аникин пишет:
Только простите мое занудство, вот кто-то прямо так берет и ОБЩАЕТСЯ с chatGPT?

Да. Я не встречал собеседников интересней.
Он на порядок умнее всех вместе взятых здесь авторов. Особенно Grok.

Ну, может быть кроме Антона Соболева, Михаила Лурье и Алексея Уланова, ну и там еще двух-трёх.
Уж простите, если что, никого не хотел обидеть.

Просто для вас какие-то элементарные знания из поисковых запросов являются каждый раз открытием. Упаси боже получить вашу положительную оценку. 

Генеральный директор, Москва
Антон Соболев пишет:
17 февраля вышел стабильный релиз Grok-3 xAI команды Маска. Пока это больше похоже на бета-версию, и даже регистрация оказывается достаточным "вызовом" по причине сбоев в проверке валидации (у меня сработала с 7 раза), но результат того стоит.

Будьте внимательны и осторожны.

Исследователи обнаружили серьёзные уязвимости в новой языковой модели Grok 3 от компании Илона Маска. Специалисты компании Adversa AI провели тестирование и выявили, что систему можно легко обойти с помощью простых методов взлома, получив доступ к потенциально опасной информации.

По словам генерального директора и соучредителя Adversa AI Алекса Полякова, модель не только подвержена простым методам обхода ограничений, но и содержит серьёзную уязвимость, позволяющую получить доступ к системным настройкам. Это открывает злоумышленникам возможность понять принципы работы модели и делает её ещё более уязвимой для будущих атак.

https://www.ixbt.com/news/2025/02/22/jeksperty-vyjavili-kriticheskie-ujazvimosti-v-novoj-modeli-grok-3-ot-kompanii-ilona-maska.html

Управляющий партнер, Санкт-Петербург
Евгений Равич пишет:
получив доступ к потенциально опасной информации

Вот на самом интересном месте оборвалась фраза... Опасной для пользователя (слив персональной информации и диалогов) или для модели (диверсия в настройках)? Пока выглядит как второе, но тогда это починить можно достаточно просто.

Сегодня в одном из моих обсуждений облигационных эмиссий Grok мне выдал: "and they promise to pay利息 you back with interest", - что было достаточно необычно. Китайские иероглифы как раз и означают "проценты", но обнаружить их в английском диалоге мне показалось странным. Даже подумал сперва, что DeepSeek консультировал, но теперь, возможно, и версию взлома можно рассмотреть.

Генеральный директор, Москва
Антон Соболев пишет:
Евгений Равич пишет:
получив доступ к потенциально опасной информации

Вот на самом интересном месте оборвалась фраза... Опасной для пользователя (слив персональной информации и диалогов) или для модели (диверсия в настройках)? Пока выглядит как второе, но тогда это починить можно достаточно просто.

Сегодня в одном из моих обсуждений облигационных эмиссий Grok мне выдал: "and they promise to pay利息 you back with interest", - что было достаточно необычно. Китайские иероглифы как раз и означают "проценты", но обнаружить их в английском диалоге мне показалось странным. Даже подумал сперва, что DeepSeek консультировал, но теперь, возможно, и версию взлома можно рассмотреть.

Мне еще меньше понравилось вот это: 

Эксперты предупреждают: по мере того как языковые модели начинают принимать решения в реальном мире, каждая уязвимость превращается в потенциальную угрозу безопасности. Это особенно актуально в свете недавнего запуска OpenAI функции Operator, позволяющей ИИ выполнять задачи в интернете от имени пользователя.

И еще немного на ту же тему. Угроз немало и будет только больше. Ощущение, что пока играть с такими сервисами лучше в песочнице.

Управляющий партнер, Санкт-Петербург
Евгений Равич пишет:
Антон Соболев пишет:
Евгений Равич пишет:
получив доступ к потенциально опасной информации

Вот на самом интересном месте оборвалась фраза... Опасной для пользователя (слив персональной информации и диалогов) или для модели (диверсия в настройках)? Пока выглядит как второе, но тогда это починить можно достаточно просто.

Сегодня в одном из моих обсуждений облигационных эмиссий Grok мне выдал: "and they promise to pay利息 you back with interest", - что было достаточно необычно. Китайские иероглифы как раз и означают "проценты", но обнаружить их в английском диалоге мне показалось странным. Даже подумал сперва, что DeepSeek консультировал, но теперь, возможно, и версию взлома можно рассмотреть.

Мне еще меньше понравилось вот это: 

Эксперты предупреждают: по мере того как языковые модели начинают принимать решения в реальном мире, каждая уязвимость превращается в потенциальную угрозу безопасности. Это особенно актуально в свете недавнего запуска OpenAI функции Operator, позволяющей ИИ выполнять задачи в интернете от имени пользователя.

Согласен. Делегировать ИИ задачи, особенно юридически связывающие, выглядит очень авантюрным. Для себя даже не подобрал то, что мог бы доверить ИИ "вслепую".

И еще немного на ту же тему. Угроз немало и будет только больше. Ощущение, что пока играть с такими сервисами лучше в песочнице.

Да, угрозы будут нарастать. Вопрос ценности таких сервисов в реальной жизни. Одно дело - корпорация в рамках in-house разработки принимает с помощью ИИ решения по платежкам, которые упрощают жизнь бухгалтерии, и совсем другое - обычное физлицо делится биометрией "с интернетом" для банковских переводов. Такой сегмент, наверное, больше будет для энтузиастов самой технологии, которые изначально готовы принимать сопутствующий риск.

Генеральный директор, Москва
Антон Соболев пишет:
Евгений Равич пишет:
Антон Соболев пишет:
Евгений Равич пишет:
получив доступ к потенциально опасной информации

Вот на самом интересном месте оборвалась фраза... Опасной для пользователя (слив персональной информации и диалогов) или для модели (диверсия в настройках)? Пока выглядит как второе, но тогда это починить можно достаточно просто.

Сегодня в одном из моих обсуждений облигационных эмиссий Grok мне выдал: "and they promise to pay利息 you back with interest", - что было достаточно необычно. Китайские иероглифы как раз и означают "проценты", но обнаружить их в английском диалоге мне показалось странным. Даже подумал сперва, что DeepSeek консультировал, но теперь, возможно, и версию взлома можно рассмотреть.

Мне еще меньше понравилось вот это: 

Эксперты предупреждают: по мере того как языковые модели начинают принимать решения в реальном мире, каждая уязвимость превращается в потенциальную угрозу безопасности. Это особенно актуально в свете недавнего запуска OpenAI функции Operator, позволяющей ИИ выполнять задачи в интернете от имени пользователя.

Согласен. Делегировать ИИ задачи, особенно юридически связывающие, выглядит очень авантюрным. Для себя даже не подобрал то, что мог бы доверить ИИ "вслепую".

И еще немного на ту же тему. Угроз немало и будет только больше. Ощущение, что пока играть с такими сервисами лучше в песочнице.

Да, угрозы будут нарастать. Вопрос ценности таких сервисов в реальной жизни. Одно дело - корпорация в рамках in-house разработки принимает с помощью ИИ решения по платежкам, которые упрощают жизнь бухгалтерии, и совсем другое - обычное физлицо делится биометрией "с интернетом" для банковских переводов. Такой сегмент, наверное, больше будет для энтузиастов самой технологии, которые изначально готовы принимать сопутствующий риск.

Ценность в реальной жизни - та же, что и для любых других корпоративных приложений и сервисов. Никаких отличий не видно. Их нельзя внедрять, игнорируя требования IT безопасности во всей их полноте - это вовсе не игрушка.

А функционал приложений обсуждается отдельно и может меняться со временем. Знать бы их автора.

Другое дело, что монстробразные промышленные конфигурации маркетмейкеров AI, предлагающих на рынке сервисы такого рода, обычной компании недоступны - держать аналоги у себя слишком дорого и сложно. Пользоваться ими можно - если действительно нужно, но за высокой и прочной стеной. Варианты всегда есть.

Физлица, боюсь, первые и самые легкие жертвы мошенников, но у них и проблемы другие.

Консультант, Москва

Ежедневное общение с ИИ позволяет сделать следующие предварительные заключения:

1. Отдельные задачи (начального уровня) учета и финансовой аналитики - вполне решаемы (по данным о затратах и доходах, например,  вполне может дать некий анализ и прогноз).

2. Неплохо выполняет задания (задача - текстом) по приведению данных в заданную форму. Очень даже хорошо.

3. По программированию - тоже вполне себе. IDE JetBrains имеет встроенный ИИ помощник. А Google предоставила разработчикам возможность бесплатно использовать своего помощника по программированию на основе искусственного интеллекта — Gemini Code Assist. Работает с Visual Studio Code и IDE JetBrains. Этот инструмент может дополнять строки кода непосредственно в среде разработки, генерировать код с нуля или объяснять код через интерфейс чат-бота.

4. Все равно, т.е. ИИ в базе своей "аналоговый" - нужен контроль. Также стоит обратить внимание на стабильность конкретной системы ИИ - ее ведь периодически переобучают, возможны "галлюцинации".

5. Владение ИИ + предметной областью - скоро станет как требование 30-летней давности для офисных работников по владению предметной областью + Excel, Word.

В общем, никакого апокалипсиса. Или Excel принимал стратегические решения? Хотя, конечно, он замешан в этом...но ему не удалось захватить власть над миром. Пока.

Генеральный директор, Москва
Эрнст Мальцев пишет:
4. Все равно, т.е. ИИ в базе своей "аналоговый" - нужен контроль. Также стоит обратить внимание на стабильность конкретной системы ИИ - ее ведь периодически переобучают, возможны "галлюцинации".

Уже есть интересный режим "А если подумать?".

Хотя не знаю, как это тестировать с реальной пользой для себя.

 

Консультант, Москва
Евгений Равич пишет:
Хотя не знаю, как это тестировать с реальной пользой для себя.

Можно поробовать тестировать как разные сети решают поставленную задачу - например на LLM Arena. (доступно 45 сетей, но выбор двух конкретных - за платформой). Плата - фактическое участие в разметке датасетов. 

Сейчас период становления рынка сетей, их много и многое о них неясно. Наверное, со временем будет десятка два, признанных стандартными в разных предметных областях.

 

 
1 3
Оставлять комментарии могут только зарегистрированные пользователи
Статью прочитали
Обсуждение статей
Все комментарии
Дискуссии
Все дискуссии
HR-новости
Спрос на специалистов по анализу данных вырос в 30 раз за 10 лет

Самыми быстрорастущими направлениеми стали инфраструктура данных и DevOps, анализ данных, инженерия данных, BigData и ML. 

Названы сферы, где проще всего трудоустроиться пенсионерам

Треть опрошенных отметили, что работодатели стали охотнее приглашать на собеседования кандидатов пенсионного возраста.

SuperJob ввел аукционную модель найма сотрудников

Теперь работодатели смогут открыто торговаться за соискателя.

82% российских компаний увеличат расходы на соцпакет в 2025 году

Среди приоритетных элементов – обучение сотрудников, психологическая поддержка и консультации, ДМС и программы питания.