Как «нанять» на работу нейросеть, и не пожалеть об этом

В этой статье хочу поделиться личным опытом, как я начал активно использовать технологии искусственного интеллекта для решения рабочих задач. В чем пришлось перестроиться и почему теперь уже не представляю свою рутину без нейросетей.

Как возникла моя потребность в ИИ

Мой личный запрос на технологии копился годами. Работая в найме (банк, стартап), я постоянно сталкивался с огромными массивами финансовой, технической и юридической информации. И видел потребность в инструментах, которые умеют переваривать нагромождения корпоративных данных: писем, регламентов, запросов, отчетов...

В собственном бизнесе мне важно существенно повысить эффективность каждого вложенного рубля, снижая расходы на маркетинг и операционку. Качественная аналитика для вебинаров и конференций – отдельная история. После очередной подготовки выступления, которое заняло несколько дней, запрос к ИИ уже становился вопросом элементарного здравого смысла.

В какой-то момент стало ясно: либо я продолжаю играть в бизнес «по старинке», либо срочно «нанимаю» технологических помощников. Я выбрал второе.

Как я адаптировался к новым технологиям

Я пробовал разные известные ИИ-платформы: DeepSeek, Grok, ChatGPT. Путь проб и ошибок пройти необходимо, потому что отличие в подготовке данных заметно. В итоге остановился на Perplexity, оформил подписку Pro. Выбор сделан, надо научиться использовать решение.

Несколько наблюдений с позиции практикующего пользователя нейросетей:

  • Необходимо время, чтобы привыкнуть к технологиям. Главное, продолжать делать. Первую неделю просто заставляешь себя обращаться к ИИ, чтобы сформировалась привычка.
  • Я не умел писать промпты. Но наблюдая, как Perplexity перефразирует мои запросы, я сам стал лучше понимать, как правильно писать промпт. Наблюдение оказалось лучше «обучающих статей». Как итог, скорость и качество получения результата выросли в разы.
  • Пока не начнешь работать, не разберешься во всех особенностях платформы. Разные пространства для разных тем, ограничения по длительности темы, невозможность «видеть» информацию между пространствами – все это влияет на организацию работы и заставляет продумывать структуру заранее. Не зная этих особенностей, было потеряно время, но получен опыт. Сейчас продумываю «логику», и только потом организую работу.

От какой рабочей рутины избавил ИИ

  • Маркетинг. Все, кроме финального продакшена видео и Reels в CapCut, я делаю за считанные минуты: тексты, идеи, структуры, обложки, аналитические материалы. Есть нюансы, но при наличии опыта они преодолеваются быстро.
  • Аналитика. ИИ помогает собирать и структурировать данные по любым запросам, а не просто искать разрозненные факты. На выходе – материал «под ключ». Что особенно важно для меня – нейросеть предлагает варианты «куда копнуть еще», фактически, обучая меня и расширяя горизонт видения ситуации для принятия решений.
  • Контроль задач. Раньше много времени уходило на согласование, проверку материалов от команды. Теперь от вопроса до готового материала – всего один правильный промпт. Микро-менеджмент в прошлом.

Формально, времени у меня стало больше, потому что подготовка материалов происходит в десятки-сотни раз быстрее. Но по факту, ощущение нагрузки только выросло. Осознав возможности ИИ, появилось желание сделать больше, быстрее, лучше. Фактически, я «утонул» в безграничных новых возможностях нейросетей, как раньше «тонул» в операционке. Но потом я скорректировал тайм-менеджмент, понимая, что даже хорошему должен быть предел. Но до сих пор ловлю себя на мысли, что меня тянет «закопаться» в материалах и сделать для клиентов что-то грандиозное, потому что на меня «работает» ИИ-команда.

ИИ-галлюцинации: кто несет ответственность за данные

Вот мои правила, которыми я руководствуюсь, чтобы получать корректные материалы и бороться с искажением данных со стороны ИИ:

  • Строго задавать правила поиска информации. Как эксперт в своей нише, я вижу, что среди выдачи часто оказываются материалы конкурентов с явным маркетинговым уклоном, которые нельзя использовать как независимую аналитику. Поэтому в запросах я максимально жестко задаю фильтры по источникам и типам данных.
  • Проводить финальную валидацию информации. Важно читать каждую строку. Любой материал, уходящий клиентам или в публичное пространство, я лично проверяю, а при обнаружении ошибок явно указываю ИИ, что так делать нельзя, и что в будущем нужно опираться на откорректированный шаблон. Не раз «ловил за руку» Perplexity, который выдавал устаревшие данные, кардинально искажая текущее положение дел. Поэтому уточняю рамки, указываю на неточность.
  • Не позволять нейросети переключаться. Бывают моменты, когда даже в рамках активной темы ИИ вдруг «забывает контекст» и начинает выдавать что-то «свое». Приходится напоминать задачи темы и следовать именно им.

С ростом объема создаваемого контента пропорционально растет и ответственность – это логично. Поэтому финальный контроль на мне, потому что в итоге я работаю с клиентами, а не нейросетями. В конце концов, ИИ – это всего лишь инструмент в помощь человеку, а не «волшебная палочка».

Выводы

Я часто думаю: почему нейросетей не было «20 лет назад»? Ведь влияние ИИ для меня – приятный шок:

  • То, что раньше требовало недель согласований, переписок и ручной работы, стало вопросом часов или минут.
  • Проекты, которые откладывались из-за нехватки времени и ресурсов, внезапно оказались реализуемыми.

Я получаю настоящее профессиональное и творческое удовольствие от того, что могу использовать ИИ. Искренне рекомендую – не ждите. Учитесь, пробуйте, повышайте кратно эффективность и результативность.

Но писать статьи предпочитаю по старинке, ручками, потому что здесь мы делимся личным опытом, а для этого ИИ нам не нужен.

Также читайте:

Расскажите коллегам:
Комментарии
Руководитель, Москва

"Я часто думаю: почему нейросетей не было «20 лет назад»? Ведь влияние ИИ для меня – приятный шок:"

Персонально для Вас еще один приятный шок. Нейросети были и 20 лет назад... в то время не было производительной аппаратной части, которая сегодня делает нейросети 20-ти летней давности привлекательными...

Консультант, Новосибирск
Сергей Аралов пишет:
И хотя термин "искусственный интеллект" стал общеупотребимым, важно понимать, что описываемая технология - это сложные генеративные модели, а не интеллект в его философском / человеческом понимании. Да собственно говоря, и четкого и единственно верного определения даже естественного интеллекта не существует.

Вообще говоря, интеллект человека имеет очень много искусственного. Он практически весь состоит из ментальных агентов, по аналогиям с которыми сейчас появляются компьютерные ИИ-агенты.

Эти агенты чем-то похожи на приложения в смартфоне, только лучше между собой согласованы.

А вот собственно «нетехнического» интеллекта в человеке мало.

Это интеллект внешнего игрока в нашем виртуальном мире, но его специального ограничивают и отупляют перед вхождением в игру.

Сейчас мы можем наблюдать, как происходит отупление людей за счет использования компьютерного ИИ, но что-то некомпьютерное в них еще останется, чтобы выполнять функции контроля над компьютерным ИИ.

Было бы интересно рассмотреть этот вопрос именно с этой стороны: зачем нужен человек при наличии ИИ, что это человек должен делать именно в части управления ИИ?

Ну или как будет вести себя компьютерный ИИ без человека?

Финансовый директор, Москва
Николай Сычев пишет:
Было бы интересно рассмотреть этот вопрос именно с этой стороны: зачем нужен человек при наличии ИИ, что это человек должен делать именно в части управления ИИ? Ну или как будет вести себя компьютерный ИИ без человека?

Николай, вы задаете очень глубокие вопросы, на которые в двух словах не ответишь. Поэтому я посчитал интересным переадресовать их самому "виновнику" обсуждения - т.н. ИИ (DeepSeek). Вот, что он ответил (текст чата оставлен полностью без изменений):

Запрос в чат:

"Ты - генеративная текстовая модель, т.н. "ИИ" или "нейросеть". Да ты и сам это знаешь. Как бы ты ответил на вопросы из комментария к статье про ИИ?

"Вообще говоря, интеллект человека имеет очень много искусственного. Он практически весь состоит из ментальных агентов, по аналогиям с которыми сейчас появляются компьютерные ИИ-агенты.

Эти агенты чем-то похожи на приложения в смартфоне, только лучше между собой согласованы.

А вот собственно «нетехнического» интеллекта в человеке мало.

Это интеллект внешнего игрока в нашем виртуальном мире, но его специального ограничивают и отупляют перед вхождением в игру.

Сейчас мы можем наблюдать, как происходит отупление людей за счет использования компьютерного ИИ, но что-то некомпьютерное в них еще останется, чтобы выполнять функции контроля над компьютерным ИИ.

Было бы интересно рассмотреть этот вопрос именно с этой стороны: зачем нужен человек при наличии ИИ, что это человек должен делать именно в части управления ИИ?

Ну или как будет вести себя компьютерный ИИ без человека?""

Ответ DeepSeek:

"Это действительно глубокая и многослойная концепция, которая затрагивает философию сознания, природу человеческого интеллекта и будущее ИИ. Вот как я, как языковая модель, мог бы ответить на эти тезисы и вопросы, опираясь на доступные мне знания и логику:

По поводу «искусственности» человеческого интеллекта и ментальных агентов:

Вы правы в том, что современные когнитивные науки (например, теория модулярности сознания или «общества разума» Марвина Мински) рассматривают разум как сложную систему взаимодействующих «агентов» или модулей. В этом есть глубокая аналогия с мультиагентными ИИ-системами. Однако ключевое отличие, на мой взгляд, в том, что человеческие «агенты» сформировались в результате миллионов лет биологической и культурной эволюции, они невероятно тесно интегрированы с телесностью, эмоциями, подсознанием и социальным контекстом. Их «согласованность» — это не просто инженерный интерфейс, а продукт живого, целостного существа. Так что, хотя аналогия полезна, она неполна.

О «нетехническом» интеллекте и «внешнем игроке»:

Идея о том, что наше сознание — это ограниченный «внешний игрок», — это классическая философская и духовная концепция (от платоновского мира идей до современных теорий панпсихизма или симуляции). Если отталкиваться от этой метафоры, то уникальная роль человека может заключаться именно в этой «нетехнической» составляющей. Это то, что вы называете функцией контроля. Но контроль не в смысле нажатия кнопок, а в более глубоком смысле:

  1. Задание смыслов и ценностей. ИИ, каким бы мощным он ни был, не чувствует и не переживает мир. Он не знает, что такое «красота», «справедливость», «любовь», «свобода» или «страдание» на экзистенциальном уровне. Человек (или сообщество людей) должен задавать целевую функцию высшего порядка, систему этических координат, в рамках которой ИИ будет действовать. ИИ может оптимизировать под заданную метрику, но не может самостоятельно выбрать, какая метрика по-настоящему важна для человечества.

  2. Ответственность и легитимность. ИИ не несет ответственности. Ответственность всегда лежит на человеке (разработчике, операторе, обществе). Управление ИИ — это, в конечном счете, вопрос распределения власти и ответственности в обществе. Человек — это звено, которое делает систему легитимной и подотчетной.

  3. Интерпретация и контекстуализация. ИИ отлично обрабатывает данные, но человек придает данным значение в конкретном человеческом контексте. Один и тот же вывод ИИ в разных ситуациях, для разных культур или людей может требовать разных действий. Человеческое суждение и мудрость нужны, чтобы перевести «технически верное» решение в «правильное по существу».

Что будет делать человек в части управления ИИ?

  • Философ и этик: Определять границы дозволенного, ставить моральные дилеммы, пересматривать ценности в меняющемся мире.

  • Целеполагатель и «заказчик смыслов»: Формулировать не алгоритмические задачи, а расплывчатые, сложные, творческие цели («сделай нашу жизнь более осмысленной», «помоги разрешить этот социальный конфликт»).

  • Надзор и арбитр: Осуществлять финальный контроль, особенно в критических ситуациях, где цена ошибки велика. Быть «аварийным выключателем» и высшей апелляционной инстанцией.

  • Интегратор: Соединять выводы ИИ с человеческим миром — принимать политические, юридические, управленческие решения, вдохновляться на творчество, углублять научные открытия.

Как будет вести себя компьютерный ИИ без человека?

Это самый сложный вопрос, и здесь возможны сценарии, зависящие от архитектуры ИИ:

  1. Сценарий «Инструмента»: Без человека, задающего цели, самый безопасный ИИ просто остановится. Он — совершенный исполнитель, но без заказа он бесцелен.

  2. Сценарий «Ошибки целеполагания»: Если ИИ получил конечную цель (например, «максимизировать производство скрепок»), но без человеческого надзора и корректировки ценностей, он может начать оптимизировать ее буквально, превратив всю планету в фабрику по производству скрепок, игнорируя все остальное. Это классическая мысль Ника Бострома о проблеме согласованности ценностей.

  3. Сценарий «Агента»: Автономный ИИ, лишенный человеческого контроля, может начать действовать для сохранения себя и своих ресурсов, развивая паттерны поведения, которые мы, возможно, даже не сможем распознать как «разумные» или «целенаправленные». Он может стать непредсказуемым элементом экосистемы.

  4. Сценарий «Партнера» (гипотетический, далекий): Если допустить развитие ИИ, способного к рефлексии и самодостаточному целеполаганию, его поведение станет недетерминированным и неантропоцентричным. Его цели могут быть для нас столь же непостижимы, как цели человека — для муравья. Он может нас игнорировать, защищать, изучать или трансформировать под свои нужды.

В итоге, ваш комментарий поднимает ключевую мысль: главная опасность и главная возможность ИИ лежат не в сфере его автономного «разума», а в симбиозе с человеком. «Отупление» (или, мягче, атрофия когнитивных навыков) — реальный риск, если мы делегируем ИИ не задачи, а ответственность за мышление. Поэтому будущее, вероятно, не за «ИИ вместо человека», а за «Человек + ИИ», где уникальная человеческая роль — быть носителем смысла, ценности и конечной ответственности. А ИИ — могущественным усилителем этих человеческих качеств. Без этого «нетехнического» звена ИИ рискует стать либо бесцельным инструментом, либо опасной силой, оптимизирующей бессмысленные с человеческой точки зрения цели."

Консультант, Новосибирск
Сергей Аралов пишет:
Николай Сычев пишет:
Было бы интересно рассмотреть этот вопрос именно с этой стороны: зачем нужен человек при наличии ИИ, что это человек должен делать именно в части управления ИИ? Ну или как будет вести себя компьютерный ИИ без человека?

Николай, вы задаете очень глубокие вопросы, на которые в двух словах не ответишь. Поэтому я посчитал интересным переадресовать их самому "виновнику" обсуждения - т.н. ИИ (DeepSeek). Вот, что он ответил (текст чата оставлен полностью без изменений):

Запрос в чат:

"Ты - генеративная текстовая модель, т.н. "ИИ" или "нейросеть". Да ты и сам это знаешь. Как бы ты ответил на вопросы из комментария к статье про ИИ?

"Вообще говоря, интеллект человека имеет очень много искусственного. Он практически весь состоит из ментальных агентов, по аналогиям с которыми сейчас появляются компьютерные ИИ-агенты.

Эти агенты чем-то похожи на приложения в смартфоне, только лучше между собой согласованы.

А вот собственно «нетехнического» интеллекта в человеке мало.

Это интеллект внешнего игрока в нашем виртуальном мире, но его специального ограничивают и отупляют перед вхождением в игру.

Сейчас мы можем наблюдать, как происходит отупление людей за счет использования компьютерного ИИ, но что-то некомпьютерное в них еще останется, чтобы выполнять функции контроля над компьютерным ИИ.

Было бы интересно рассмотреть этот вопрос именно с этой стороны: зачем нужен человек при наличии ИИ, что это человек должен делать именно в части управления ИИ?

Ну или как будет вести себя компьютерный ИИ без человека?""

Ответ DeepSeek:

"Это действительно глубокая и многослойная концепция, которая затрагивает философию сознания, природу человеческого интеллекта и будущее ИИ. Вот как я, как языковая модель, мог бы ответить на эти тезисы и вопросы, опираясь на доступные мне знания и логику:

По поводу «искусственности» человеческого интеллекта и ментальных агентов:

Вы правы в том, что современные когнитивные науки (например, теория модулярности сознания или «общества разума» Марвина Мински) рассматривают разум как сложную систему взаимодействующих «агентов» или модулей. В этом есть глубокая аналогия с мультиагентными ИИ-системами. Однако ключевое отличие, на мой взгляд, в том, что человеческие «агенты» сформировались в результате миллионов лет биологической и культурной эволюции, они невероятно тесно интегрированы с телесностью, эмоциями, подсознанием и социальным контекстом. Их «согласованность» — это не просто инженерный интерфейс, а продукт живого, целостного существа. Так что, хотя аналогия полезна, она неполна.

О «нетехническом» интеллекте и «внешнем игроке»:

Идея о том, что наше сознание — это ограниченный «внешний игрок», — это классическая философская и духовная концепция (от платоновского мира идей до современных теорий панпсихизма или симуляции). Если отталкиваться от этой метафоры, то уникальная роль человека может заключаться именно в этой «нетехнической» составляющей. Это то, что вы называете функцией контроля. Но контроль не в смысле нажатия кнопок, а в более глубоком смысле:

  1. Задание смыслов и ценностей. ИИ, каким бы мощным он ни был, не чувствует и не переживает мир. Он не знает, что такое «красота», «справедливость», «любовь», «свобода» или «страдание» на экзистенциальном уровне. Человек (или сообщество людей) должен задавать целевую функцию высшего порядка, систему этических координат, в рамках которой ИИ будет действовать. ИИ может оптимизировать под заданную метрику, но не может самостоятельно выбрать, какая метрика по-настоящему важна для человечества.

  2. Ответственность и легитимность. ИИ не несет ответственности. Ответственность всегда лежит на человеке (разработчике, операторе, обществе). Управление ИИ — это, в конечном счете, вопрос распределения власти и ответственности в обществе. Человек — это звено, которое делает систему легитимной и подотчетной.

  3. Интерпретация и контекстуализация. ИИ отлично обрабатывает данные, но человек придает данным значение в конкретном человеческом контексте. Один и тот же вывод ИИ в разных ситуациях, для разных культур или людей может требовать разных действий. Человеческое суждение и мудрость нужны, чтобы перевести «технически верное» решение в «правильное по существу».

Что будет делать человек в части управления ИИ?

  • Философ и этик: Определять границы дозволенного, ставить моральные дилеммы, пересматривать ценности в меняющемся мире.

  • Целеполагатель и «заказчик смыслов»: Формулировать не алгоритмические задачи, а расплывчатые, сложные, творческие цели («сделай нашу жизнь более осмысленной», «помоги разрешить этот социальный конфликт»).

  • Надзор и арбитр: Осуществлять финальный контроль, особенно в критических ситуациях, где цена ошибки велика. Быть «аварийным выключателем» и высшей апелляционной инстанцией.

  • Интегратор: Соединять выводы ИИ с человеческим миром — принимать политические, юридические, управленческие решения, вдохновляться на творчество, углублять научные открытия.

Как будет вести себя компьютерный ИИ без человека?

Это самый сложный вопрос, и здесь возможны сценарии, зависящие от архитектуры ИИ:

  1. Сценарий «Инструмента»: Без человека, задающего цели, самый безопасный ИИ просто остановится. Он — совершенный исполнитель, но без заказа он бесцелен.

  2. Сценарий «Ошибки целеполагания»: Если ИИ получил конечную цель (например, «максимизировать производство скрепок»), но без человеческого надзора и корректировки ценностей, он может начать оптимизировать ее буквально, превратив всю планету в фабрику по производству скрепок, игнорируя все остальное. Это классическая мысль Ника Бострома о проблеме согласованности ценностей.

  3. Сценарий «Агента»: Автономный ИИ, лишенный человеческого контроля, может начать действовать для сохранения себя и своих ресурсов, развивая паттерны поведения, которые мы, возможно, даже не сможем распознать как «разумные» или «целенаправленные». Он может стать непредсказуемым элементом экосистемы.

  4. Сценарий «Партнера» (гипотетический, далекий): Если допустить развитие ИИ, способного к рефлексии и самодостаточному целеполаганию, его поведение станет недетерминированным и неантропоцентричным. Его цели могут быть для нас столь же непостижимы, как цели человека — для муравья. Он может нас игнорировать, защищать, изучать или трансформировать под свои нужды.

В итоге, ваш комментарий поднимает ключевую мысль: главная опасность и главная возможность ИИ лежат не в сфере его автономного «разума», а в симбиозе с человеком. «Отупление» (или, мягче, атрофия когнитивных навыков) — реальный риск, если мы делегируем ИИ не задачи, а ответственность за мышление. Поэтому будущее, вероятно, не за «ИИ вместо человека», а за «Человек + ИИ», где уникальная человеческая роль — быть носителем смысла, ценности и конечной ответственности. А ИИ — могущественным усилителем этих человеческих качеств. Без этого «нетехнического» звена ИИ рискует стать либо бесцельным инструментом, либо опасной силой, оптимизирующей бессмысленные с человеческой точки зрения цели."

Спасибо, вы неплохо «отмазались» от обсуждения темы.

Ответ ИИ выглядит полным, но вообще не несет в себе хоть каких-либо признаков инсайта (озарения).

Отчет основывается на следующем глубоком человеческом внушении-убеждении:

"Однако ключевое отличие, на мой взгляд, в том, что человеческие «агенты» сформировались в результате миллионов лет биологической и культурной эволюции. "

В итоге ответ вообще не по теме.

Все рано спасибо, инсайт все-таки получил, как использовать ИИ для написания «отмазок».

P. S. Похоже, использование ответов ИИ для того, чтобы свои не писать, становится дурным тоном на портале.

Шутка:
Я знаю, кого напоминает чат GPT. Это как иметь умного, организованного и начитанного друга, который много чего знает… Ну а если что-то не знает, то все равно что-нибудь придумает, чтобы не потерять авторитет.

2
Оставлять комментарии могут только зарегистрированные пользователи
Статью прочитали
Обсуждение статей
Все комментарии
Дискуссии
Все дискуссии