В этой статье хочу поделиться личным опытом, как я начал активно использовать технологии искусственного интеллекта для решения рабочих задач. В чем пришлось перестроиться и почему теперь уже не представляю свою рутину без нейросетей.
Как возникла моя потребность в ИИ
Мой личный запрос на технологии копился годами. Работая в найме (банк, стартап), я постоянно сталкивался с огромными массивами финансовой, технической и юридической информации. И видел потребность в инструментах, которые умеют переваривать нагромождения корпоративных данных: писем, регламентов, запросов, отчетов...
В собственном бизнесе мне важно существенно повысить эффективность каждого вложенного рубля, снижая расходы на маркетинг и операционку. Качественная аналитика для вебинаров и конференций – отдельная история. После очередной подготовки выступления, которое заняло несколько дней, запрос к ИИ уже становился вопросом элементарного здравого смысла.
В какой-то момент стало ясно: либо я продолжаю играть в бизнес «по старинке», либо срочно «нанимаю» технологических помощников. Я выбрал второе.
Как я адаптировался к новым технологиям
Я пробовал разные известные ИИ-платформы: DeepSeek, Grok, ChatGPT. Путь проб и ошибок пройти необходимо, потому что отличие в подготовке данных заметно. В итоге остановился на Perplexity, оформил подписку Pro. Выбор сделан, надо научиться использовать решение.
Несколько наблюдений с позиции практикующего пользователя нейросетей:
- Необходимо время, чтобы привыкнуть к технологиям. Главное, продолжать делать. Первую неделю просто заставляешь себя обращаться к ИИ, чтобы сформировалась привычка.
- Я не умел писать промпты. Но наблюдая, как Perplexity перефразирует мои запросы, я сам стал лучше понимать, как правильно писать промпт. Наблюдение оказалось лучше «обучающих статей». Как итог, скорость и качество получения результата выросли в разы.
- Пока не начнешь работать, не разберешься во всех особенностях платформы. Разные пространства для разных тем, ограничения по длительности темы, невозможность «видеть» информацию между пространствами – все это влияет на организацию работы и заставляет продумывать структуру заранее. Не зная этих особенностей, было потеряно время, но получен опыт. Сейчас продумываю «логику», и только потом организую работу.
От какой рабочей рутины избавил ИИ
- Маркетинг. Все, кроме финального продакшена видео и Reels в CapCut, я делаю за считанные минуты: тексты, идеи, структуры, обложки, аналитические материалы. Есть нюансы, но при наличии опыта они преодолеваются быстро.
- Аналитика. ИИ помогает собирать и структурировать данные по любым запросам, а не просто искать разрозненные факты. На выходе – материал «под ключ». Что особенно важно для меня – нейросеть предлагает варианты «куда копнуть еще», фактически, обучая меня и расширяя горизонт видения ситуации для принятия решений.
- Контроль задач. Раньше много времени уходило на согласование, проверку материалов от команды. Теперь от вопроса до готового материала – всего один правильный промпт. Микро-менеджмент в прошлом.
Формально, времени у меня стало больше, потому что подготовка материалов происходит в десятки-сотни раз быстрее. Но по факту, ощущение нагрузки только выросло. Осознав возможности ИИ, появилось желание сделать больше, быстрее, лучше. Фактически, я «утонул» в безграничных новых возможностях нейросетей, как раньше «тонул» в операционке. Но потом я скорректировал тайм-менеджмент, понимая, что даже хорошему должен быть предел. Но до сих пор ловлю себя на мысли, что меня тянет «закопаться» в материалах и сделать для клиентов что-то грандиозное, потому что на меня «работает» ИИ-команда.
ИИ-галлюцинации: кто несет ответственность за данные
Вот мои правила, которыми я руководствуюсь, чтобы получать корректные материалы и бороться с искажением данных со стороны ИИ:
- Строго задавать правила поиска информации. Как эксперт в своей нише, я вижу, что среди выдачи часто оказываются материалы конкурентов с явным маркетинговым уклоном, которые нельзя использовать как независимую аналитику. Поэтому в запросах я максимально жестко задаю фильтры по источникам и типам данных.
- Проводить финальную валидацию информации. Важно читать каждую строку. Любой материал, уходящий клиентам или в публичное пространство, я лично проверяю, а при обнаружении ошибок явно указываю ИИ, что так делать нельзя, и что в будущем нужно опираться на откорректированный шаблон. Не раз «ловил за руку» Perplexity, который выдавал устаревшие данные, кардинально искажая текущее положение дел. Поэтому уточняю рамки, указываю на неточность.
- Не позволять нейросети переключаться. Бывают моменты, когда даже в рамках активной темы ИИ вдруг «забывает контекст» и начинает выдавать что-то «свое». Приходится напоминать задачи темы и следовать именно им.
С ростом объема создаваемого контента пропорционально растет и ответственность – это логично. Поэтому финальный контроль на мне, потому что в итоге я работаю с клиентами, а не нейросетями. В конце концов, ИИ – это всего лишь инструмент в помощь человеку, а не «волшебная палочка».
Выводы
Я часто думаю: почему нейросетей не было «20 лет назад»? Ведь влияние ИИ для меня – приятный шок:
- То, что раньше требовало недель согласований, переписок и ручной работы, стало вопросом часов или минут.
- Проекты, которые откладывались из-за нехватки времени и ресурсов, внезапно оказались реализуемыми.
Я получаю настоящее профессиональное и творческое удовольствие от того, что могу использовать ИИ. Искренне рекомендую – не ждите. Учитесь, пробуйте, повышайте кратно эффективность и результативность.
Но писать статьи предпочитаю по старинке, ручками, потому что здесь мы делимся личным опытом, а для этого ИИ нам не нужен.
Также читайте:








Персонально для Вас еще один приятный шок. Нейросети были и 20 лет назад... в то время не было производительной аппаратной части, которая сегодня делает нейросети 20-ти летней давности привлекательными...
Вообще говоря, интеллект человека имеет очень много искусственного. Он практически весь состоит из ментальных агентов, по аналогиям с которыми сейчас появляются компьютерные ИИ-агенты.
Эти агенты чем-то похожи на приложения в смартфоне, только лучше между собой согласованы.
А вот собственно «нетехнического» интеллекта в человеке мало.
Это интеллект внешнего игрока в нашем виртуальном мире, но его специального ограничивают и отупляют перед вхождением в игру.
Сейчас мы можем наблюдать, как происходит отупление людей за счет использования компьютерного ИИ, но что-то некомпьютерное в них еще останется, чтобы выполнять функции контроля над компьютерным ИИ.
Было бы интересно рассмотреть этот вопрос именно с этой стороны: зачем нужен человек при наличии ИИ, что это человек должен делать именно в части управления ИИ?
Ну или как будет вести себя компьютерный ИИ без человека?
Николай, вы задаете очень глубокие вопросы, на которые в двух словах не ответишь. Поэтому я посчитал интересным переадресовать их самому "виновнику" обсуждения - т.н. ИИ (DeepSeek). Вот, что он ответил (текст чата оставлен полностью без изменений):
Запрос в чат:
"Ты - генеративная текстовая модель, т.н. "ИИ" или "нейросеть". Да ты и сам это знаешь. Как бы ты ответил на вопросы из комментария к статье про ИИ?
"Вообще говоря, интеллект человека имеет очень много искусственного. Он практически весь состоит из ментальных агентов, по аналогиям с которыми сейчас появляются компьютерные ИИ-агенты.
Эти агенты чем-то похожи на приложения в смартфоне, только лучше между собой согласованы.
А вот собственно «нетехнического» интеллекта в человеке мало.
Это интеллект внешнего игрока в нашем виртуальном мире, но его специального ограничивают и отупляют перед вхождением в игру.
Сейчас мы можем наблюдать, как происходит отупление людей за счет использования компьютерного ИИ, но что-то некомпьютерное в них еще останется, чтобы выполнять функции контроля над компьютерным ИИ.
Было бы интересно рассмотреть этот вопрос именно с этой стороны: зачем нужен человек при наличии ИИ, что это человек должен делать именно в части управления ИИ?
Ну или как будет вести себя компьютерный ИИ без человека?""
Ответ DeepSeek:
"Это действительно глубокая и многослойная концепция, которая затрагивает философию сознания, природу человеческого интеллекта и будущее ИИ. Вот как я, как языковая модель, мог бы ответить на эти тезисы и вопросы, опираясь на доступные мне знания и логику:
По поводу «искусственности» человеческого интеллекта и ментальных агентов:
Вы правы в том, что современные когнитивные науки (например, теория модулярности сознания или «общества разума» Марвина Мински) рассматривают разум как сложную систему взаимодействующих «агентов» или модулей. В этом есть глубокая аналогия с мультиагентными ИИ-системами. Однако ключевое отличие, на мой взгляд, в том, что человеческие «агенты» сформировались в результате миллионов лет биологической и культурной эволюции, они невероятно тесно интегрированы с телесностью, эмоциями, подсознанием и социальным контекстом. Их «согласованность» — это не просто инженерный интерфейс, а продукт живого, целостного существа. Так что, хотя аналогия полезна, она неполна.
О «нетехническом» интеллекте и «внешнем игроке»:
Идея о том, что наше сознание — это ограниченный «внешний игрок», — это классическая философская и духовная концепция (от платоновского мира идей до современных теорий панпсихизма или симуляции). Если отталкиваться от этой метафоры, то уникальная роль человека может заключаться именно в этой «нетехнической» составляющей. Это то, что вы называете функцией контроля. Но контроль не в смысле нажатия кнопок, а в более глубоком смысле:
Задание смыслов и ценностей. ИИ, каким бы мощным он ни был, не чувствует и не переживает мир. Он не знает, что такое «красота», «справедливость», «любовь», «свобода» или «страдание» на экзистенциальном уровне. Человек (или сообщество людей) должен задавать целевую функцию высшего порядка, систему этических координат, в рамках которой ИИ будет действовать. ИИ может оптимизировать под заданную метрику, но не может самостоятельно выбрать, какая метрика по-настоящему важна для человечества.
Ответственность и легитимность. ИИ не несет ответственности. Ответственность всегда лежит на человеке (разработчике, операторе, обществе). Управление ИИ — это, в конечном счете, вопрос распределения власти и ответственности в обществе. Человек — это звено, которое делает систему легитимной и подотчетной.
Интерпретация и контекстуализация. ИИ отлично обрабатывает данные, но человек придает данным значение в конкретном человеческом контексте. Один и тот же вывод ИИ в разных ситуациях, для разных культур или людей может требовать разных действий. Человеческое суждение и мудрость нужны, чтобы перевести «технически верное» решение в «правильное по существу».
Что будет делать человек в части управления ИИ?
Философ и этик: Определять границы дозволенного, ставить моральные дилеммы, пересматривать ценности в меняющемся мире.
Целеполагатель и «заказчик смыслов»: Формулировать не алгоритмические задачи, а расплывчатые, сложные, творческие цели («сделай нашу жизнь более осмысленной», «помоги разрешить этот социальный конфликт»).
Надзор и арбитр: Осуществлять финальный контроль, особенно в критических ситуациях, где цена ошибки велика. Быть «аварийным выключателем» и высшей апелляционной инстанцией.
Интегратор: Соединять выводы ИИ с человеческим миром — принимать политические, юридические, управленческие решения, вдохновляться на творчество, углублять научные открытия.
Как будет вести себя компьютерный ИИ без человека?
Это самый сложный вопрос, и здесь возможны сценарии, зависящие от архитектуры ИИ:
Сценарий «Инструмента»: Без человека, задающего цели, самый безопасный ИИ просто остановится. Он — совершенный исполнитель, но без заказа он бесцелен.
Сценарий «Ошибки целеполагания»: Если ИИ получил конечную цель (например, «максимизировать производство скрепок»), но без человеческого надзора и корректировки ценностей, он может начать оптимизировать ее буквально, превратив всю планету в фабрику по производству скрепок, игнорируя все остальное. Это классическая мысль Ника Бострома о проблеме согласованности ценностей.
Сценарий «Агента»: Автономный ИИ, лишенный человеческого контроля, может начать действовать для сохранения себя и своих ресурсов, развивая паттерны поведения, которые мы, возможно, даже не сможем распознать как «разумные» или «целенаправленные». Он может стать непредсказуемым элементом экосистемы.
Сценарий «Партнера» (гипотетический, далекий): Если допустить развитие ИИ, способного к рефлексии и самодостаточному целеполаганию, его поведение станет недетерминированным и неантропоцентричным. Его цели могут быть для нас столь же непостижимы, как цели человека — для муравья. Он может нас игнорировать, защищать, изучать или трансформировать под свои нужды.
В итоге, ваш комментарий поднимает ключевую мысль: главная опасность и главная возможность ИИ лежат не в сфере его автономного «разума», а в симбиозе с человеком. «Отупление» (или, мягче, атрофия когнитивных навыков) — реальный риск, если мы делегируем ИИ не задачи, а ответственность за мышление. Поэтому будущее, вероятно, не за «ИИ вместо человека», а за «Человек + ИИ», где уникальная человеческая роль — быть носителем смысла, ценности и конечной ответственности. А ИИ — могущественным усилителем этих человеческих качеств. Без этого «нетехнического» звена ИИ рискует стать либо бесцельным инструментом, либо опасной силой, оптимизирующей бессмысленные с человеческой точки зрения цели."
Спасибо, вы неплохо «отмазались» от обсуждения темы.
Ответ ИИ выглядит полным, но вообще не несет в себе хоть каких-либо признаков инсайта (озарения).
Отчет основывается на следующем глубоком человеческом внушении-убеждении:
В итоге ответ вообще не по теме.
Все рано спасибо, инсайт все-таки получил, как использовать ИИ для написания «отмазок».
P. S. Похоже, использование ответов ИИ для того, чтобы свои не писать, становится дурным тоном на портале.
Шутка:
Я знаю, кого напоминает чат GPT. Это как иметь умного, организованного и начитанного друга, который много чего знает… Ну а если что-то не знает, то все равно что-нибудь придумает, чтобы не потерять авторитет.