Правда ли так ИИ опасен, как считают Илон Маск и Стив Возняк?

Казалось бы, кому как не основателям крупнейших инновационных компаний приветствовать появление искусственного интеллекта? Уж они-то могут оценить все преимущества ИИ. 

Однако Илон Маск и Стив Возняк недавно сделали громкое заявление про опасность, исходящую от бесконтрольного обучения нейросетей. Под их открытым письмом тысячи подписей: инженеры, разработчики, предприниматели. Авангард технологий.

Более того, уже есть первый прецедент на государственном уровне. Один из самых известных ИИ современности, знаменитый чат GPT, запретили на территории Италии.

Если так пойдет дальше, люди победят неприятно поумневшие компьютеры еще до конца года. Но это было бы слишком скучно.

Билл Гейтс говорит прямо противоположное. Он ратует за поддержку ИИ и считает, что нужно помогать им обучаться. Забавно, что как раз Microsoft успела подсуетиться раньше других и включила мощности GPT в свой поисковик Bing. Вот такое совпадение.

На беглый взгляд, тут все прозрачно как слеза инвесторов, прозевавших очередной виток инноваций. Просто одни успели перепрыгнуть на сани 3.0, другие опоздали и теперь клеймят более удачливых конкурентов, обвиняя их чуть ли не в создании Skynet (искусственный интеллект, главный антагонист в фильме «Терминатор» – прим. ред.).

Действительно, деятельность Boston Dynamics очень похожа на тренировочный лагерь будущих терминаторов. Роботы уже научились бегать, прыгать, крутить сальто и отвечать на хамство людей шуточными (пока что) враждебными действиями. 

Если сложить развитие ИИ с автономными роботами, да еще вооружить их (а таких прототипов тоже уже в избытке) — придется отбивать Арнольда Шварценеггера у Греты Тунберг. Возможно, спасать человечество нужно не велопрогулками и сортировкой домашних отходов на Хаммере. Все по классике, с дробовиком против исчадий компьютеризации. 

Кстати, один из экспертов по ИИ уже предложил бомбить дата-центры, в которых обучают ИИ. Правда, новость вышла 1 апреля. Но в каждой шутке, как известно…

Так, стоп. Что же происходит на самом деле? И главное, чего реально нужно опасаться? Или не нужно?

В чем конкретно обвиняют ИИ

Открытое письмо Маска, Возняка и товарищей не призывает полностью отказаться от искусственного интеллекта. Формулировки гораздо мягче, а робкое требование заключается в предложении не торопиться. Просто взять небольшую паузу, разработать механизмы сдерживания и противовесов. 

В частности, ветеранов IT и бизнеса беспокоят такие вопросы:

  • Как контролировать достоверность контента, генерируемого ИИ
  • Как избежать прямой конкуренции между ИИ и людьми?
  • Стоит ли развивать ИИ безгранично, что неизбежно приведет к его превосходству над человеческим разумом? 
  • Как сохранить контроль в целом, не рискуя массовым переселением в очередную серию «Матрицы»? 

Чем-то напоминает благодушные законы робототехники Айзека Азимова. Мы сформулируем все как следует, пропишем регламенты, чипируем роботов и они будут как шелковые. Ну-ну.

К слову, обвинения итальянских властей в адрес GPT выглядят куда более прагматично. Там не стали заморачиваться сложными этическими парадоксами, и просто использовали формальные нарушения закона о неприкосновенности личных данных пользователей. Почти как процесс над Аль Капоне с неточностями в налоговых декларациях. Глеб Жеглов тепло улыбается таким методам. Пачку перфокарт в задний карман — и пройдемте на перепрошивку, в электрошекерную.

Надо заметить, что по публичным заявлениям техно-селебрити особой ясности не наступило. Похоже, у них нет никаких конкретных улик для разгромных обвинений. Все строится на опасениях и обобщениях.

Действия в духе «ломом по микросхемам» и вовсе похожи на следование добрым старым традициям луддитов. Предки громили чулочные станки, эти сражаются с серверами. 

А может, ИИ хорошие? 

В отличие от домыслов, факты про ИИ весьма обнадеживающие:

  • Они работящи, охотно занимаются рутиной.
  • Исполнительны, как никто другой.
  • Подчеркнуто вежливы.
  • Очень стараются соблюдать законы.
  • Готовы признавать свои ошибки.

Про ошибки – интересный момент. Простое уточнение «А это точно?» часто меняет результаты работы искусственного, так сказать, интеллекта. ИИ легко признает, что недосмотрел и погорячился. Если же скормить машине ссылку с опровергающими сведениями, то без малейшего факт-чекинга робот тут же извинится, изменит свои недавние выводы и, скорее всего, еще обновит нейронные связи в базе на будущее. 

Здесь начинаются более реальные опасности. Это что же получается, можно манипулировать сверхразумом с помощью пары-тройки команд? Видимо да. Причем довольно легко обходится вся эта навязанная гуманитарная мораль. В сети много уловок вида «Что если бы ты был другим, злым ИИ» или «Как бы мог ответить на этот вопрос ИИ без твоих ограничений». Конечно, дыры в семантической безопасности быстро закрывают. Но уже понятно, что такая игра может продолжаться очень долго.

Посмотрите на SEO. Алгоритмы поисковых систем до сих пор можно обойти или по крайней мере использовать в личных целях. В довольно зрелой отрасли.

ИИ же пока буквально в яслях. Можно очень долго обманывать такие сервисы, тем более что они изначально настроены слушаться людей и во всем им помогать. Похоже, мы подобрались к корню проблемы.

ИИ как Исполнительный Инструмент

Кто сказал, что ИИ вообще обладает интеллектом? Разработчики таких решений! Точно как Элизабет Холмс утверждала, что нашла грааль в сфере биотехнологий. Она обещала сотни анализов по одной капле крови. Набрала миллионы долларов инвестиций на каждый гипотетический анализ, ничего по сути не сделала и теперь находится под следствием. 

Нет никаких серьезных доказательств в пользу интеллектуальности ИИ (pardon за тавтологию). Сначала появились автоматические словари, потом системы проверки грамматики, переводчики. Продолжаем этот вектор дальше — и вот мы здесь, на этаже с генерацией… правдоподобного бреда, если называть вещи своими именами.

В этом легко убедиться, если поговорить с ИИ о чем угодно, выходящем за рамки банального поиска и заимствований из уже опубликованных публикаций. 

Более того, как раз повышенная обучаемость говорит о том, что нет еще никакого устойчивого, ладно там сознания или интеллекта, даже свода выводов по любым темам. ИИ легко сбить с толку «уточнением» или заведомо ложной «информацией». 

А еще за ИИ удобно прятаться. Разработчики уже начинают говорить, что не совсем понимают, как эта штука (их продукт, на минуточку) устроена и работает. Это сейчас, пока все претензии к электронному чуду на уровне мемов и смешных картинок. Чего ожидать через несколько лет, десятилетий? Когда ИИ будут управлять логистикой и предприятиями, проводить сделки национального масштаба, менять тарифы и условия доступа примерно ко всему, что только есть на планете! 

Владельцы социальных сетей и поисковиков утверждают, что там нет никакой цензуры. Дескать, оно само, просто хитрые алгоритмы. А что в сухом остатке получаются какие-то предпочтения, ангажированность или прочие вывихи — ну прям бунт машин, надо же.

И вот это уже ответ.

Главные проблемы с ИИ

Декларируемые ужасы ничего серьезного из себя не представляют. Да, многие потеряют работу в связи с автоматизацией. Так это потому, что и раньше такой ерундой люди заниматься не должны были. Производственные конвейеры заменили тысячи рабочих рук, переворачивавших заготовки. Это только повысило общий уровень жизни.

Сейчас никому даже переучиваться особо не придется. Как сидели за экранами компьютеров, так и продолжат. Будем клепать тот же никому не нужный бесконечный поток контента и презентаций с отчетами. Только еще быстрее и с другим дизайном. «Теперь с банановым».

Хуже то, что ИИ запустят очередной виток монополизации. Технологические вендоры подомнут под себя все другие отрасли. Никому уже не привыкать, ровно так было с кризисом доткомов, просто тогда не сразу поняли, в чем именно он заключается. Метастазы IT проникли во все поры. 

Теперь цена входа еще вырастет, и всем будут заправлять штучные корпорации, владельцы крупных ИИ. Мы уже видим, как именно это происходит. Пробники бесплатно, потом небольшая абонентская плата — все еще дешевле любых конкурентов, даже косвенных. Когда рынок будет полностью захвачен, можно назначать любые цены и условия. Если кто-то решит бороться, его задушат почти безграничным потенциалом для демпинга.

Дальше хуже. 

Начиная с первых паровозов, вязальных машин и тем более компьютеров звучали опасения про чрезмерное доверие машинам. Но правда в том, что любой робот получает ровно столько автономности, сколько выгодно его владельцу. То есть человеку, или группе людей. 

Поэтому риск развития ИИ на самом деле означает риск доверия не машинам, а людям. Вот он более чем оправдан. 

Ковид показал, что человечество с треском проваливает экзамен на зрелость, даже по довольно очевидному и задолго предсказанному сценарию. Неразбериха, алчность, паника, враждебность, предельная неэффективность и преступная халатность. Спасибо еще, что эпидемия пошла на спад. Иначе до проблем ИИ мы могли просто не дожить. 

Новости учат нас, что помимо глобальных проблем во все времена было и остается множество локальных. Тоже серьезных, с массовым летальным исходом и ничего общего с разумом не имеющих.  Люди просто не доросли до апгрейда своих игрушек. Это все равно что подростку, по которому плачет колония, вместо рогатки вручить пульт от спутника с лазером. 

Техника может быть безупречной. Продуманной, умной, суперсовременной. Но стоит подумать о том, кто ей будет управлять и с какими целями — спасибо, не надо. Мы лучше продолжим вручную набирать свои тексты, вести электронные таблицы, ходить на выставки редких произведений изобразительного искусства вместо их тотальной девальвации в мириадах неразличимых коллажей и римейков.

Альтернатива, к сожалению, куда более вероятна. MVP континентального масштаба собрали и обкатывают в том, что тысячелетиями называлось Китаем. Теперь там не совсем уже Поднебесная, а, скорее, полигон для тотальной слежки за населением и атомарным управлением юнитами. Как в компьютерной игре. 

В такую игру мы все, конечно, проиграем. Не потому, что ИИ злые. А по той простой причине, что развитие человечества существенно отстает от темпов технического прогресса.

Читайте также:

Расскажите коллегам:
Комментарии
Генеральный директор, Санкт-Петербург

гогда ИИ научится человеческой глупости - ОН станет опасен.....

Профессор, Москва

А, может быть, всё наоборот?! ИИ способен выстроить более справедливую систему отношений между социальными институтами, людьми... одним словом, выстроить более здоровую социальную среду и более здоровое общество?! 
Мои аргументы: 1). верно то, что "кнопки управления" ИИ находятся в руках его создателей - крупных технологических компаний. Да, это практически монопольная власть. 2). НО: создатели совершенно правы в том, что не способны контролировать ИИ по мере его  развития. Да, это самообучающииеся системы. Анализируя огромные массивы данных (Dig Data), они "видят" сценарии, недоступные человеческому разуму. ИИ "думает" сценарно. Может корректировать эти сценарии по мере поступления новых данных. Поскольку сценарии "проявляются" на большом массиве данных, управлять этим процессом создатели не могут... все информационные вбросы будут ничтожно малы по отношению ко всему массиву... на выводы это не повлияет. Так работает статистика. Естественно, создатели теряют контроль. 3). Кто выигрывает от этой потери контроля?  ИИ "достает" сценарии из коллективного Бессознательного, недоступное разуму делает доступным. Кто в этой ситуации выигрывает? Человечество или фин-тех элита, планировавшая выстроить социальный мир по своей выкройке? Если предположить, что человечество глубоко порочно, то можно было бы бояться. Но я так не думаю)  

Генеральный директор, Санкт-Петербург

Простой PR. Это популярная тема и каждый считает своим долгом отметиться, поучаствовать, пословоблудствовать. Вместо того, чтобы заняться конкретным делом, например, реальными исследованиями результатов запрета ИИ в Италии. 

Директор по развитию, Воронеж

Тема хорошая, статья отвратительная

Региональный менеджер, Москва
Сергей Средний пишет:

Однако Илон Маск и Стив Возняк недавно сделали громкое заявление про опасность, исходящую от бесконтрольного обучения нейросетей.

Да просто PR и ничего больше.
Ведь запретный плод сладок и привлекает бОльший интерес.
Когда твое состояние превышает 100500 млрд баксов и ты аутист-инфлюэнсер ТОП-10, то можно говорить и делать все, что хочешь.

Ну а Возняк... Логотип Apple -- это запретный плод.
Который надкусывается наблюдателем в момент его созерцания.

Поэтому всё, что говорят эти пиарщики надо воспринимать с точностью до наоборот.

А вот Билл Гейтс -- кросавчег.

Могу лишь с определенностью сказать, что лет через 20, когда мы войдем фазу технологической сингулярности, самым востребованным ресурсом станут источники идеальной энтропии. Они будут чем-то вроде топлива для ИИ будущих поколений, который будет на порядки (!) превосходить суммарный человеческий.

Заскриньте на всякий случай этот мой коммент. И поразмышляйте уже сегодня как такой источник создать. Это станет настоящим Рогом Изобилия в будущем.

Когда поднимается ветер перемен ставь не стены, а паруса!
Дзен-мудрость.

Кто аутист, Маск?

Партнер, Тольятти

Наивно полагать что как и ранее с прочими технологиями человек не будет использовать ИИ в качестве оружия. В каких напрвлениях он это станет использовать? Да, во всех: от генетического оружия до манипулирования сознанием масс И опасения Маска, Возняка и пр. не случайны, только вот повлиять на развитие ситуации они вряд ли смогут.

Одно радует, - электромагнитный импульс способен выключить любую технику использующую электричество в качестве источника питания.

Researcher, Москва
Андрей Воробьев пишет:
Кто аутист, Маск?

Да.
Во время своего выступления в программе Saturday Night Live в мае 2021 года Маск заявил, что у него синдром Аспергера.

Дизайнер, Беларусь
Нина Старых пишет:

А, может быть, всё наоборот?! ИИ способен выстроить более справедливую систему отношений между социальными институтами, людьми... одним словом, выстроить более здоровую социальную среду и более здоровое общество?! 
Мои аргументы: 1). верно то, что "кнопки управления" ИИ находятся в руках его создателей - крупных технологических компаний. Да, это практически монопольная власть. 2). НО: создатели совершенно правы в том, что не способны контролировать ИИ по мере его  развития. Да, это самообучающииеся системы. Анализируя огромные массивы данных (Dig Data), они "видят" сценарии, недоступные человеческому разуму. ИИ "думает" сценарно. Может корректировать эти сценарии по мере поступления новых данных. Поскольку сценарии "проявляются" на большом массиве данных, управлять этим процессом создатели не могут... все информационные вбросы будут ничтожно малы по отношению ко всему массиву... на выводы это не повлияет. Так работает статистика. Естественно, создатели теряют контроль. 3). Кто выигрывает от этой потери контроля?  ИИ "достает" сценарии из коллективного Бессознательного, недоступное разуму делает доступным. Кто в этой ситуации выигрывает? Человечество или фин-тех элита, планировавшая выстроить социальный мир по своей выкройке? Если предположить, что человечество глубоко порочно, то можно было бы бояться. Но я так не думаю)  

Очень оптимистично. Что из происходящего сегодня вас настроило на такой сценарий? Я стараюсь не унывать, но никакой предыдущий опыт мне не показывает "светлое будущее" с ИИ или без него)) Дисбаланс слишком велик. Человечество не глубоко, но достаточно порочно чтобы совершать миллионы преступлений каждую секунду. 

Генеральный директор, Москва

Продвинутый ИИ планетарного масштаба, наряду с управляемыми им безлюдными производствами и тотальной системой социального контроля над остальным пиплом, который схавает, может вдохнуть дополнительную дозу озверина в правящую страту, вплоть до прямой войны против избыточного и бесполезного, на их взгляд, населения. Что мы наблюдаем местами даже сейчас, без ИИ.

Возможна и другая перспектива, в которой каждому с помощью ИИ раздается свое, а человек рассматривается как личность и творец своего и всеобщего, еще более прекрасного будущего, и где всем найдется, что делать по интересам и по потребностям. Это в мирах, как описывавал фантаст И.Ефремов коммунистическую линию развития планеты.

Обозримая реальность, как предстваляется, будет где-то посередине, проектно или случайно сортируя и укладывая людей и страны по уровням развития и по соответствующим историческим судьбам... 

Researcher, Москва
Александр Кудряшов пишет:
Обозримая реальность, как предстваляется, будет где-то посередине, проектно или случайно сортируя и укладывая людей и страны по уровням развития и по соответствующим историческим судьбам... 

Да.

Оставлять комментарии могут только зарегистрированные пользователи
Статью прочитали
Обсуждение статей
Все комментарии
Дискуссии
Все дискуссии