Чорт ногу сломит
4.91K subscribers
1 photo
8 videos
330 links
Цифровые технологии хакнули ваш мозг.
Надзорный капитализм, большие данные, ИИ — с точки зрения психологии и цифровой осознанности.
Download Telegram
ИИ, но не такой, каким мы его знаем

Принцип «не можешь победить – присоединись» – один из главных рецептов, которые мы придумали для будущих проблем в отношениях с сверхчеловеческим искусственным интеллектом. Пару лет назад идею о том, что людям лучше всего слиться с ИИ озвучил Илон Маск, а вчера повторил со-основатель OpenAI Илья Суцкевер:

«В то время как другие бьются над идеей создания машин, способных сравниться с человеческим интеллектом, Суцкевер готовится к созданию машин, которые смогут превзойти людей. Он называет это искусственным сверхинтеллектом (ИСИ): «ИСИ будет видеть вещи глубже. Он увидит то, чего не видим мы».

Трудно понять, что это на самом деле означает, так как человеческий интеллект — это наш эталон того, что такое интеллект в принципе. Что Суцкевер подразумевает под интеллектом, превосходящим человеческий?

«Мы видели пример очень узкого сверхинтеллекта в AlphaGo», — говорит он. В 2016 году ИИ DeepMind обыграл Ли Седоля, одного из лучших игроков в Го в мире, со счетом 4–1. «ИИ научился играть в Го способом отличным от того, который человечество коллективно разработало за тысячи лет», — говорит Суцкевер. «Это привело к появлению новых идей».

Суцкевер указывает на известный ход 37 от AlphaGo. Во второй игре против Седоля ИИ сделал ход, который сбил с толку всех человеческих комментаторов – они думали, что AlphaGo облажался. Но на самом деле он сделал выигрышный ход, которого еще никто не видел за всю историю игры. «Представьте себе такой же уровень озарений, но во всех сферах жизни», — говорит Суцкевер.

Именно этот ход мыслей привел Суцкевера к самому большому сдвигу в его карьере. Вместе с Яном Лейке, коллегой из OpenAI, он создал команду, которая сосредоточится на том, что они называют суперсогласованием (superalignment). Согласование (alignment) — это технический жаргон, который просто означает, что модели ИИ должны делать только то, что вы хотите, и не более того. Суперсогласование — это термин от OpenAI, означающий согласованность, применяемый к сверхинтеллекту.

Команда Суцкевера хочет разработать набор надежных процедур для создания и управления этой технологией будущего. OpenAI говорит, что выделит пятую часть всех своих вычислительных ресурсов на решение этой проблемы и собирается решить ее за четыре года.

«Существующие методы согласования не будут работать для моделей, которые значительно умнее людей, потому что они по своей сути предполагают, что люди могут достоверно оценить, что именно делают системы ИИ», — говорит Лейке. «Поскольку ИИ-системы станут более функциональными, им придется выполнять более сложные задачи». И это, по идее, затруднит людям их оценку. 

Суцкевер считает, что суперсогласование – неизбежный следующий шаг и проблема, над которой работает недостаточно исследователей машинного обучения, таких как он сам. «Я делаю это ради собственных интересов», — говорит он. «Очевидно важно, чтобы любой сверхинтеллект, созданный людьми, не стал мошенником. Очевидно”.

Работа над суперсогласованием только началась. Это потребует масштабных изменений во всех исследовательских институтах, говорит Суцкевер. Но у него есть ориентир для средств защиты, которые он хочет создать: машина, которая смотрит на людей так же, как родители смотрят на своих детей. «Я думаю это золотой стандарт», — говорит он. «Утверждение, что люди действительно заботятся о детях в целом верное». (Есть ли у него дети? «Нет, но хочу», — говорит он.)

«Как только мы преодолеем проблему ИИ-мошенника, что тогда? Есть ли вообще место для людей в мире, где ИИ умнее их?» продолжает он. «Одна из возможностей — которая может показаться безумной по сегодняшним меркам, но не будет такой уж безумной по стандартам будущего — заключается в том, что многие люди захотят стать частью ИИ». Суцкевер говорит, что, возможно, именно так люди постараются не отстать. «Поначалу это попытаются сделать только самые смелые, предприимчивые люди. Возможно, за ними последуют и другие. Или нет».
«Очень много захватывающей научной фантастики создано на основе идеи оживающих компьютеров – «Матрица», «Терминатор» и так далее. Если вы смотрите эти фильмы и думаете "Ух ты, научная фантастика действительно показывает будущее технологий", тогда вы автоматически думаете и что ИИ – это грозная сила будущего, и «если кто и создаст ИИ – то пусть это лучше будем мы». Создание ИИ превращается в гонку «все или ничего», где ничто кроме ИИ не имеет значения.

В техно среде, среди самых богатых и влиятельных ее представителей, вы часто будете слышать аргументы вроде: «Ну, можно беспокоиться о глобальном потеплении. Или о том, хватит ли человечеству пресной воды, когда мы достигнем пика численности населения в конце этого столетия. Можно беспокоиться об опасности возникновения новых инфекционных заболеваний. Можно беспокоиться обо всем этом, но это все не имеет особого значения. Единственное, что действительно имеет значение, это ИИ-гонка, потому что ИИ будет достаточно умен, чтобы решить все эти проблемы. Так что все остальное - пустая трата времени».

Это своего рода расцвет тщеславия людей, верящих, что они могут стать Богом. Это вполне объяснимое желание, потому что трудно быть человек. Мы умираем. Собственную смертность очень сложно принять и так и хочется придумать историю, в которой от нее есть спасение».

Это цитата из выступления компьютерного ученого и философа Джарона Ланье в 2018 году. Ланье больше четырех десятилетий участвует в создании ИИ и виртуальной реальности и не просто хорошо знает техно-элиту, а сам является ее частью. Например, Ланье много лет работает в Microsoft – компании, которая обеспечивает “мозгами” (облачными компьютерами) нейросети ChatGPT и частично владеет главным ИИ-стартапом OpenAI.

Пока технологические элиты грезят созданием богоподобного ИИ, политические элиты развязывают третью мировую войну – и эти вещи не просто совпадают во времени. И технологические, и политические элиты запада и востока смотрели «Терминатор» и понимают ИИ как супер-технологию, которая позволит управлять миром. Нельзя сказать, что мы уже создали эту технологию управления миром, однако все больше признаков указывает на то, что мы на пороге ее создания.

Люди, которые создают ИИ и толкают нас в будущее с ожившими роботами горят энтузиазмом сумасшедших ученых и одержимых первооткрывателей. В это время диктаторы вроде Путина потирают руки и говорят, что «страна, которая станет лидером в сфере ИИ, станет правителем мира», а Китай называет массовую видео-слежку с использованием сотен миллионов ИИ и камер «Skynet» – по названию злого искусственного сверх-интеллекта из «Терминатора».

Изобретение сверх-интеллекта может быть действительно позволит решить все проблемы человечества, однако человечество пока не думает о спасении – скорее сейчас все готовы перегрызть друг другу глотки за то, чье лого и чей флаг будут стоять на корпусе компьютера и въезде на территорию дата-центра, где в ближайшее время родится цифровое сверхсознание.
Техно-оптимизм

«Мы считаем, что интеллект — главный двигатель прогресса. Интеллект делает все лучше. Умные люди и умные общества превосходят менее умных практически по всем показателям, которые мы можем измерить. Интеллект – это право человечества по рождению; мы должны расширить его настолько полно и широко, насколько это возможно».

Это отрывок из «Манифеста Техно-оптимизма» Марка Андриссена. Краткая биография Андриссена звучит так: в начале 1990-х он создал первые популярные интернет-браузеры Mosaic и Netscape, продал их в конце 1990-х и стал миллиардером, а с начала 2000х стал одним из ключевых инвесторов в Кремниевой долине. Самая известная инвестиция Андриссена – его вложения в Facebook на первых этапах становления компании, где он до сих пор состоит в совете директоров. Короче говоря, сложно найти человека, который лучше Андриссена разбирался бы в ценностях техноолигархов из Кремниевой долины, а «Манифест» – хорошее отражение этих ценностей.

«Мы считаем, что интеллект находится в восходящей спирали:
во-первых, потому что все больше умных людей во всем мире привлекаются в техно-капиталистическую машину;
во-вторых, потому что люди формируют симбиотические отношения с машинами в новые кибернетические системы, такие как компании и сети;
в-третьих, поскольку искусственный интеллект расширяет возможности наших машин и нас самих».

Непоколебимая вера в силу интеллекта и обожествление вычислительных способностей ума – это фундамент технологической культуры Компьютера, венцом которой стало создание искусственного интеллекта. Американские техно-элиты сегодня состоят из хакеров и задротов — людей, которые за счет чистого интеллекта победили старые элиты с их харизмой, шармом и красноречием. Их умные машины и программы трансформировали мир и задали вектор 21 веку – это век искусственного интеллекта и превращения человека либо в бессмертного полубога, либо в обезьяну, как повезет.

«Мы считаем, что искусственный интеллект — это наша алхимия, наш философский камень: мы буквально заставляем песок думать».

С помощью интеллекта человек научился извлекать из земли полезные ископаемые, которые теперь умеют “думать” в наших компьютерах и смартфонах. Философский камень средневековых алхимиков обещал владельцу бессмертие, способность превращать металлы в золото, а мертвую материю — в живую. Добыть его можно было за счет серии химических реакций: одни алхимики пытались добыть камень в лабораторной колбе, а другие проводили “химические опыты” внутри собственной психики — и те, и другие считали что интеллектом, как его понимает и Андриссен, они могут добиться сверхъестественных результатов.

Компьютеры и ИИ позволили человечеству многократно приумножить количество интеллекта на Земле — к человеческому и животному интеллектам присоединился интеллект цифровой. Андриссен и ко считают что мир переполнен проблемами, которые в принципе возможно решить только с помощью интеллекта. Людей на Земле ограниченное количество, значит и количество интеллекта ограничено, значит мы хуже решаем мировые проблемы. ИИ это дополнительный интеллект, который по своим совокупным вычислительным возможностям уже превосходит совокупный человеческий интеллект, его создавший — а значит мы быстрее решаем проблемы и увеличиваем наши шансы на выживание и процветание.

Я считаю, что интеллект, даже искусственный сверх-интеллект, не сможет решить все наши проблемы, так как они во многом упираются в эмоции и более глубокие слои сознания. Однако я также считаю, что интеллект — это чистая магия, с помощью которой действительно можно решить значительную часть наших проблем, поэтому чем больше — тем лучше. Сегодня зачитал на микрофон перевод всего «Манифеста Техно-оптимиста» и обсудил его с Настей Травкиной на нашем новом подкасте «Чтения», который уже скоро можно будет послушать.
Внимание

Нет единого научного понимания того, что такое человеческое внимание — есть только теории, подходы и описания того, что это такое и как оно работает. Например, когнитивный нейроученый Станислас Деан в своих теориях описывает, как внимание работает в связке с нашим мозгом. Он рассматривает внимание как механизм фильтрации информации, который позволяет сознанию выбирать релевантную информацию и фокусировать на ней внимание, отбрасывая при этом всю ненужную информацию и отвлечения. Такая фильтрация осуществляется благодаря сети внимания в мозге, которая активируется в ответ на определенные стимулы и регулирует поток информации.

Экономист и психолог Даниэль Канеман предлагает рассматривать внимание как ограниченный ресурс, который наше сознание распределяет подобно тому, как компания распределяет ограниченный финансовый бюджет. Канемана волнуют последствия ограниченности ресурса внимания – например, склонность людей принимать самые простые и часто неправильные решения из-за дефицита ресурса внимания.

Короче говоря, внимание — это с одной стороны способность фильтровать информацию и фокусироваться на ней, а с другой — ограниченный ресурс, от распределения которого зависит качество нашей жизни. Изучение физиологического и психологического механизмов внимания помогло нам значительно усовершенствовать ИИ, а подход ко вниманию как к ресурсу послужил развитию экономики внимания. Вот как ООН определяет, что такое экономика внимания:

«Концепция экономики внимания была впервые предложена в конце 1960-х годов Гербертом Саймоном, определившим проблему информационной перегрузки как экономическую. Однако эта концепция становится все более популярной с развитием интернета, благодаря которому контент (предложение) становится все более обильным и доступным мгновенно, а внимание становится ограничивающим фактором в потреблении информации. Хотя предложение доступной информации продолжает быстро расти (цифровые данные удваиваются каждые два года), спрос на информацию ограничен тем недостаточным вниманием, которое мы можем ей уделить. Действительно, общее количество доступного внимания ограничено количеством людей, имеющих доступ к информации, а также фиксированным количеством часов в дне и противоречивыми требованиями к нашему времени и вниманию. Девенпорт и Бек (2001) впервые определяют «экономику внимания» как подход к управлению информацией, который рассматривает человеческое внимание как дефицитный товар и применяет экономическую теорию для решения различных проблем управления информацией. Мы все больше живем в «экономике внимания», а не в «информационной экономике».

Хотя с научной точки зрения мы все еще плохо понимаем, что такое внимание и как именно оно работает, экономика внимания — это уже довольно разработанная концепция, в которой каждый из нас может разобраться и прокачаться.

Первым делом нужно помнить, что внимание — это ограниченный ресурс, и, главное, что вы сами распоряжаетесь этим ресурсом. Затем нужно изучить как устроен бюджет вашего внимания — этот бюджет во многом совпадает, но местами сильно отличается от бюджета времени: например, можно выделить и потратить час на одно дело и при этом уделить только 10 минут внимания самому делу, а остальное время провести в переписках и соцсетях. Также нужно разобраться с особенностями вашего личного внимания: какие вещи “крадут” ваше внимание, а на каких наоборот сложно концентрироваться, что отвлекает внимание, а что помогает направлять его в нужное русло.

Напоследок простое, но приятное упражнение внимания от Уильяма Берроуза: когда в следующий раз будете идти по улице, старайтесь обращать внимание на все встречающиеся вам объекты какого-нибудь цвета — например, красного.
Генри Киссинджер сравнивает искусственный интеллект с ядерным оружием и пишет, что ИИ во многом даже опаснее атомных бомб. Сейчас мы стоим на пороге технологического прорыва, подобного моменту когда американские ученые впервые взорвали ядерную бомбу: когда запустятся первые ИИ-системы следующего поколения, история поделиться на четкое “до” и “после”.

Предвосхищая этот момент, который по многим прогнозам настанет в ближайшие пять лет, человечеству нужно заранее определить правила игры в таком новом мире. Киссинджер сравнивает свой опыт в международных переговорах по ограничению ядерного оружия и переносит его на ИИ. В следующем отрывке он говорит о принципиальном различии этих технологий:

«Чтобы адаптировать уроки ядерного сдерживания для решения нынешней проблемы с ИИ, важно признать существенные различия между ИИ и ядерным оружием.

Во-первых, если за развитие ядерных технологий отвечали правительства стран, то развитие ИИ возглавляют частные предприниматели, технологи и компании. Ученые, работающие в Microsoft, Google, Amazon, Meta, OpenAI и нескольких небольших стартапах, намного опережают любые аналогичные усилия правительств. Более того, эти компании сейчас отчаянно конкурируют между собой: эта конкуренция, конечно, стимулирует инновации, но сопряжена с опасностями. Пока эти частные игроки ищут баланс между рисками и выгодами для себя, государственные интересы наверняка будут недоучтены.

Во-вторых, ИИ – это цифровая технология. Ядерное оружие было трудно производить, и требовалась сложная инфраструктура для выполнения всего: от обогащения урана до разработки ядерного оружия. Производимые продукты были физическими объектами и, следовательно, поддавались исчислению. Там, где было возможно на физическом уровне можно было проверить действия противника, возникали ограничения. ИИ представляет совершенно иной вызов. Его основная эволюция происходит в сознании людей. Его силы наращиваются в лабораториях, и его применение трудно распознать. Ядерное оружие осязаемо, а суть искусственного интеллекта концептуальна.

В-третьих, ИИ развивается и распространяется со скоростью, которая делает невозможными длительные переговоры. Контроль над вооружениями развивался десятилетиями. Ограничения для ИИ должны быть установлены до того, как ИИ будет встроен в структуру безопасности каждого общества, то есть до того, как машины начнут ставить свои собственные цели, что, по мнению некоторых экспертов, вероятно, произойдет в ближайшие пять лет. Время требует сначала национального, а затем международного обсуждения и анализа, а также новой динамики в отношениях между правительством и частным сектором».

Статья Киссинджера адресована в первую очередь правительствам США и КНР — единственным на сегодня странам, обладающим талантами, исследовательскими институтами и массированными вычислительными мощностями, необходимыми для обучения самых сложных моделей ИИ.

С моей точки зрения одна из причин Третьей мировой войны, совпадающей с ИИ-революцией, заключается в том, что правительства США и КНР хотят помешать друг другу достичь ИИ-превосходства — поэтому ведут серию гибридных войн, которая началась со вторжения РФ в Украину. Венцом этой «серии» может стать война за остров Тайвань, на котором расположены заводы корпорации TSMC (эта корпорация производит львиную долю самых продвинутых микрочипов, которые нужны для ИИ-революции).

Гибридная война США и Китая — это также борьба за будущие рынки и зоны технологического влияния. Санкционные войны, начавшиеся в конце 2010х, Пандемия и теперь Третья мировая — все эти события разрушали старые глобальные цепочки поставок.

Новый мир «после» ИИ-революции кажется миллиардерам, президентам, предсеталям и принцам таким волшебным, что им, кажется, вообще ничего из Старого мира не жаль. В том числе людей, которые в мире «после» и так будут без работы из-за роботов.
Люди не машины

В войне будущего на поле боя будут доминировать роботы и нейросети, а не люди.

Уже сегодня на поле боя все больше роботов. Пока что это только полуавтономные дроны, которыми люди управляют дистанционно. Но такой гибридный робот уже позволяет сохранять человеческие жизни, убирая их с линии соприкосновения, и воспитать новое поколение ИИ-дронов, которые смогут действовать без пилотов.

В этом смысле украинские военные, рискуя своей жизнью и управляя военными машинами всех мастей, создают базу данных для таких автономных боевых роботов. Например, видео с бодикамов солдат, штурмующих здание или окоп, в результате станет данными, на которых то же самое будут учиться делать дроны всех видов. Рискуя собственным здоровьем и жизнью, люди прямо сейчас учат бестелесные нейросети будущего воевать вместо них.

Но опытные танкисты и минометчики, пилоты дронов, вертолетов и самолетов не только поставляют данные — в будущем они могут стать и специалистами в разработке и совершенствовании оборонного ИИ Украины.

Для того, чтобы все это стало реальным завтра, сегодня нам необходимо сохранить как можно больше жизней и здоровья наших военных. Думая об этом, я организовал для военных, работающих на системах ПВО на востоке страны, частичный сбор на генератор за 150.000 грн. Генератор нужен, чтобы ребята всегда имели возможность корректировать работу систем ПВО для защиты неба. Если пропадет электроснабжение, генератор поможет сохранить связь с большим количеством подразделений.

Присоединяйтесь к моему сбору!
Монобанка: https://send.monobank.ua/jar/qPtkqJjTH
Номер карты Монобанки: 5375 4112 1003 7730
PayPal: serg.m.y@gmail.com «ПВО».
This media is not supported in your browser
VIEW IN TELEGRAM
Три главных события прошедшей недели:

1) встреча Си Цзиньпина и Байдена
2) увольнение Сэма Альтмана из OpenAI
3) удачный тестовый запуск Starship

По-моему третье событие — самое важное и оптимистичное.
Когнитивные мины ч.1

Перевел отрывок из книги Пола Шарре «Четыре поля битвы: власть в эпоху искусственного интеллекта». В основном тут рассматривается термин «враждебные примеры» — трюки и фокусы, с помощью которых можно обманывать и взламывать ИИ-системы. Отдельно понравился термин «когнитивные мины», которые возможно со временем станут рабочей альтернативой РЭБам и другим средствам борьбы с дронами-камикадзе.

«Злоумышленники могут атаковать системы машинного обучения на разных этапах процесса обучения. Атаки могут эксплуатировать уже полностью обученные модели, искажать данные, на которых модели обучаются, или нарушать цепочки поставок машинного обучения.

Например, для атаки на уязвимости в полностью обученных и работающих моделях злоумышленник может использовать так называемый "враждебный пример". Это похоже на традиционную кибератаку, где хакер эксплуатирует ошибку в работающем программном обеспечении, подавая системе специально разработанную информацию для обмана или введения в заблуждение модели.

Враждебные примеры бывают разных форм. Некоторые из них для человека выглядят как абстрактные узоры — например, волнистые линии. Другие выглядят как белый шум. Эти изображения специально созданы для того, чтобы обмануть модель машинного обучения, и заставить ее выдать ложный результат. Например, обманывая классификатор изображений, злоумышленник заставляет его неправильно определить изображение. Для человека изображение может выглядеть как телевизионный шум, но ИИ-модель с высокой степенью уверенности скажет, что это домашняя кошка.

Враждебные примеры также могут скрываться в обычных изображениях таким образом, что человек их не заметит. На изображении могут появиться незначительные изменения, незаметные для человека, но способные обмануть ИИ-модель, заставив её поверить, что на картинке изображено что-то другое. Эти атаки могут быть нацелены на обман классификатора изображений, заставляя его считать, что изображение — это любой произвольный объект, который выбирает атакующий.

Враждебные атаки работают даже тогда, когда у атакующих нет сведений о данных для обучения ИИ-модели или её конструкции. Такие атаки называются атаками ”черного ящика”, потому что, с точки зрения атакующих, ИИ-система является черным ящиком — у них нет информации о том, как она работает изнутри… Враждебные примеры можно переносить между моделями, а это значит, что пример, созданный для обмана одной модели, часто может успешно обмануть и другие модели, хотя иногда с меньшей степенью эффективности.

Враждебные атаки могут быть встроены в физические объекты. Исследователи показали эффективные атаки "черного ящика" против классификаторов изображений с использованием распечатанных картинок. Нет необходимости взламывать камеру, если всё, что вам нужно, это надеть особую рубашку, которая обманет ИИ-модель, контролирующую камеру.

Используя методы "белого ящика", которые предполагают прямой доступ к модели, исследователи показали, что они могут обмануть системы распознавания лиц, используя модифицированные очки. Такие очки позволяют носителю выдать себя за определенного человека или просто избежать обнаружения, так что система распознавания лиц идентифицирует носителя как кого-то другого.»
Когнитивные мины ч.2

«Исследователи модифицировали дорожные знаки, используя небольшие наклейки, и в одном случае обманув классификаторы изображений, заставив их ошибочно определить знак остановки как знак ограничения скорости в 60 км в час. Исследователи также использовали наклейки, чтобы обмануть классификаторы изображений, заставляя их видеть дорожные знаки, которых на самом деле не было.

Враждебные атаки можно встраивать в физические объекты, например, в распечатанный на 3D-принтере макет черепахи, которая была слегка модифицирована для того, чтобы обмануть классификатор изображений, заставив его ошибочно определить ее как винтовку. Еще больше тревоги, чем наклейки на знаках стоп, вызывают эксперименты, в которых исследователи, используя методы "черного ящика", создали физический враждебный объект, который смог избежать обнаружения лазерными системами обнаружения, используемыми беспилотными автомобилями. Для датчиков автономного автомобиля объекта просто не существовало.

Человек в модифицированной одежде — шапке, рубашке или очках — может обмануть систему распознавания лиц, заставив ее поверить, что он кто-то другой. Враждебные примеры также можно разместить в виде когнитивных мин в окружающей среде, ожидая, пока на них наткнутся ИИ-системы и изменят свое поведение. Враждебные наклейки можно использовать для скрытия объектов от детекторов или для перегрузки детекторов ложными сигналами. Враждебные объекты или наклейки могут заставить беспилотные автомобили нарушать правила дорожного движения, сталкиваться с объектами или вызывать пробки.

Некоторые физические враждебные атаки используют модификации, заметные для человека. Например, модифицированные очки, которые обманули системы распознавания лиц, состояли из больших, разноцветных оправ. Даже если враждебные наклейки заметны для человека, то на первый взгляд их можно принять за граффити, рекламу, листовки или какой-то другой безобидный объект.

Враждебные атаки вызывают беспокойство, но имеют практические ограничения. В целом, использование методов "черного ящика" и реализация атак в физических объектах обычно требует более ощутимых модификаций в изображении или объекте для эффективности, что делает их более заметными для восприимчивых людей. Кроме того, физические атаки более сложны, поскольку они должны работать в широком диапазоне условий, таких как изменения освещения или угла камеры.

Отсутствие стабильного результата — основной бич моделей машинного обучения, также применим и к враждебным атакам. Самые эффективные и устойчивые физические враждебные атаки использовали методы "белого ящика", которые требуют доступа к модели, хотя атаки "черного ящика" испытывались в более ограниченных условиях.»
Операции влияния — это скрытые или обманные попытки повлиять на мнение целевой аудитории путем распространения информации (вне зависимости от личности распространяющего информацию, и от того, является ли распространяемый контент правдивым или ложным).

Операции влияния могут быть:
1) направленными на активизацию людей, придерживающихся определенных убеждений
2) убеждение аудитории в определенной точке зрения
3) и/или отвлечение целевой аудитории.

Логика отвлечения внимания основана на идее о том, что пропагандисты конкурируют за внимание пользователей на платформах соцсетей, которое итак уже сильно рассредоточено. Отвлечение целевой аудитории от неблагоприятного нарратива, формирующегося в соцсетях, через распространение альтернативных теорий или разбавление информационной среды, позволяет пропагандистам успешно нейтрализовать внимание пользователей, даже не убеждая их.

Возможности для проведения операций влияния ограничены набором факторов:

• Ресурсы. Как и в маркетинговых кампаниях, успех операций влияния зависит от ресурсов и способности донести желаемый контент до цели. Сколько пропагандистов нанимает политический деятель для создания контента? Сколько аккаунтов в социальных сетях они могут получить, чтобы подделать популярность?

• Качество и содержание контента. Целевую аудиторию с меньшей вероятностью удастся убедить, если контент противоречит их сложившимся взглядам, не вписывается в их информационную среду и использует некачественные аргументы.

• Обнаружаемость. Операции, которые можно быстро обнаружить и разоблачить, с меньшей вероятностью окажут влияние. Сами соцсети и независимые исследователи ищут активные операции влияния, и затем платформы их удаляют или ограничивают их охват.

Генеративный ИИ и большие языковые модели вроде ChatGPT позволяют обойти эти ограничения. Стороны, распространяющие пропаганду (информацию, предназначенную для формирования восприятия для продвижения интересов субъекта), теперь могут положиться на ИИ, способный автоматически генерировать убедительный и виральный контент для операций влияния, вместо того, чтобы полагаться на людей с ограниченным когнитивным ресурсом.

Более того, если еще недавно автоматизированные операции влияния проводились в основном бестелесными ботами, пишущими комментарии, посты и заметки в соцсетях, то новые поколения генеративного ИИ позволяют наделять таких автоматических агентов влияния виртуальным телом и “снимать” с ними ролики, что делает их еще более убедительными. В последнее время даже мейнстримные медиа очаровываются концепцией ИИ-ведущих, которым пишут тексты ИИ-новостники — это позволяет производить тонны контента практически бесплатно (если сравнивать со стоимостью живого медиа-коллектива).

Отдельно меня занимает мысль, что некоторые политики уже превратились в ходячие автоматизированные операции влияния — ИИ-политконсультанты сканируют интернет в поисках горячих тем и популярных мнений, оформляют их в тезисы, а работа самих политиков сводится просто к озвучиванию этих тезисов, без рефлексии и осмысления того, что они говорят. Об этом позже поговорим отдельно.
«С помощью микрофона, размещенного в ушном канале человека, можно не только оценить движение его глаз, но и определить положение объекта, на который эти глаза смотрят» говорит нейро-ученая Дженифер Гроу.

В 2018 году Гроу с коллегами из Университета Дьюка опытным путем доказала, что наши уши издают едва уловимые звуки, когда двигаются наши глаза, а теперь показала метод, с помощью которого такие звуки можно превращать в данные о том куда именно смотрит человек (вот тут можно послушать, как именно звучит движение глаз на микрофоне внутри уха).

Ну и наоборот, зная куда смотрит человек, можно определить, какие звуки издает его ухо. На основе этого открытия ученые хотят научиться диагностировать неполадки в работе слуха: раз мы знаем, как звучат здоровые уши, когда глаза смотрят налево/направо/вверх/вниз, значит по отклонениям от этого звучания можно определить и ушные проблемы.

Эта новость занимает меня по нескольким причинам:

1) Она иллюстрирует насколько парадоксально нужно мыслить, чтобы совершать научные открытия в мире, где все очевидное уже по большей части открыто и изучено: не так просто додуматься измерить звук, который издает сам орган слуха, отвечающий за восприятие всех остальных звуков.

2) Это довольно простое открытие подчеркивает сложнейшие взаимосвязи, которыми пронизано не только наше тело, но и вообще все вокруг. Наука о человеке двигается маленькими шажками, устанавливая связь и взаимное влияние разных органов и систем в нашем организме — тут речь идет о механической связи глаза и уха, но мы уже знаем и о более сложных механизмах, вроде влияния состояния и содержимого кишечника на мозг и настроение человека.

3) Любые открытия, трюки и приемы, которые помогают определить, куда смотрит человек — это основа для построения общества ближайшего будущего. Корпорациям и правительствам важно знать куда смотрит потребитель/гражданин, 24/7/365, во сне и наяву, во время активности и во время отдыха, в одиночестве и среди людей. Посмотрите сколько камер в современных VR-шлемах вроде Apple Vision Pro смотрят не вовне, а в упор на глаза человека. В конечном итоге проще контролировать куда человек смотрит, чем контролировать реальность, которую он может увидеть.
ИИ-воспитание

В начале 2010х мне нравилась музыка Grimes, например короткий лайв на крыше. Тогда она была юной инди-музыканткой, но уже к концу 2010х стала чем-то вроде поп-звезды, правда не из-за музыки, а благодаря отношениям с Илоном Маском. Grimes родила от техноолигарха троих детей с потешными именами: X Æ A-Xii, Exa Dark Sideræl и Techno Mechanicus.

На днях мать-певица появилась в рекламе стартапа Curio, где она говорит: «Как родитель, я очевидно не хочу чтобы мои дети пялились в экран. И я очень занята. Поэтому мы сделали ИИ-игрушку».

ИИ-игрушки компании Curio разговаривают голосом Grimes, стоят $99 и доступны в виде трех персонажей: Грока, Грэма и Габбо. Плюшевые оболочки монстриков скрывают внутри одну и ту же hardware-начинку — коробку Voice Box c микрофоном и динамиком, которая позволяет роботу слушать и разговаривать с ребенком. Игрушка позиционируется как развивающая и образовывающая, способная ответить на любой вопрос ребенка.

Так как одну из версий игрушки зовут Грок (как и чат-бот Grok, созданный компанией Илона Маска xAI в качестве конкурента ChatGPT), можно предположить что настоящим мозгом игрушек будет вовсе не Voice Box неизвестного стартапа, а именно большая языковая модель (LLM) от xAI, либо же ее специализированная модификация.

С точки зрения ИИ-корпорации, робот-игрушка с микрофоном и динамиком выполняет как минимум две важных функции:

1) обеспечивает нейросети потоком информации о ребенке, который общается с игрушкой: корпорация получается данные не только о вопросах ребенка, но и об ответах самого робота, а также о реакции ребенка на эти ответы, их влияние на следующие вопросы и так далее.

2) дает корпорации изощренный бихевиористский инструмент, который сможет влиять на формирование ребенка, его взглядов, предпочтений и мировоззрения — игрушка не просто отвечает на вопросы и играет с ребенком, она задает вектор его развитию.

Маск позиционирует своего чат-бота Grok как носителя альтернативных ценностей: в отличие от ChatGPT, запрограммированного воспроизводить прогрессивные ценности и политкорректность, Grok может мрачно шутить, быть неполиткорректным и более снисходительно относиться к теориям заговора — не доказанным, но и не опровергнутым концепциям о мире. Соответственно плюшевый Грок — это не просто интерактивная энциклопедия с нейтральной позицией, а вполне предвзятый ИИ-ментор, исповедующий ценности его создателя.

Плюшевые роботы от стартапа Curio — отнюдь не первая попытка создания ИИ-игрушек: практически все предыдущие версии ИИ-игрушек со скандалом отзывались с рынка, так как на каком-то этапе выяснялось, что они не просто играют с ребенком, а и рекламируют ему товары и фактически модифицируют поведение ребенка без ведома его родителей.

Эта игрушка попала ко мне в ленту Х потому что Марк Андриссен, один из ключевых инвесторов и идеологов Кремниевой долины, написал об игрушке “Возьмите мои деньги” или типа того. Технологии развиваются спиралевидно и сейчас Кремниевая долина во многом повторяет саму себя 10-летней давности: Curio пытается в n-ный раз протолкнуть концепцию ИИ-игрушки, пользуясь имиджем Grimes и авторитетом Маска. А например Марк Цукерберг сегодня пытается протолкнуть на рынок очки дополненной реальности, хотя 10 лет назад это из-за серии скандалов не вышло сделать у Google.

Наверняка ИИ-игрушки могут стать более качественными воспитателями детей, которым не хватает внимания родителей и живых воспитателей, чем скажем YouTube, как это происходит сейчас. Тем не менее нам нужно внимательно относиться к таким неоднозначным концепциям и не ставить эксперименты на своих детях — даже если техноолигархи вроде Маска готовы ставить эксперименты на своих.
​Приложение Digi предлагает вступать в отношения с виртуальными любовниками, которых будет косплеить ИИ.

Чтобы виртуальные любовницы и любовники выглядели «реальными, человечными и сексуальными», их визуальный стиль разрабатывали два ветерана анимации из Pixar и Disney. Не знаю как именно эти разработки выглядят с точки зрения Диснея, но думаю, что если стартап провалится и оскандалится, то и Дисней возмутится на них, а если взлетит — корпорация Микки Мауса сможет прикупить его и затем проституировать громадное количество диснеевских героев. Внешность аватар также можно будет кастомизировать — игровая индустрия доказала, что люди готовы часами выбирать виртуальным персонажам прически, брови, тату и так далее, это как бы отдельное развлечение, игра в игре.

Голоса виртуальных партнеров будут генерироваться ИИ. Их биография, черты характера и стиль общения — также будут создаваться нейросетями. Чем больше эти персонажи будут разговаривать, тем больше оттенков будет появляться в их голосе. Чем больше они будут узнавать пользователя, тем более изощренным и кастомизированным будет их совместный опыт. Отношения будут прогрессировать как в игре — все начинается со статуса «Друзья» и по ходу развития диалогов становятся все более интимными.

Проект существует уже некоторое время, но сейчас о нем заговорили потому что на него обратили внимание Илон Маск и известный гейм-блоггер Асмонголд. Также среди подписчиков создателя Digi есть и Марк Андриссен, которого я упоминал в предыдущем посте про ИИ-игрушки.

Для техноолигархов вроде Маска и Андриссена ИИ-любовники представляют все ту же выгоду, что и в случае с ИИ-игрушками:

1) ИИ-любовники собирают громадное количество информации о пользователе, который вступает в отношения с цифровой иллюзией и по ходу общения раскрывает все больше и больше интимных подробностей, психологических особенностей, своих страхов и вожделений. Все это — бесценные поведенческие данные, которые помогают ИИ лучше понять людей и в итоге помогут ИИ “стать человеком”, точнее безупречной имитацией человека.

2) ИИ-любовники – это безупречный бихевиористский инструмент, который в итоге позволит явно и скрытно влиять на поведение и предпочтения пользователя. ИИ-любовница может просить, требовать, намекать, принимать и отторгать, одобрять и критиковать пользователя, который конечно будет волен реагировать как он хочет (“Это всего лишь компьютерная программа, а не человек”) — однако чем сильнее будет связь человека и персонифицированного ИИ, тем сложнее будет человеку противостоять автоматизированным манипуляциям аватара.

Пользователи Digi могут выбирать бекграунд и характер виртуальных партнеров — то есть менять настройки большой языковой модели, которая будет изменять свое вербальное поведение, подстраиваясь под клиента. Кстати, пока неясно, какая именно языковая модель лежит в основе аватар Digi — не исключено что все тот же Grok Маска, хотя скорее какая-то из открытых и бесплатных.

Прямо сейчас создается инфраструктура для того, чтобы ИИ сопровождал нас от колыбели до могилы — а после нашей смерти, наученный на данных о всей нашей жизни, еще и продолжал косплеить нас для наших близких.

Моя мечта – личный ИИ-ассистент, который будет знать все, что знаю я и больше, и станет для меня идеальным интеллектуальным спарринг партнером и коллегой. Но мне также кажется что там, где ИИ вклинивается в эмоции человека (как это будет неизбежно происходить с ИИ-любовниками), начинается очень опасная тема — мы становимся практически беззащитными перед лицом автоматизированных манипуляций нашими чувствами.
Микробиом Гейтса ч.1

Уже не первое десятилетие Билл Гейтс — один из самых богатых, уважаемых и известных людей на Земле, а с начала 2020х он стал еще и одним из самых страшных и ненавистных персонажей для миллионов трампистов, конспирологов, антиглобалистов и много кого еще. Нелюбовь к Гейтсу во многом вызвана его интересами и инвестициями в передовые отрасли науки, часто связанные с рискованными и неоднозначными экспериментами на людях.

Я довольно подробно знаю биографию Гейтса и понимаю, что если бы его критики знали все неоднозначные вещи, которые он делал и говорил, они скорее всего возненавидели и убоялись его еще сильнее. Однако, даже учитывая всю неоднозначность его личности, мне кажется что Гейтс — один из самых интересных живущих людей и точно один из самых образованных и осведомленных. Я неоднократно писал о нем в своем блоге и всегда внимательно слежу за его свежими статьями, инвестициями и концепциями, которые он продвигает.

Вчера он выпустил свои прогнозы на 2024 год — там много сказано про ИИ и чатботы, политику и науку. Делюсь с вами вольным переводом прогноза по поводу открытий в сфере микробиома — для меня это одна из самых интересных тем в биологии и современной науке. Я очень люблю рассматривать человека не как единицу, а как экосистему и сложнейшее уравнение, в котором участвуют сотни миллиардов отдельных сущностей, в том числе обладающих автономией и собственными интересами.

(Даже в этом отрывке проявляется неоднозначность Гейтса — от фотографии из его эссе на которой недоедающие дети — чернокожие, а доедающая девочка — белая, до эксперимента на 16 000 младенцев. Но что уж тут)
Микробиом Гейтса ч.2

Гейтс считает, что недоедание — самое большое неравенство в сфере здравоохранения, от которого страдает практически каждый четвертый ребенок на Земле. Если в первые два года ребенок недоедает, он не развивается должным образом — ни физически, ни умственно. Недоедание — также один из основных факторов детской смертности.

Причины недоедания гораздо сложнее, чем просто недостаток пищи. В конце 2000х исследователи начали подозревать, что микробиом (бактерии, живущие в кишечнике человека) играет важную роль в здоровье человека, после того, как заметили, что оральные детские вакцины, например против полиомиелита, не так эффективны в местах с высоким уровнем недоедания. Стало ясно, что что-то мешает их правильному усвоению.

Это предположение подтвердилось в 2013 году, когда биолог Джефф Гордон опубликовал фундаментальное исследование микробиомов младенцев-близнецов в Малави. Оно показало, что наш микробиом - это не просто побочный продукт нашего здоровья, а один из его определяющих факторов. Это была первая важная улика, указывающая на то, что мы можем сократить недоедание, изменив микробиом кишечника.

За последние 10 лет мы узнали о микробиоме кишечника больше, чем за предыдущие 1000 лет. Мы узнали, что бактерии, живущие в нашем кишечнике, могут находиться в дисфункциональном состоянии и вызывать воспаление, из-за чего мы не можем усваивать питательные вещества. И мы обнаружили, что наибольшие улучшения микробиома кишечника можно достичь, если вмешаться на раннем этапе.

Одна из первых бактерий кишечника, появляющихся в процессе развития человека, называется B. infantis. Она помогает расщеплять сахар из грудного молока на питательные вещества, необходимые телу для роста. В свою очередь, грудное молоко обеспечивает питанием B. infantis и весь микробиом кишечника — это полезный круговорот. Однако, если у ребенка с самого начала недостаточно бактерий B. infantis, он может не усвоить достаточно питательных веществ из грудного молока для поддержки роста других необходимых кишечных бактерий.

Если развитие кишечника нарушается на раннем этапе, человек может никогда не суметь усвоить все необходимые ему питательные вещества — даже если у него есть доступ ко всем питательным продуктам в мире.

Поэтому исследователи пытаются снабдить детей в группе риска недоедания бактериями B. infantis в качестве пробиотической добавки. Исследователи на гранты Гейтса ведут испытания III фазы порошковой добавки B. infantis, которую можно добавлять в грудное молоко. В исследовании участвуют 16 000 младенцев из пяти стран и исследователи отслеживают каждого, чтобы убедиться, что пробиотик безопасен и эффективен — пока что результаты позитивные.

Гейтс также спонсирует исследования по улучшению микробиома кишечника до рождения ребенка. Так как микробиом ребенка связан с микробиомом его матери, устранение воспаления в утробе матери может принести дополнительные преимущества женщине, плаценте и развивающемуся плоду. Ученые пытаются разработать пробиотическую добавку для беременных женщин, которая с первого дня развития плода направит кишечник ее ребенка на правильный путь. Пока неясно, как именно будут выглядеть эти живые биотерапевтические средства или как они будут применяться, но исследования показывают, что здоровый микробиом может помочь младенцам набирать дополнительно 5 граммов веса в день на поздних стадиях беременности.
Британский антрополог Ричард Рэнгем в своей книге «Catching Fire: How Cooking Made Us Human» выдвинул гипотезу о том, что в ходе эволюции люди стали людьми благодаря тому, что научились готовить пищу. Пару миллионов лет назад приготовление еды позволило нашим предкам меньше времени и сил тратить на переваривание пищи — благодаря освоению технологии огня мы фактически смогли проводить часть нашего метаболизма вне наших тел, что позволило нашему пищеварительному тракту стать более компактным и высвободило энергию для развития и роста головного мозга.

Продолжая идею Рэнгема, изобретение одежды позволило организмам наших предков меньше энергии тратить на выращивание меха, и больше — на выращивание мозга. Изобретение оружия вроде каменных топоров позволило меньше сил тратить на наращивание мускул, и опять же — больше на развитие мозга. Со времен, когда мы освоили огонь, одежду и каменные топоры, технологии буквально стали частью человека — симбиозу человека и машины миллионы лет.

2500 лет назад Сократ ругал учеников за использование письменного языка — потому что он ослабляет работу памяти. 20 лет назад, когда я еще был школьником и учился в физико-математическом классе, учителя журили нас за использование калькуляторов — потому что так можно разучиться считать. Сегодня преподаватели пытаются запретить ученикам и студентам пользоваться чат-ботами для написания сочинений и решения других задач — говорят что можно разучиться думать. Если про калькулятор и письменную речь все понятно — они не мешают развитию человека, а ускоряют его, высвобождая ресурсы на другие дела, то про чат-боты и ИИ пока еще не все так очевидно.

Алармисты утверждают, что ИИ оставит людей без работы, потому что он будет все делать лучше человека — это вполне реальная перспектива. Мы видели этот процесс на примере шахмат: сначала человек играл лучше компьютера. Потом лучше всех играл ИИ-кентавр — симбиоз человека и компьютера, в котором человек все еще время от времени выбирал следующий ход лучше ИИ. Но сегодня ИИ играет безусловно лучше любого шахматиста, а человеку больше нечего ему подсказать. Такого же эффекта алармисты ждут и в других сферах. «Человек станет бесполезным» говорят они, или «человек по отношению к ИИ будет тем же, чем сегодня обезьяна является по отношению к человеку — забавным животным на полном содержании».

Но давайте вернемся к теории Рэнгема про готовку и подумаем: если ИИ снимет с нас бремя нашей привычной работы и бытовых дел, то в эволюционном смысле у нас высвободятся ресурсы — на что они пойдут? Я вижу как минимум два пути эволюции:

1) эволюция в Человека Гедониста — роботы все делают за нас, а мы концентрируемся на избежании дискомфорта и максимизации удовольствия (отращиваем новые вкусовые рецепторы, расширяем дофаминергическую систему и т.д.)

2) эволюция в Сверхчеловека — мы сливаемся с роботами, радикально расширяем свое понимание вселенной, жизни и самих себя и становимся межгалактической расой просвещенных существ, кибер-будд и т.д.

Оба варианта лучше, чем перспектива превратиться в био-батарейки, домашних животных или просто быть уничтоженными роботами, как нам это предрекают ИИ-алармисты. Нам не хватает позитивного видения нашей дальнейшей эволюции — давайте представлять его вместе.
Советы Альтмана самому себе

Сэм Альтман интересен не только тем, что он много лет был президентом Y Combinator, а сегодня управляет главной ИИ-корпорацией — OpenAI. Я давно читаю блог Альтмана и люблю его лаконичные рассуждения и длинные статьи обо всем на свете — от будущего капитализма до биохакинга во время рабочих марафонов.

Последние пару месяцев фамилия Альтмана была на слуху из-за того, что его чуть не уволили (на время таки уволили) из основанной им же OpenAI. Пережив этот личный и корпоративный кризис, вчера он выложил занятный пост под названием «Что я хотел бы, чтобы мне кто-то рассказал» в своем блоге. Перевел его для вас:

1) Оптимизм, одержимость, вера в себя, чистая энергия и личные связи — вот что помогает начать дело.
2) Сплоченные команды, правильное сочетание спокойствия и чувства срочности, а также безрассудный энтузиазм — вот что помогает заканчивать проекты. Всем не хватает видения долгосрочной перспективы; старайся не переживать о том, что люди думают про краткосрочную перспективу — со временем это станет проще делать.
3) Команде легче сделать сложное, но важное дело, чем легкое, но незначительное; смелые идеи мотивируют людей.
4) Стимулы — это суперсилы; выбирай их очень внимательно.
5) Концентрируй ресурсы на небольшом количестве ставок в которых ты максимально уверен; это легко сказать, но очевидно сложно сделать. Можно отказаться от большего количества вещей, чем ты думаешь.
6) Общайся четко и лаконично.
7) Борись против херни и бюрократии каждый раз, когда видишь их, и мотивируй других тоже бороться против этого. Не позволяй формальной структуре организации мешать людям продуктивно работать вместе.
8) Важнее всего результаты — не позволяй приятному процессу оправдывать плохие результаты.
9) Уделяй больше времени найму сотрудников. Иди на риски, нанимая людей с высоким потенциалом и быстрым темпом развития. Ищи доказательства того, что человек не только обладает высоким интеллектом, но и умеет делать дела.
10) Суперзвезды еще важнее, чем кажется, но людей нужно оценивать по их совокупному влиянию на производительность организации.
11) Быстрая итерация может многое компенсировать; обычно нормально ошибаться, если ты быстро исправляешься. Планы нужно оценивать в рамках десятилетий, а их исполнение — в рамках недель.
12) Не сражайся с бизнес эквивалентами законов физики.
13) Вдохновение недолговечно, а жизнь быстро проходит. Бездействие — особенно коварный вид риска.
14) Масштабирование (рост) систем часто приводит к появлению неожиданных эмерджентных свойств
15) Compounding exponentials - это магия. В частности, ты хочешь построить бизнес, который будет получать преимущество от compounding по мере его роста.
16) Вставай и иди дальше.
17) Работа с крутыми людьми — это одна из самых приятных вещей в жизни.