Изменить стиль страницы

Но, будучи антропологами, Белл и Зафироглу считали, что ничто не является просто "беспорядочным" или неважным. То, что мы считаем неловким, является показательным. Изображение на пластиковом листе свидетельствовало о двух вещах. Во-первых, люди "использовали свои автомобили для обеспечения не только физической, но и социальной безопасности", сохраняя символы и ритуалы, разграничивающие их территорию. «Например, в Малайзии и Сингапуре мы с удивлением обнаружили, что люди хранят в своих автомобилях пакеты ang pow (счастливые конверты с деньгами, которые дарят на китайский Новый год) круглый год». Во-вторых, водители автомобилей использовали технику не так, как ожидалось или планировалось. Инженеры установили в автомобили "встроенные системы голосовых команд", чтобы снизить вероятность отвлечения от вождения, и легкомысленно предположили, что это новшество будет использоваться. Потому что, когда водителям задавали прямые вопросы об этой технологии, они отвечали, что используют ее. Но когда антропологи наблюдали за тем, что делают водители на самом деле, а не за тем, что говорят, они увидели, что, когда водителям становится скучно в пробке, они достают свои личные карманные устройства и используют их, а не системы голосовых команд, которые так любовно разрабатывали инженеры. Риторика расходилась с реальностью.

Белл призвал инженеров принять эту модель, а не просто игнорировать или высмеивать ее. Вместо того чтобы предполагать, что водители будут просто использовать устройства, уже установленные в автомобиле, Белл предложил инженерам разработать продукты, которые позволят потребителям синхронизировать свои персональные устройства с автомобилем. В этом заключался более важный урок: раньше инженеры были склонны начинать с инновационной идеи и навязывать ее другим; антропологи же призывали их начать с того, чтобы посмотреть на мир глазами пользователей, во всем их многообразии, и отреагировать на это. Или, как сказала мне Белл в Музее компьютерной истории, урок, который она постоянно пыталась преподнести, заключался в следующем: "Это может быть ваше мировоззрение, но это не мировоззрение всех!". Это было просто сказать, но мучительно трудно запомнить.

К 2015 году фокус группы социальных наук сместился. Когда Белл только пришел в компанию, исследовательская группа большую часть своего времени посвящала изучению того, как потребители реагируют на технологические артефакты, такие как компьютеры, и как они могут вписаться в жизнь людей. Это перекликалось с тем, как интеллектуальные потомки Малиновского, Мида и Боаса изучали взаимодействие между людьми, артефактами, ритуалами, пространством и символами. Однако с наступлением XXI века, когда киберпространство стало занимать все более доминирующее положение, акцент сместился в сторону сетей. Машины перестали быть просто пассивными объектами. Это были интерактивные устройства, практически обладающие способностью к самореализации. Это поставило перед антропологами новые вопросы: Что делать людям, когда машины начинают обладать собственным "интеллектом"? Можно ли запрограммировать культуру в ИИ? Должны ли антропологи изучать интеллектуальные машины как нового "другого"? Как они могут исследовать сети, а не только "вещи" и людей? "То, что сейчас предлагает антропология, - это не просто изучение пользовательского опыта. Речь идет о целостном взгляде на технологию, например, о том, какие ограждения нам нужны для этичной разработки продуктов", - утверждает Шерри. Или, как заметил Андерсон: "Антропология начиналась как изучение «человека" [sic] как животного, в эволюционных и сравнительных рамках. Сегодня новые проявления искусственного интеллекта заставляют нас задуматься о том, что значит быть человеком или нечеловеком. Это выводит ... антропологию за пределы человека». Это породило множество новых вопросов и для инженеров. Мы переходим от менталитета инженеров, которые просто спрашивают, что технологически возможно спроектировать, к миру, в котором мы говорим: "Что мы должны спроектировать?". заметил Лама Нахман, главный научный сотрудник компании Intel. "Это совершенно разные вещи. Для этого нам необходимо рассмотреть социальный контекст".

Поэтому антропологи начали изучать "паутины смысла" вокруг ИИ. Это позволило выявить несколько тонких, но поразительных различий. Например, в Германии оказалось, что потребители с радостью соглашаются на использование искусственного интеллекта в устройствах для ухода за пожилыми людьми на дому, но только при условии, что данные с этих устройств не будут передаваться за пределы дома. Исследователи полагают, что это связано с народными воспоминаниями о прошлой государственной слежке. В Америке, напротив, меньше внимания уделялось тому, будут ли данные, собранные устройствами с искусственным интеллектом, распространяться внутри или вне дома, и больше беспокойства вызывал вопрос о том, будет ли у потребителей "власть" над машиной.

Один из наиболее ярких и чувствительных фрагментов исследования был связан с использованием технологий распознавания лиц в Китае и Америке. Андерсон возглавлял эту работу в составе группы из четырех человек. Это было далеко от тех исследований, которые он проводил в качестве академического антрополога среди традиционных музыкантов на Азорских островах. Однако подход был схожим: терпеливое наблюдение и выслушивание, без предварительных предположений. Проект базировался на полудюжине объектов. Четыре объекта находились в Китае, в основном в городе Ханчжоу, включая торговые и офисные комплексы, а также несколько школ, которые были описаны под псевдонимами "Средняя школа X" и "Средняя школа Z". Два объекта находились в Америке и были описаны под псевдонимами "Святой Николай Мирликийский", частная католическая школа с дошкольного по 8-й классы в джентрифицированном городском районе, и «Департамент шерифа округа Рок». В течение нескольких лет антропологи посещали объекты и наблюдали за тем, как используются технологии распознавания лиц и системы искусственного интеллекта.

Некоторые из наблюдений не вызвали особого удивления. В американских местах группа наблюдала чувство "моральной паники" вокруг ИИ, которое перекликалось с тоном западных СМИ, предупреждавших, что эти технологии угрожают основным американским ценностям, таким как частная жизнь и свобода. Однако, когда антропологи наблюдали за тем, что люди на самом деле делают, а не говорят, они увидели столько же несоответствий, как и в случае с "бардаком" в машинах людей. "Директор школы Святителя Николая Мирликийского недавно установил систему распознавания лиц... чтобы следить за тем, кто входит и выходит из школы, - отметила исследовательская группа. Однако в школе следят только за взрослыми, а не за детьми, чтобы сделать это "безопасным" и "этичным", хотя на самом деле они пытаются обезопасить именно детей. Когда исследователи спросили, зачем школе вообще нужна система искусственного интеллекта, учителя заявили, что "система позволяет директору и секретарю идентифицировать и приветствовать каждого по имени, что, по их мнению, способствует формированию чувства общности... [и] позволяет убедиться, что дети в безопасности, счастливы, здоровы и святы". Однако никто не смог объяснить, как искусственный интеллект помогает детям быть "святыми". Аналогичным образом, в отделе шерифа округа Рок Андерсон обнаружил, что, хотя полиции было разрешено использовать "программное обеспечение для распознавания лиц в распределенной группе по раскрытию преступлений... руководящие принципы для отдела шерифа очень ясны в том, что видео не должно поступать с общественных камер города или округа, а только с частных жилых или коммерческих камер". Почему видеозаписи с камер жилых домов считаются приемлемыми, а с государственных камер - нет, осталось загадкой и для исследователей, и для полиции.

В Китае ситуация была иной. Группа исследователей обнаружила, что устройства распознавания лиц повсеместно используются в зданиях, магазинах, банках и школах, причем "настолько обыденно и незаметно, что [их использование] часто остается незамеченным как для пользователей, так и для исследователей, которые должны вести активное наблюдение за ситуацией". Например, в одном из случаев команда попросила женщину, с которой они работали, пройтись по системе распознавания лиц в ее доме. Она сделала это, но в такой непринужденной манере, что антропологам Intel пришлось просить ее повторить это действие снова и снова, поскольку взаимодействие с камерами распознавания лиц было настолько "нормальным", что трудно было заметить это взаимодействие вообще. В другом случае команда Intel попросила сопровождать китайца, чтобы он снял деньги в банкомате с функцией распознавания лиц, и столкнулась с той же проблемой. "Вы могли видеть, как он думает: "О, да, иностранцы считают, что распознавание лиц - это интересно? Неужели это мошенничество, чтобы забрать мои деньги? Нам также пришлось трижды просить его войти в систему, чтобы поймать процесс".

У американских наблюдателей эта ситуация должна была вызвать ужас, не в последнюю очередь потому, что в 2017 г. появились сообщения о том, что китайское правительство использует средства слежения, в том числе систему распознавания лиц, для репрессий и нарушения прав человека уйгурского населения провинции Синьцзян. Многие американцы предположили, что китайские потребители должны втайне ненавидеть идею такой слежки, как это делали американцы. Однако команда Intel утверждала, что ошибочно полагать, что китайцы должны смотреть на вещи так же, как американцы. Они не претендовали на полное понимание того, что происходит в сознании и жизни китайцев, которых они изучали: их исследования были "неглубокими" по академическим меркам (относительно короткими), группа полагалась на переводчиков (поскольку Андерсон не говорил по-китайски) и знала, что работает в стране, где существует государственный контроль. "Снимки не дают полной картины - ее просто нет", - поясняется в отчете.