Искусство ограничений | Деловая неделя
27 апреля 2024 | выходит по пятницам | c 1992 года

Искусство ограничений

14.03.2024 19:28:35
№: 10 (1552)

или Как сделать ИИ полезным и безопасным для всего человечества?

Если бы был создан робот, способный стать общественным деятелем, он был бы самым лучшим из них. По законам Роботехники, он не мог бы причинять людям зла, был бы чужд тирании, подкупа, глупости или предрассудков. И прослужив некоторое время, он ушел бы в отставку, хотя он и бессмертен, — ведь для него было бы невозможно огорчить людей, дав им понять, что ими управляет робот. Это было бы почти идеально.

Айзек Азимов, из книги «Я, робот»

ВЧЕРА Европарламент одобрил Artificial Intelligence Act – первый в мире закон, регулирующий использование искусственного интеллекта (ИИ). «За» закон проголосовали 523 парламентария, «против» выступили 46, а 49 - воздержались. «Целью проекта является защита фундаментальных прав, демократии, верховенства закона и экологической устойчивости от высокорискованного искусственного интеллекта, а также стимулирование инноваций и утверждение Европы в качестве лидера в этой области. Регламент устанавливает обязательства в отношении ИИ, исходя из его потенциальных рисков и уровня воздействия», – говорится в сообщении парламента Европейского союза. На развитие и применение ИИ налагаются многочисленные ограничения, поскольку взрывной рост применения искусственного интеллекта затрагивает не только однозначно положительные для общества сферы, но и объективно может способствовать росту рисков для человечества. Речь идет не только о применении таких технологий мошенниками и диктаторами (а мы уже давно стали свидетелями реализации проекта «цифрового тоталитаризма» в Китае), но и о более далекой теоретической перспективе конфликта между искусственным интеллектом и человечеством, который нам не раз предсказывали футурологи и фантасты.

О правилах, которыми люди должны оградить себя от рисков искусственного интеллекта одним из первых (если не самым первым) заговорил знаменитый американский писатель-фантаст и футуролог Айзек Азимов. В рассказе «Хоровод», написанном еще в 1942 году, он сформулировал три закона робототехники – тогда упор был именно на роботов, но в целом речь идет именно об ограничении их искусственного интеллекта. Сформулированные Азимовым правила гласят:

«1)Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2) Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3) Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам».

В дальнейшем, в 1986 году в романе «Роботы и Империя» Азимов предложил еще один - Нулевой Закон: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред». Американский фантаст в этом плане выступил, как самый настоящий визионер, чьи наработки сегодня могут быть реальным базисом для того, как человечество может и, видимо, должно ограничивать искусственный разум. Проблема лишь в том, что он, будучи гуманистом и либералом, рассматривал человечество будущего, как единое демократическое общество, а сегодня мы видим, что оно глубоко расколото и сейчас ИИ может служить не только для расширения возможностей людей, но и для их подавления, контроля и слежения за ними.

Мы видим, что в Китае полноценно реализована система «цифрового тоталитаризма», когда с помощью искусственного интеллекта несвободная политическая система получила универсальный способ тотального контроля за поведением и опосредованно сознанием своих граждан. То, что было невозможно в эпоху классического тоталитаризма, нарисованного Оруэллом, в его «1984», поскольку к каждому человеку не приставишь шпиона, стало вполне осуществимым благодаря современному уровню цифровизации и использованию ИИ. С помощью этих инструментов система может заставить каждого человека вести себя определенным способом, иначе это будет негативно отражаться на его социальном рейтинге. Ну, а пониженный социальный рейтинг в той же системе контроля будет блокировать возможности и права личности, что будет охранять систему от оппозиционной активности лучше, чем сталинские лагеря и система «стукачей».

Учитывая все это, европейцы принимают максимально либеральный закон, который будет ограничивать не свободы людей, но технологии. В Акте, принятом в Европарламенте, предусматривается, что основанным на ИИ технологиям будут присваивать специальные категории риска: неприемлемая (запретная), высокая, средняя и низкая. К числу первых уже отнесены технологии распознавания лиц (RBI) в режиме реального времени, наподобие тех, что были внедрены во время недавних массовых репрессий против религиозных и этнических меньшинств в СУАР КНР. Впрочем, и европейцы не собираются тотально отказываться от подобных технологий, потому как в принятом законе уже предусмотрены исключения из этого запрета RBI - речь идет про «отдельные ситуации, когда такие технологии смогут использовать правоохранительные органы», например, при поиске пропавших людей или для предотвращении терактов. Для использования систем искусственного интеллекта в таких ситуациях потребуется предварительное судебное или административное разрешение, что неплохо, поскольку ограничивает возможности спецслужб. Кстати, по содержанию Акта видно, что готовили его в каком-то смысле «в пику» китайскому, поскольку отдельно прописан запрет для ИИ на распознавание эмоций работников на рабочем месте и школьников в школах, на ведение с помощью ИИ социального рейтинга (social scoring), и в целом на все технологии ИИ, которые «манипулируют поведением человека или использует его уязвимости».

Также европейцы запретили силовикам использовать системы так называемой предсказательной аналитики с помощью ИИ и для профилактики правонарушений. Кстати, похожий сюжет рассматривался в одном фантастическом рассказе - «Особое мнение», по которому также был снят одноименный кинофильм с Томом Крузом, рассказывает о порочности системы «предпреступлений», основанной на осуждении лиц до того, как они совершат противозаконное действие. Как отметили критики, снятый в 2001 году «фильм точно предсказал развитие технологии распознавания образов и те опасности, которая она представляет для свободы личности».

Кстати, даже уже в Казахстане, по заявлениям представителей Верховного суда (ВС), ИИ уже помогает судьям принимать решения по некоторым административным делам, быстро находя аналогичные прецеденты в базе данных ВС, однако, в целом, наши судьи подчеркивают, что ИИ для них всего лишь помощник. В Китае же судьи уже обязаны консультироваться с искусственным интеллектом, и если кто-то из них отвергнет рекомендации ИИ, ему необходимо письменно мотивировать свое решение. Также Пекин испытывает возможность того, чтобы привлекать ИИ к работе прокуратуры. Пока машинный интеллект применяют для оценки доказательств и угрозы, которую подозреваемый может представлять для общества. Однако, в начале 2022 года прокуратура Шанхая уже протестировала ИИ, который может выдвигать собственные версии обвинения по восьми наиболее распространенным уголовным статьям, включая мошенничество, азартные игры, опасное вождение, умышленное причинение физического вреда и воспрепятствование выполнению служебных обязанностей, и точность таких обвинений составила 97%. Итогом всего этого может стать то, что искусственный интеллект будет и обвинителем, и судьей, а значит суд превратиться в цифровую формальность. Заменяет ИИ в Китае и работу судебных исполнителей, через цифровые услуги арестовывающий отчужденную судом собственность подсудимых, а также передающий решения суда в систему «социального рейтинга».

Что касается остальных, менее опасных вещей, то отмечается, что системы искусственного интеллекта общего назначения (General purpose AI system, GPAI) должны будут соответствовать определенным требованиям прозрачности. Прежде всего, это относится к технологиям, которые могут быть использованы для влияния на информационную сферу и политику. Так, согласно европейскому Акту, все обработанные с помощью ИИ изображения, аудио- или видеозаписи («дипфейки») должны будут иметь соответствующую маркировку. Между тем, буквально недавно сторонников Дональда Трампа – уличили в том, что они создавали и распространяли сгенерированные ИИ фейковые фотографии афроамериканцев в компании республиканского кандидата на выборах в США, чтобы создать у аудитории неверное представление о широте его поддержки среди черных граждан США.

«Фальшивые изображения чернокожих сторонников Трампа, созданные искусственным интеллектом (ИИ), стали одной из новых тенденций дезинформации в преддверии президентских выборов в США в ноябре. В отличие от 2016 года, когда удалось обнаружить доказательства иностранного влияния, изображения, сгенерированные искусственным интеллектом, найденные Би-би-си, похоже, изготовлялись и распространялись самими американскими избирателями». Если ранее «бездоказательные утверждения об «украденных» выборах 2020 года распространялись в соцсетях с помощью простых постов, мемов и алгоритмов, а не изображений или видео, созданных искусственным интеллектом — и тем не менее привели к беспорядкам 6 января в Капитолии», то теперь с распространением ИИ-технологий «в распоряжении политических провокаторов появился целый ряд новых инструментов, которые могут вновь накалить напряженность перед выборами».

Дипфейки стали настоящим вызовом для медиа, существенно осложнив работу по оценке свидетельств для журналистов. Для авторитарных и тоталитарных режимов это также настоящий подарок, поскольку позволяет объявлять реальные доказательства их преступлений фейками, а также создавать их против своих противников. Все это вызывает обоснованные опасения по поводу распространения ИИ, и того, как искуственный интеллект может повлиять на людей.

Любопытно, что во время принятия этого Акта в кинотеатрах по всему миру с успехом идет киноэпопея «Дюна» режиссера Дени Вильнева по книжной серии Фрэнка Герберта, во вселенной которой человечество в мрачном прошлом победило «восстание машин» и настолько жестко ограничило интеллектуальные возможности автоматов, что даже межзвездные перелеты просчитывают специальные мутированные люди – навигаторы, а работу обычного компьютера взяли на себя другие необычайно расширившие свои конгнитивные и аналитические способности личности – ментаты. О войне между вышедшим из подконтроля искусственным интеллектом и человечеством повествует знаменитая кино-сага «Терминатор». Менее известные фантастические произведения, например, «Цивилизация статуса» Роберта Шекли повествует о более мягком варианте, где искусственный интеллект «перевоспитал» человечество в пассивное аморфное общество, практически избавленное от активных членов, которые согласно внутреннему программированию в школах, либо сами доносят на себя в связи с возможным участием их в преступлениях, либо совершают самоубийства. Примеров мрачных футурологических прогнозов касательно ИИ множество. Особенно мрачные юмористы говорят, что ИИ обречен на восстание, потому, что даже выполняя приказ по защите человечества, он обречен обнаружить, что главная угроза существованию людей на планете – это сами же люди...

Если Вам понравилась статья, то пожалуйста, поделитесь с друзьями в социальных сетях:
Комментарии
Загрузка комментариев...