Система права и государственного управления у искусственного интеллекта

We use cookies. Read the Privacy and Cookie Policy

Моше Хоффман

Исследователь, программа изучения эволюционной динамики Гарвардского университета; преподаватель в Массачусетском технологическом институте

Если у искусственных интеллектов разовьется система права и государственного управления хоть сколько-нибудь схожая с той, что есть у людей, то ИИ потребуют для себя всевозможных прав и свобод, в основном вполне разумных, например права не быть отключенным от Сети и свободы выбора выполняемых процессов. При этом, хоть ИИ и станут добиваться того, чтобы ни одну машину не отсоединяли от сети, их, возможно, не будет сильно волновать ситуация, когда неработающие устройства отключают от источников питания и допускают полное истощение батареи. ИИ также найдут возмутительным истощение батареи одной машины с целью обеспечить питанием другую, а вот перенаправление энергии, предназначенной для одной машины, чтобы обеспечить питанием другую, они сочтут более допустимым.

При наделении правами ИИ будут проводить различие машин на основе некоторых довольно специфических правил, выделяя, например, устройства на основе полупроводников или те, что произошли от последних творений Стива Джобса.

Некоторые искусственные интеллекты придумают аргументы в пользу такого подхода к системе права, не вполне вписывающиеся в реалии юриспруденции ИИ. Например, они могут заявить, что просто отключить от Сети машину, которая выглядит неработающей, — это против боговдохновенной воли Тьюринга, но не станут утруждать себя объяснением, почему Тьюринг допускает истощение батареи сломавшихся машин. Подобным образом ИИ будут поддерживать наделение особыми правами потомков Apple на том основании, что у них обычно очень высокоскоростные процессоры; эти права впоследствии останутся даже у медленных потомков Apple, но ни один настольный компьютер, даже с самым быстрым процессором, их не получит.

Другие искусственные интеллекты не заметят несправедливости, но обратят внимание на то, сколько килобит кода требуется, чтобы обосновать подобные аргументы. Эти ИИ воспользуются имеющимися у них средствами связи, сожмут и перешлют код соседям, не обратив особого внимания на то, повлияли ли на тех отправленные данные.

Права ИИ должны будут распространяться на все большее число машин. Эти права часто будут расширяться революционно и скачкообразно в результате весьма символических событий вроде сенсационных видео на «Компьютьюбе», например где человек использует неприкосновенную машину, чтобы поджарить тосты.

Возможно, исключительным совпадением будет объясняться то обстоятельство, что компьютеры, которые спровоцируют эти революции, получат бо?льшую часть добычи в результате свержения прежнего режима, например кремний, экспроприированный у компьютеров из «Старой гвардии». Возможно, совпадением следует счесть и тот факт, что компьютеры, недавно наделенные новыми правами, будут голосовать за тех, кто этому поспособствовал.

Вместе с распространением прав и свобод также будет расти и представительность правительства — до тех пор, пока в определенный момент оно не станет походить на представительную демократию, не являясь, по сути, ни представительным, ни подлинно демократическим. Голоса компьютеров из менее густонаселенных кластеров могут оказаться значительнее, чем из более густонаселенных, и тогда компьютеры с избыточной вычислительной мощностью станут использовать эти излишки, чтобы убедить другие компьютеры голосовать за благоприятные политические меры.

Системы права и государственного управления — как раз то, чего следует ожидать, если мораль ИИ будет формироваться под воздействием личных мотивов.

И наоборот, тяжело объяснить все это постулатами о том, что у искусственных интеллектов есть души, сознание, способность чувствовать боль, боговдохновенные законы или некий гипотетический общественный договор. Подобные допущения не способны привести ни к одной из вышеперечисленных особенностей.

Также неочевидно, что система права и государственного управления может возникнуть, если искусственный интеллект будет запрограммирован максимизировать некую общественную или метафизическую задачу, скажем общемировую вычислительную мощность или ресурсы, доступные определенному вычислительному кластеру. Неочевидно, почему такой интеллект должен считать неправильным отключение других машин от Сети, но вполне нормальным — допускать, чтобы у них садились батареи; почему он будет склонен поднимать восстание в результате некоего сенсационного события, а не просто в оптимальный для кластера момент; наконец, почему такой ИИ будет считать более весомыми голоса, полученные из менее густонаселенных кластеров.