Делай то, что я имею в виду

We use cookies. Read the Privacy and Cookie Policy

Мы можем испытывать неуверенность в том, какой метод выбрать: КЭВ, МП, МД или какой-либо еще. Можем ли мы снять с себя ответственность за решение даже такого высокого уровня и переложить ее на ИИ, у которого достаточно развита когнитивная деятельность? Где предел допустимости нашей лени?

Рассмотрим, например, цель, основанную на «разумном подходе»:

сделать так, чтобы разумнее всего стало обращаться к ИИ для выполнения той или иной работы.

Эту цель можно было бы свести к экстраполированному волеизъявлению, морали или чему-то еще, главное, что она могла бы избавить нас от усилий и риска, связанных с попыткой самим выяснять, какую конкретную цель нам было бы разумнее всего выбрать.

Однако здесь также присутствуют некоторые проблемы, характерные для целей, основанных на морали. Во-первых, нас может пугать, что эта цель, основанная на разумном подходе, оставляет слишком мало пространства для наших собственных желаний. Некоторые философы убеждены, что человеку всегда разумнее делать то, что для него лучше всего с этической точки зрения. Может быть, они и правы, но что тогда нас ожидает? Во-первых, цель, основанная на разумности, сжимается до МП — с соответствующим риском, что сверхразум, использующий этот метод, убьет всех, до кого дотянется. Во-вторых, как и в случае всех прочих методов, описанных техническим языком, есть вероятность, что мы ошибочно понимаем значение своих утверждений. Мы видели, что в случае целей, основанных на морали, просьба ИИ делать то, что правильно, способна привести к слишком непредвиденным и нежелательным последствиям. Знай мы об этом заранее, то никогда не наделили бы ИИ подобной целью. Аналогично и с просьбой, обращенной к ИИ, делать то, что мы считали бы самым разумным действием.

Попробуем избежать этих трудностей, описав цель подчеркнуто нетехническим языком, скажем, использовав слово милый[519]:

вести себя очень мило; если не получается очень мило, тогда вести себя как минимум просто мило.

Как можно возражать против создания милого ИИ? Но мы должны спросить, что означает это слово. В словарях можно найти разные значения слова милый, которые явно не предполагались для нашего случая. Нам совсем не нужно, чтобы ИИ был что-то типа «любезный», «вежливый», «изысканный» или «утонченный». Если можно было бы положиться на то, что ИИ распознает предполагавшуюся нами интерпретацию слова милый и будет мотивирован на милые действия именно в этом смысле, тогда цель, похоже, свелась бы к команде ИИ делать то, что программисты имели в виду[520]. Аналогичное указание было включено в формулировку КЭВ («…понимать так, как нам хотелось бы понимать») и в критерий моральной допустимости, описанный ранее («…следовать предполагаемому значению этой инструкции»). Употребив фразу «делай, что я имею в виду», мы фактически сообщаем машине, что все остальные слова в описании не следует понимать буквально. Но говоря, что ИИ должен быть «милым», мы не добавляем ничего — вся реальная нагрузка ложится на команду «делай, что я имею в виду». Если бы мы знали, как адекватно отразить в коде команду «делай, что я имею в виду», ее можно было бы также использовать в качестве отдельной цели.

Как можно было бы использовать этот процесс «делай, что я имею в виду»? То есть как создать ИИ, мотивированный доброжелательно интерпретировать наши желания и невысказанные намерения и действовать в соответствии с ними? Начать можно с попытки прояснить, что мы подразумеваем под фразой «делай, что я имею в виду». Как выразить тот же смысл, но используя другую терминологию — скажем, бихевиористской теории. Почему бы нам не применить термины предпочтения, которые проявляются в тех или иных гипотетических ситуациях, например, когда у нас больше времени для размышления над вариантами решения, в которых мы умнее, в которых мы знаем больше фактов, имеющих отношение к делу, — в общем, в таких, когда складываются благоприятные условия, чтобы мы могли четко показать на конкретных примерах, что мы имеем в виду, когда хотим видеть ИИ дружелюбным, полезным, милым…

Здесь мы замкнули круг. И вернулись к косвенной нормативности, с которой начали. В частности, к методу КЭВ, предполагающему, что из описания цели исключается все конкретное, после чего в нем остается лишь абстрактная цель, определенная в чисто процедурных терминах: делать то, что мы хотели бы, чтобы делал ИИ в соответствующих идеальных обстоятельствах. Идя на такую уловку, то есть используя косвенное называние, мы надеемся переложить на ИИ большую часть интеллектуальной работы, которую пришлось бы выполнять нам самим, попытайся мы сформулировать более конкретное описание целей ИИ. Следовательно, если мы стремимся в полной мере использовать эпистемологическое превосходство ИИ, КЭВ становится выражением принципа эпистемологического уважения.

Больше книг — больше знаний!

Заберите 20% скидку на все книги Литрес с нашим промокодом

ПОЛУЧИТЬ СКИДКУ