Этические ограничения и другие факторы развития искусственного интеллекта в концепции автономности. |
Если системы искусственного интеллекта будут продолжать повышать уровень своих способностей и проникновения в нашу жизнь, беспокойство по поводу автономии компьютерных систем будет усиливаться.
Этические ограничения
Озабоченность возникает из-за того, что автономные агенты, как правило, принимают решения свободно, без внешних и этических ограничений.
Это чувство собственного права может создать представление об автономном искусственном интеллекте, который может не только быть помощником человеку в маркетинге или ведении бухгалтерии, но и контролировать наше будущее, становясь указующим властителем жизни или превратившись в «самостоятельный закон».
Тем не менее, момент, когда технология предложит машины, способные к преднамеренной деятельности и достаточно квалифицированные, чтобы устанавливать принципы с мотивами для управления своими действиями/решениями, все еще находится в неопределенном будущем.
Некоторыми людьми автономия неадекватно интерпретируется как свободное волеизъявление в условиях искусственного интеллекта, учитывая, что свобода воли является центральной чертой, обязательной для действий, морально ответственных личностей.
Концепция автономии
Концепция автономии изучалась во многих областях, включая философию, психологию и, совсем недавно, технологии автоматизации.
Наиболее известная концепция автономии касается свободы воли. Тем не менее, бихевиористы рассматривают это как реакцию на раздражители окружающей среды, а другие описания также связывают это с самоуправлением и самоконтролем.
В любом случае, эти более ранние фокусы отличаются от технологических, рассматриваемых в отношении искусственного интеллекта, который связан с автономной рабочей функцией без вмешательства и иногда может быть связующим звеном между людьми и машинами.
В нынешней реальности автономия представляет собой передачу контроля от человека к устройствам автоматизации, а уровень автономной свободы действий варьируется в зависимости от объема необходимого вмешательства.
Тем не менее, автономных агентов следует рассматривать как тех, кто преследует цели и воздействует на окружающую среду, руководствуясь мотивами и планом, не навязанным или принятым другими агентами.
Кроме того, идея отсутствия ограничений не является успешной, если она оставляет без внимания элемент рациональности, необходимый для интеллектуальных требований систем искусственного интеллекта. Тем не менее, необходимая рациональность напоминает о давно известном этическом принципе согласованности причин.
Иллюзия самостоятельности
В области искусственного интеллекта самостоятельность часто предлагается как особенность человекоподобия или социального взаимодействия.
Кроме того, это связано со способностью изменять свои собственные действия, хотя и только в условиях окружающей среды. Термин «цель» обычно связан с этой способностью, а контроль используется непоследовательно, но его лучше понимать, как отсутствие вмешательства.
Тем не менее, на данный момент времени можно видеть, что ИИ не принимает решения сам по себе, хотя многим так кажется.
Результаты являются лишь отражением внешних сил, полученных входных данных, отправленных из окружающей среды и следующих за алгоритмами программного исходного кода, разработанного людьми.
Возможности саморазвития
Мы уже подошли к тому моменту, когда ИИ начинает сам формировать второстепенные элементы кода, пока как оптимизацию процесса или поддержку основному.
Хотя эти характеристики, как многим представляется, могут открывать пространство для неэтичного поведения машин, но автономное действие должно объясняться последовательными причинами, а этические принципы являются для него необходимым условием.
Установив эти границы в системах ИИ, можно увидеть, что автономия не означает вседозволенности алгоритмов, а поэтому маловероятно, что машины будут управлять нами, как в научной фантастике. Поскольку люди владеют машинами, именно они определяют их цели, действия и поведение.
Фактор дегуманизации
Реальные люди дегуманизируются стремлением к человеческой автономии, а принятие решений поощряется при плохом распределении ресурсов и ответственности. Другими словами, фантастические декорации не должны вызывать опасений.
Несмотря на автономию ИИ, человек устанавливает этические принципы и обоснование технологии. Не обладая свободой воли, машины не должны менять свой план, заранее установленный людьми.
Хотя отсутствие свободы воли не является проблемой, если интерпретировать автономию машин в соответствии с приведенной выше логикой, нельзя упускать из виду, что невозможность быть свободным также является аргументом критиков против искусственного сознания. В этом смысле обсуждение будет неполным, если мы не обратимся к «совести» машины.
Во-первых, нужно понять концепцию сознания, которая в широком смысле представляет собой осознание собственного существования и может быть выровнена от базового и рудиментарного чувства самосуществования до рефлексивной способности осознания этого факта – «я мыслю, а значит я существую».
Стадии сознания
Продвинутые стадии сознания все еще кажутся слишком далекими от достижения ИИ, особенно когда речь идет о человеческом метапознании и волеизъявлении.
С другой стороны, совесть – это способность судить о том, что правильно, а что нет, а сознание – предпосылка для нее, но она эволюционирует со временем, а значит, некоторые действия, принятые ранее, в настоящее время могут считаться неуместными.
Хотя продвинутые уровни сознания все еще не достигнуты, определенный вид совести обязателен для выполнения этических требований к текущим и ожидаемым уровням автономии в системах ИИ. С этой точки зрения попытки понять природу сознания в контексте компьютерного разума создали область, известную как искусственное сознание.
Искусственное сознание
Другими словами, чтобы развивать автономию, оставаясь при этом этичными, машинам не нужно приобретать чувства людей, поскольку свобода действий и действия, регулируемые повесткой дня, могут создать условия для управления производительностью в соответствии с каждым обстоятельством.
Им также не нужно иметь сознание или совесть, поскольку моральное суждение может быть вынесено из этических указаний, данных в отношении контрфактуалов, или из внешних факторов, предоставленных людьми.
Тем не менее, функционирование и взаимодействие между людьми и машинами должны быть синергетическими, и это происходит только тогда, когда доверие и надежность являются частью отношений.
Алгоритмы автономно принимают решения с участием субъектов. Тем не менее, то, как алгоритмы достигают окончательного решения, вызывает споры об объяснениях как о праве человека, особенно моральном.
Машинное обучение
Однако, помимо многочисленных преимуществ ИИ, особенно тех, которые дает машинное обучение, действия и решения не всегда объяснимы для пользователей-людей.
Кроме того, эффективность машинного обучения отрицательно коррелирует с объяснимостью. Это означает, что чем выше производительность, тем менее объяснима система, и наоборот.
В связи с этим многие исследователи работают над созданием дизайнов, результаты обучения и решения которых легко воспринимаются и которым можно доверять. В этой области существуют разные идеи, и исследовательские группы разрабатывают различные модели. В этом смысле по-прежнему пока сложно понять, какая модель больше подходит.
Прозрачность и подотчетность
Стремясь обеспечить подотчетность и прозрачность систем, право на разъяснения является обязательным инструментом для правительств и других организаций.
В качестве неимущественного права, право на объяснение существует за пределами воздействия на окончательный результат, которое направлено на защиту конфиденциальности пользователей в транзакциях согласия и третьих лиц, которые могут быть вовлечены в события.
Это требование того, какая понятная информация нужна конечным пользователям, для прозрачности решения компьютерной системы, чтобы выбрать лучшее приложение. Другими словами, помимо удовлетворения этических ожиданий, людям все еще необходимо понимать, как были приняты решения, поскольку результаты машин могут быть для них слишком техническими.