Кира Важенина Опубликована 09.03.2019 в 14:55

Рассвет сознательных машин: моральный императив искусственного интеллекта

Рассвет сознательных машин: как далеко мы должны углубиться в использовании ИИ? Часть 3. 3127.jpeg

Стремление сделать искусственный интеллект (далее "ИИ") более похожим на человека полностью оправдано. Мы ценим "интеллект" как краеугольный камень нашей эволюции. Эта ценность глубоко укоренилась в каждой человеческой культуре.

Что заставило наш вид выжить, когда были хищники, лучше оснащенные, — так это наша способность учиться, изобретать и адаптироваться. ИИ будет мощным зарядом для человеческого интеллекта и творческого потенциала. Экономические причины для поиска еще более интеллектуальных машин также глубоки.

Хотя искусственный интеллект разрушит многие профессии, такие как производство и розничная торговля, нет другой технологии, которая могла бы обеспечить такой постоянный экономический рост и процветание для будущих поколений. Для науки появление машин, способных обрабатывать огромные объемы данных и открывать новые знания, не могло бы наступить в лучшее время.

Каждая научная дисциплина получает выгоду от ИИ для управления потоком данных. Физики используют его для исследования фундаментальных законов природы, биологи — для поиска новых лекарств для лечения болезней, врачи — для улучшения диагностики и лечения. Преследование дальнейшего развития искусственного интеллекта по культурным, экономическим и научным причинам имеет смысл. Но по мере того, как наши машины становятся более человечными, и по мере того, как все больше приложений начинают внедрять некоторый искусственный интеллект, начинает возникать фундаментальная проблема.

Эмуляция человеческого мозга с искусственными нейронными сетями означает, что компьютеры загадочны и непрозрачны. Это так называемая "проблема черного ящика" ИИ. В мозге и в машине информация распространяется по сети. Когда мы извлекаем номер телефона из памяти, мы не получаем доступа к той части мозга, где номер каким-то образом выгравирован в нашей плоти. Вместо этого каждое число распределено по нескольким синапсам, которые соединяют различные нейроны на разных уровнях организации. Мы на самом деле не "знаем", что мы знаем или каким образом мы это знаем. Только благодаря тому, что мы обладаем сознанием, мы можем ретроспективно рационализировать и, таким образом, "объяснить" нашу интуицию и идеи.

Как показал американский нейробиолог Дэвид Иглман, большая часть того, что нам стало известно, уже произошла в мозге на бессознательном уровне. Для людей это исторически не было проблемой, потому что в наших моральных и правовых системах мы предполагали, что каждый из нас несет личную ответственность за свои мысли и поступки — по крайней мере, когда химический состав нашего мозга находится в пределах социально приемлемых уровней нормального состояния, адекватности". Тем не менее, для неосознанной интеллектуальной машины "проблема черного ящика" предполагает, что, хотя прогнозы и рекомендации, сделанные машиной, могут быть точными и полезными, машина не сможет объяснить свои рассуждения. Представьте себе автомобиль без водителя, принимающий решение о жизни и смерти, разбивающийся и убивающий множество людей. С современными технологиями невозможно расшифровать, почему машина приняла решение, которое она сделала.

"Проблема черного ящика" усугубляется, когда данные, которые машина использует для изучения, имеют внутренние предубеждения, которые могут привести к необъективным выводам или асоциальному поведению. Например, в марте 2016 года "Microsoft" выпустила в "Твиттере" бота с возможностью изучать человеческий язык, анализируя живые твиты. Менее чем за 24 часа он начал распространять расистские и ксенофобские беспорядки. Ученые пробовали различные подходы к решению "проблемы черного ящика". В октябре 2016 года ученые "DeepMind" опубликовали в журнале "Nature" статью о "дифференцируемой нейронной вычислительной машине", в которой нейронная сеть сочетается с обычной внешней памятью.

Разделение процесса обработки и данных — это шаг к созданию этически ответственных интеллектуальных машин. Это делает теоретически возможным закодировать моральные ценности, которые подтверждают или препятствуют результатам "черного ящика" нейронных сетей. Но такого гибридного подхода к разработке более безопасного искусственного интеллекта может быть недостаточно в будущем.

Подписывайтесь на Экосевер

Читайте также

Спутники фиксируют штормы, которые живут дольше ветра сегодня в 8:18
Гигантские волны обходят планету: их видно даже из космоса

Спутниковые наблюдения раскрыли, какие силы скрываются в океане после мощных штормов и почему гигантские волны могут приходить на берега издалека, когда о буре никто уже не помнит.

Читать полностью »
Психологи объяснили эффект Бэтмена повышением уровня внимательности сегодня в 4:19
Что делает Бэтмен в метро? Он делает людей добрее: неожиданный эффект присутствия супергероя

Учёные из Италии выяснили, что пассажиры чаще уступают место беременным, если в вагоне находится человек в костюме Бэтмена. Эффект связан не со страхом, а с вниманием и социальными установками.

Читать полностью »
iPhone SE 2016 года перестал поддерживаться сервисами Apple — MacRumors сегодня в 2:14
Эпоха кнопок и карманных размеров рухнула: Apple тихо закопала свой самый упорный смартфон

Apple окончательно прекратила обслуживание первого iPhone SE. Почему компания отказалась от легендарной компактной модели и чем её заменил iPhone 16e.

Читать полностью »
Космонавт описал сложности строительства баз на Луне сегодня в 0:16
Поселения под лунной корой: почему идеальное место для базы скрыто прямо внутри кратеров

Герой России Федор Юрчихин рассказал, где строить будущие лунные поселения и почему природные тоннели в кратерах могут стать самым безопасным вариантом.

Читать полностью »
Панды использовали веточки и бамбук, чтобы почесаться — PLANET TODAY вчера в 23:12
Учёные застали панд за делом: оказалось, они умеют пользоваться чесалкой для спины

Учёные зафиксировали необычное поведение больших панд. Могут ли эти животные быть умнее, чем мы думали?

Читать полностью »
Иммунные клетки вызвают повреждение нервов при лечении рака — Weill Cornell Medicine вчера в 22:18
Иммунитет предал тело: учёные раскрыли, кто на самом деле вызывает боль при химиотерапии

Ученые нашли причину боли при химиотерапии — оказалось, виноваты иммунные клетки. Новое открытие поможет создать препараты без тяжелых побочных эффектов.

Читать полностью »
Учёные определили, что предки человека ходили по-разному — New-Science.ru вчера в 22:01
Не одна Люси, а две: археологи нашли доказательства сосуществования двух предков человека

Две находки в Эфиопии изменили понимание происхождения человека. Как могли сосуществовать два разных предка, ходившие по земле по-разному?

Читать полностью »
Глава Xiaomi аявил, что роботы заменят людей за 5 лет — New-Science.ru вчера в 21:49
Через пять лет людей заменят гуманоиды: Xiaomi объявила о начале новой индустриальной эпохи

Глава Xiaomi предсказал революцию в промышленности в ближайшие годы. Станут ли гуманоидные роботы новым лицом фабрик будущего?

Читать полностью »