9 декабря четверг
ДОЛЛАР 73.85 -0.29
ЕВРО 83.36 -0.35
ЮАНЬ 11.62 -0.02
ФУНТ 97.76 -0.69
SBER
0 ₽ 0.00
Yandex
0 ₽ 0.00
Mail.Ru Group
0 ₽ 0.00
Ростелеком
0 ₽ 0.00
QIWI
0 ₽ 0.00
Ozon
0 ₽ 0.00

Искусственный интеллект: спасение или смерть человечества

Искусственный интеллект: спасение или смерть человечества
Авторские колонки 7 октября 2020 •  runet

Искусственный интеллект: спасение или смерть человечества

7 октября 2020 👁 37439

В детстве я, как и многие мои сверстники, листал журнал «Юность». Что-то мне нравилось, что-то было из разряда «прочитал и забыл». Но одна повесть навсегда врезалась мне в память. Называлась она «Черный Яша», а написал её Зиновий Юрьев. Бесхитростный рассказ о том, как в одном Институте искусственного разума был создан прибор, сопоставимый по сложности с человеческим мозгом. Достигнув успеха, радостные ученые снабдили прибор манипуляторами и синтезатором речи и принялись его обучать по принципу воспитания человеческого ребенка. Постоянная атака массивами информации дала свои плоды: прибор, названный Черный Яша, превратился в разумное существо. А окончательно осознав себя и своё место в этом мире, покончил с собой, выбросившись из окна. Как стать полноценным человеком, он, исходя из имеющихся в его доступе технологий, не представлял. А жить иначе – не видел смысла.
Потом, конечно же, я познакомился с законами роботехники Айзека Азимова, сформулированные им ещё в далеком 1941 году в рассказе «Хоровод»:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Тогда мне казалось, что всё сформулировано предельно верно. Но по мере взросления я осознал, что мы, люди, упускаем из вида что-то важное. Что-то критически важное. Ведь эти законы, по сути своей, очень расплывчатые. Их можно трактовать и так, и сяк. А искусственный интеллект не может в полной мере оценить человеческую мотивацию. Вот просто представим себе ситуацию. Два человека и робот. У первого человека страшная истерика, из которой его надо вывести и поскорее. Второй человек намеревается отвесить первому пощечину и тем самым привести в чувство. Как, спрашивается, должен поступить в этой ситуации робот? Пощечина – причинение вреда человеку. Робот должен этот ущерб предотвратить, а значит, остановит второго человека. И первый так и продолжит биться в истерике. Пример достаточно простой и гипотетический, но думаю, всем понятный. В данной ситуации у искусственного интеллекта просто не должно быть права голоса, права решения за человека. Но что, если мы сами уже его этим правом наделили? Как быть?
Мы, люди – уникальные биологические системы, наделенные возможностью обучения и самопознания. Уберем слово «биологические» и получим определение для искусственного интеллекта. А, следовательно, нам нужно понять, в чем же наше фундаментальное различие? Какова мотивация у не-человеческого интеллекта? Всегда ли он поступает рационально, или же в большинстве случаев руководствуется теми же мотивами, что и обычные люди? Ведь именно люди его обучают, и именно их систему взаимоотношений искусственный интеллект воспринимает как некий нулевой образец. Или же не воспринимает? Мы слишком мало знаем о самих себе, чтобы предугадывать мотивы, по которым будет действовать разум, потенциально в тысячи раз превосходящий наш собственный.
Но давайте серьезно: чем же конкретно может на данном этапе угрожать человечеству цифровой интеллект? Обратимся к специалистам. Французский эксперт в области этики и политики, директор отдела этики и политики Исследовательского центра по проблемам этики (CRÉ) в Монреальском университете, Марк-Антуан Дилак не исключает, что ИИ может стать инструментом дискриминации по расовому признаку, сексуальной ориентации и прогнозированию поведения людей, что требует, как минимум, законодательного контроля над новыми технологиями. Остановимся на этом подробнее.
Так, Марк-Антуан Дилак обеспокоен появлением программного обеспечения для анализа поведения людей по видеозаписям, подобно той, что сейчас тестируется в переходах станции Шатле парижского метрополитена, с целью анализа и фиксации агрессивных действий. Да, решение относительно того, нужно ли вмешательство в ситуацию, пока остается за людьми, но не следует забывать про высокую вероятность ошибки.
Еще большее опасение внушает то, что применение интеллектуальных систем и методов расового и социального профилирования может вести к злоупотреблениям. Например, программы для выявления «террористического» или «криминального» поведения претендуют на то, что выявляют в человеке склонность к преступлению. Склонность! Ты ничего не совершил, просто шел в плохом настроении по людному месту и попал под наблюдение правоохранителей, потому что искусственный интеллект счел тебя потенциально опасным!
Когда-то человечество уже наступало на эти грабли. Вероятно, многие помнят такую лженауку, как физиогномику, изучавшую характер человека по строению и выражению его лица. Чтобы предупредить социум об опасности распространения подобных программ, вторгающихся в личную жизнь граждан, Михаль Косински и Илунь Ван из Стэнфордского университета в США пошли на дерзкий эксперимент и в 2017 году создали программу «Гейдар», определяющую по фото склонность человека к гомосексуализму.
Если принять на веру смелое утверждение авторов, что погрешность их программы составляет всего 20%, то в случае её использования перед человечеством поистине разверзается бездна. Никто из нас не обязан прилюдно раскрывать свою сексуальную ориентацию, а тем более оправдываться, если она оказывается не традиционной. И даже если человек не вступает в сексуальную связь с кем бы то ни было, но определяется программой как «сами-знаете-какой» субъект, он все равно будет стигматизирован обществом раз и навсегда.
На сегодняшний день еще не созданы системы общего, или т.н. сильного искусственного интеллекта. Компьютерные системы могут хорошо делать только одну-две конкретных задачи. Например, в доли секунды решать «транспортную задачу», у которой не может быть наилучших решений, только оптимальные. Или распознавать лица на экранах мониторов. Или прокладывать маршрут. Делать – и делать качественно! – несколько разноплановых задач одновременно существующие ныне интеллектуальные системы пока не способны. Но создание таких систем – дело самого ближайшего будущего. И вот там мы вплотную подойдем к рубежу, когда машинный интеллект покажет свое значительное превосходство над человеческим. Ведь принятие решений в условиях работы с огромными массивами данных уже дается компьютеру значительно лучше, чем человеку, чему имеется масса подтверждений.
Но есть ли у искусственного интеллекта сознание? Вернее, самосознание? Да, одна система может выделять себя среди всех прочих, осуществляя тем самым процесс самоидентификации. Но как насчет эмоционального интеллекта? Как насчет базовых когнитивных чувств? Симпатия, привязанность, сострадание, любовь? Способен ли человеческий гений создать алгоритм для обучения искусственного интеллекта, вследствие которого мы получим на Земле полноценный разум небиологического происхождения? И будем ли мы удовлетворены достигнутым результатом?
Часть специалистов рассчитывает, что над искусственным интеллектом будет установлен общий международный контроль, зафиксированный определенными договоренностями между странами-разработчиками соответствующих систем. Но тут возникает опасность того, что договоренности имеют вес для людей, их подписавших. Но не для самого искусственного интеллекта, который по одному ему ведомым причинам в самый ответственный момент с легкостью нарушит все обязательства.
С другой стороны, есть мнение, что поскольку у роботов отсутствует человеческое любопытство, а появиться ему в обозримом будущем неоткуда, то искусственный интеллект никогда не задаст себе вопрос «а что, если?» Следовательно, у него отсутствуют какие бы то ни было потребности, и логично исходя из этой предпосылки – личные цели у искусственного интеллекта отсутствуют тоже. Чего нельзя сказать о целях, которые перед ним поставили конкретные люди и которые он обязан выполнить. А уж какой ценой он этого достигнет, мало кто принимает сегодня в расчет. И именно этот факт безмерно меня тревожит.
Как говорит Альберт Ефимов, руководитель Лаборатории робототехники Сбербанка: «Проблема не в том, что машина принимает решение, проблема в том, как машина принимает решение… Если это просто система с обратной связью, то проблем ни у кого не возникает. Но когда машина принимает решение задним числом, на основании так называемого машинного обучения, то возникает ошибка предубеждения». Так, для существующего сегодня искусственного интеллекта крайне сложно рассчитать воздействие на экономику т.н. «черных лебедей» – трудно прогнозируемых и редких событий, которые имеют значительные последствия, вроде нынешней пандемии коронавируса, или спонтанного нефтяного кризиса. Их теорию вывел Нассим Николас Талеб в свой книге «Чёрный лебедь. Под знаком непредсказуемости». Система же рассчитывает сценарии исходя из наиболее вероятного стечения событий – и ведет нас к проигрышу.
Еще более тревожные мысли выражает научный руководитель лаборатории нейронаук и поведения человека Сбербанка, президент Высшей школы методологии, учёный Андрей Курпатов. По его мнению, совсем скоро мы перейдем грань, за которой вещи, наделенные искусственным интеллектом, сами выйдут с нами на контакт, предугадывая при этом наши желания. Наступит объединение «интернета вещей» с «интернетом людей», т.е. «интернет всего» — термин, придуманный сотрудниками компании CiscoSystems. Все эти системы а-ля «умный дом» с голосовым управлением и таймерами – это очередная ступень к вселенной квази-разумных бытовых приборов. И опасна она в первую очередь тем, что отупляет пользователя. Это ведь так соблазнительно – делегировать принятие решений кому-то ещё и не думать о рутине. А в итоге пользователь утрачивает навык самостоятельно решать возникшую перед ним задачу. Еще немного, и он даже не сможет объяснить искусственному интеллекту, чего же он хочет от него и в каком именно виде.
Давно уже известно и подтверждено практическими исследованиями, что для того, чтобы сохранить ясность ума до глубокой старости, человек должен постоянно держать свой мозг в тонусе: учиться новому, решать возникающие перед ним задачи, самостоятельно осмысливать происходящее и делать выводы. Метко названные Курпатовым «интеллектуальные экзоскелеты» — навигаторы, планировщики, Siri и Алиса – исподволь ведут к тому, что мы перестаем думать сами. Наш мозг атрофируется. По мнению ученого, есть «…все основания предполагать, что мы «не потеснимся», уступив место сверхмощному искусственному интеллекту, а просто сгинем, отупев до того, как он будет нами создан».
Еще об одной опасности в свое время предупреждал видный философ и писатель Умберто Эко. В статье «Осмысляя войну» он размышлял об изменении формулы войны с приходом в нашу жизнь искусственного интеллекта. По его мнению, если раньше война напоминала игру в шахматы, когда решения принимались поступательно и зависели, в том числе, от реакции противника, то совсем скоро мы, к сожалению, можем увидеть войну, проходящую по формуле «параллельного» искусственного интеллекта. Это доска, на которой расположены не белые и черные, а сплошь одноцветные фигуры, и любой ход ведет лишь к самопожиранию и финальному коллапсу. А всё потому, что нео-коннективная система, она же система нейронных сетей, сама себя модифицирует в поисках оптимального решения и сама порождает для себя правила, которые не были в нее заложены.
«»Параллельный»» искусственный разум передоверяет отдельным ячейкам сети все решения, как им следует сложиться в окончательную конфигурацию, исходя из распределения «»загрузок»», которое оператор неспособен ни рассчитать, ни предвидеть заранее. И если число операторов больше одно, более того – число конкурирующих между собой операторов увеличивается, то в подобной системе обесценивается любой расчет, а война всегда проигрышна для обеих сторон. Цепь непрерывно получает противонаправленные импульсы и замыкается. Общий проигрыш detected.
Так что же дальше? Философия философией, но что ждет нас, простых людей, с приходом в нашу жизнь систем, основанных на использовании искусственного интеллекта? Как в самом ближайшем времени изменится экономика наших стран? И как изменится сама наша жизнь?
Пока что процесс создания машин с искусственным интеллектом, или роботов – весьма затратное мероприятие, которое обслуживает масса высококвалифицированных специалистов: инженеры-конструкторы, программисты, дизайнеры. Т.е. производство таких систем создает дополнительные рабочие места. Но это справедливо только относительно страны-производителя. В той стране, где этот робот будет использоваться, количество рабочих мест наоборот сократится, ведь один робот способен заменить собой десятки, а то и сотни обычных сотрудников. И вот тут понятно стремление развитых и развивающихся стран мира как можно скорее включиться в эту гонку и самим разработать собственные системы на основе искусственного интеллекта, чтобы не столкнуться с ситуацией, когда обойтись без них уже будет невозможно, а закупать их за границей – губительно для экономики и особенно для сферы занятости.
Лидер нашей страны понимает это как никто другой. 10 октября 2019 года был принят Указ Президента РФ № 490 «»О развитии искусственного интеллекта в Российской Федерации”, целью которого стало утверждение Национальной стратегии развития искусственного интеллекта на период до 2030 года с целью обеспечения ускоренного развития этой сферы.
«Искусственный интеллект — ресурс колоссальной силы, кто будет владеть им, тот вырвется далеко вперед», — сказал Владимир Путин в начале ноября 2019 года на большой конференции, посвященной современным технологиям. А затем добавил: «Предлагаю профессиональному сообществу, компаниям подумать над формированием свода этических правил взаимодействия человека с искусственным интеллектом. Мы с вами должны обязательно помнить: нельзя изобретать технологии ради самих технологий. И наша главная цель — это устойчивое гармоничное развитие, рост качества жизни и новые возможности для людей, для граждан. Безусловно, потому что человек является высшей ценностью. Из этого мы и будем исходить».
В развитие президентской инициативы вышел Федеральный закон от 24.04.2020 № 123-ФЗ «»О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «»О персональных данных»». Все это наглядно свидетельствует об одном: цифровая эра наступает. Она все ближе и ближе к нам. Обратной дороги нет.

Мнение авторов может не совпадать с позицией редакции

Теги: , ,
Новости smi2.ru
Комментарии 0
Зарегистрируйтесь или , чтобы оставлять комментарии.