Искусственный интеллект. Будущее национальной безопасности России?

  Десять лет развития Ни для кого не секрет, что искусственный интеллект все глубже проникает в жизнь простых людей по всему миру. Этому способствуют как глобальное распространение Интернета, так и серьезное ув...

 

Десять лет развития


Ни для кого не секрет, что искусственный интеллект все глубже проникает в жизнь простых людей по всему миру. Этому способствуют как глобальное распространение Интернета, так и серьезное увеличение вычислительных мощностей. Нейронные сети, имеющие определенное сходство с человеческим мозгом, позволили качественно улучшить работу разрабатываемого программного обеспечения. Есть, правда, пара уточняющих моментов: до уровня головного мозга человека нейронным сетям еще очень далеко, особенно в плане энергоэффективности, а алгоритмы работы до сих пор крайне сложны для понимания.



Деньги в индустрию искусственного интеллекта, несмотря на некоторые ограничения и резонансные происшествия с автопилотируемыми машинами, идут широкой рекой. В прошлом году, если верить утвержденной Национальной стратегии, рынок IT-решений в этой сфере превысил 21,5 млрд. долларов. Не бог весть какая сумма, но она с каждым годом будет только возрастать, и к 2024 году совокупный ИИ в мире будет условно стоить 140 млрд., а потенциальный рост экономики от внедрения ИИ к этому времени достигнет вполне приличного 1 трлн. долларов. Собственно, попыткой не отстать от мировых трендов и стало утверждение президентом Владимиром Путиным 10 октября 2019 года упомянутой Национальной стратегии. При этом в самой программе декларируется не просто сокращение отставание от мировых лидеров, а вхождение в число топовых игроков этого рынка. И сделать это планируется уже к 2030 году. Среди явных преград на этом пути будут протекционистские заявления ряда стран, что любой российский софт несет потенциальную опасность.

Где же собираются реализовывать «безграничные» возможности ИИ на российской почве? Прежде всего это автоматизация рутинных операций вместе с заменой человека на опасных производствах (читай: в том числе в армии). Далее планируется серьезная работа с большими данными, которые генерируются в последнее время просто лавинообразно. Предполагается, что они смогут улучшить прогнозы по управленческим решениям, а также оптимизировать подбор и обучение кадров. Здравоохранение с образованием через десять лет также будут активными пользователями ИИ. В медицине на откуп машинного разума частично или полностью отдадут профилактику, диагностику, дозировку лекарств и даже хирургическое вмешательство. В школах ИИ будет задействован в индивидуализации процессов обучения, анализе склонности ребенка к профессиональной деятельности и раннее выявление талантливой молодежи. В стратегии можно встретить положение по «разработке и внедрению образовательных модулей в рамках образовательных программ всех уровней образования». То есть основы ИИ будут преподавать в школе?

Как обычно, помимо осязаемых результатов развития ИИ, от научной среды будут требовать роста количества и индекса цитируемости статей отечественных ученых в мировых профильных изданиях. А уже к 2024 году, то есть очень скоро, в России должно увеличиться число граждан, имеющих компетенции в области ИИ. В том числе это будет реализовываться за счет привлечения отечественных специалистов из-за рубежа, а также привлечения иностранных граждан для работы по данной теме в России.

Однако у ИИ есть одно спорное качество, которое в стратегии предполагается решать «разработкой этических правил взаимодействия человека с искусственным интеллектом». Оказывается, холодный расчет компьютерного разума заставляет его делать предвзятые и несправедливые обобщения.

AI bias


Среди массы вопросов к функционированию современных систем ИИ особо выделяются несовершенные на данный момент алгоритмы автопилотирования колесного транспорта, которые до сих пор не позволяют законодательно разрешить их широкое применение. Скорее всего, в обозримом будущем мы не увидим на наших дорогах автомобилей, управляемых ИИ. У нас для этого и дорожные условия неподходящие, и климат не благоволит пользоваться автопилотом круглый год: грязь и снег быстро «ослепят» сенсорные системы самого совершенного робота. Кроме этого, массовое внедрение ИИ неизбежно заберет работу у миллионов людей по всему миру – им придется либо переучиваться, либо проводить остатки дней в праздности. Справедливо ради стоит сказать, что различные новомодные «Атласы профессий будущего» порой несут откровенную чушь: в одном из них, датированном 2015 годом, к новому 2020 году должны были устареть, к примеру, профессии бухгалтера, библиотекаря, корректора и испытателя. Но, тем не менее, профиль большинства профессий будет меняться, и негативный фактор ИИ тут будет превалирующим. В любом случае, перспективы дальнейшего внедрения ИИ в социум ставят множество вопросов перед государственными регуляторами. И как их решать, похоже, мало кто знает.


Еще одной проблемой, которая уже вырисовывается на горизонте, стала предвзятость ИИ в принятии решений. Одними из первых с этим столкнулись американцы, когда в 15 штатах ввели систему COMPAS для прогнозирования случаев рецидива преступников. И все, казалось, очень хорошо начиналось: удалось разработать алгоритм, способный на основе массы данных (Big Data) сформировать рекомендации о строгости наказания, режиме исправительного учреждения или досрочном освобождении. Программисты справедливо утверждали, что в предобеденное время голодный судья может вынести чрезмерно суровое наказание, а сытый, наоборот, слишком мягкое. ИИ должен внести в эту процедуру холодный расчет. Но оказалось, что COMPAS и все ему подобные программы расисты: ИИ в два раза чаще ошибочно обвинял афроамериканцев в склонности к рецидиву, чем белых людей (45% против 23%). Светлокожих преступников ИИ вообще расценивает как людей с низким уровнем риска, так как они статистически реже преступают закон – поэтому и прогнозы по ним более оптимистические. В связи с этим в США все чаще и чаще звучат голоса об отмене ИИ в решении вопросов освобождения под залог, назначения наказания и досрочном освобождении. При этом юстиция США никакого отношения к программному коду этих систем не имеет – всё закупается у сторонних разработчиков. Программные комплексы, работающие на улицах многих городов мира, Predpol, HunchLab и Series Finder, уже статистически достоверно доказали свою эффективность: преступность снижается, но и они не лишены расовых предрассудков. Самое интересное, что мы не знаем, какие еще «тараканы» зашиты в искусственные мозги этих систем, так как многие параметры анализа засекречены. Также есть сомнения, что разработчики и сами понимают, каким образом ИИ принимает те или иные решения, какие параметры считает ключевыми. Подобные ситуации складываются не только в правоохранительной сфере и юстиции, но и в рекрутинговых агентствах. ИИ в большинстве случаев отдает предпочтения при найме на работу молодым мужчинам, оставляя в стороне слабый пол и возрастных кандидатов. Забавно, что ценности Запада, которые там так рьяно пропагандируют (равенство полов и рас), попираются новейшим западным же достижением — искусственным интеллектом.


Вывод из небольшого экскурса в теорию и практику ИИ напрашивается следующий. Одно дело, когда наши с вами данные из социальных сетей и других источников массово обрабатываются с целью маркетинговых или политических манипуляцией, а другое дело, когда в руки ИИ передается меч правосудия или, того хуже, арсенал национальной безопасности. Цена предвзятого решения многократно возрастает, и с этим надо что-то делать. Кому это удастся, тот и станет настоящим властелином XXI века.

 

Жми «Нравится» и получай только лучшие посты в Facebook ↓

Искусственный интеллект. Будущее национальной безопасности России?