SULARU во ВКонтакте SULARU в Яндекс.Дзен SULARU в Blogger SULARU в GoogleNews SULARU RSS
темы

Пять главных страхов об искусственном интеллекте

Когда люди думают об искусственном интеллекте, часто им представляются сцены с андроидами-убийцами и взбесившимися компьютерными системами. Голливудские шедевры вроде «Бегущего по лезвию бритвы» или «Терминатора» только добавляют масла в огонь. А что думают прагматичные эксперты, выясняло издание CNBC.

Пять главных страхов об искусственном интеллекте
фото: pixabay.com

Для бизнеса, который может сгенерировать выручку на сумму более $1 трлн в 2018 году и почти $4 трлн в 2022 году, любые серьезные этические сомнения могут иметь значительные последствия, пишет CNBC. Искусственный интелект (ИИ) - это модное слово, которое популярно в деловом мире и в СМИ, но развитие этой технологии уже имеет ощутимые последствия для множества отраслей, включая те, которые базируются на значительном количестве ручного труда.

По мере того, как ИИ становится все более зрелой технологией, а предприятия по всему миру продолжают наращивать инвестиции в НИОКР, некоторые опасаются, что бизнес уделяет недостаточно внимания более широким социальным и моральным последствиям внедрения инноваций. CNBC опросило некоторых экспертов, что они думают про пять самых страшных потенциальных сценариев развития ИИ.

Массовая безработица

Общий страхом для аналитиков и работников является вероятность того, что ИИ приведет к массовой глобальной безработице, поскольку рабочие места становятся всё более автоматизированными, и человеческий труд больше не требуется.

"Потеря рабочих мест, вероятно, вызывает самое большое беспокойство", - сказал Алан Банди, профессор школы информатики Эдинбургского университета.

По его словам, потеря рабочих мест является основной причиной роста популизма во всем мире. Он приводит выборы президента Дональда Трампа и решение Великобритании выйти из Европейского союза (Brexit) в качестве наглядных примеров.

"Останется необходимость в людях для управления коллекцией узко-ориентированных программных приложений. Также останется работа за границами их применения, но это не станет полноценной заменой ожидаемой массовой безработице, по крайней мере, не в долгосрочной перспективе", - добавил Банди.

Но сторонники ИИ утверждают, что инновация приведет к созданию новых видов работ. Потребность в инженерах вырастет, так как растущая сложность новых технологий требует правильного таланта для их дальнейшего развития. Люди могут и должны использовать ИИ, чтобы невыполнять рутинные ежедневные функции и избавляться от социально неоптимизированного труда.

Исследовательская компания Gartner прогнозирует, что в 2020 году ИИ создаст 2,3 млн и устранит 1,8 млн рабочих мест с чистым приростом в 0,5 млн рабочих мест. Новые работы потребуют совмещения человеческого и машинного интеллекта, что,?по мнению аналитиков Gartner, недооценивается противниками развития ИИ. Но даже оптимистичный вывод исследовательской компании, как заметило CNBC, не отрицает того факта, что развитие технологий приведёт к обширным увольнениям по всему миру и породит очередную волну неудачников с низкой вероятностью получить замену прежней работе.

Часто цитируемое аналитиками «Исследование-2013» Оксфордского университета (ред. – «Будущее занятости: как рабочие места подвержены угрозе компьютеризации») указывает на то, что наиболее замещаемыми работами станут профессии брокерских клерков, банковских кассиров, страховых агентов и налоговых консультантов. То есть критически важные, но менее квалифицированные специальности, которые в настоящий момент держат финансовый рынок в тонусе.

Вероятно, считает CNBC, можно свести к минимуму ущерб рынку труда от развития ИИ через повышение квалификации и изобретение новых рабочих мест. Но вопрос о массовой безработице не исчезнет в ближайшее время. Ведь ни в одной стране мира правительство не готово к введению базового дохода для поддержки людей, потерявших работу из-за системной неспособности властей справляться с нарастающими вызовами глобальной экономики.

Войны

Появление так называемых "роботов-убийц" и других способов использования ИИ в военных целях заставляет экспертов беспокоится о том, что технологии могут привести человечество к глобальной войне. Руководитель Tesla Илон Маск предположил в 2017 году, что эта инновация может спровоцировать Третью мировую войну.

Хотя его склонность к преувеличениям широко известна, комментарий Маска отражает очень реальный страх многих экспертов. Некоторые аналитики утверждают, что разработка смертоносного автономного оружия и использование ИИ в процессе принятия военных решений создают множество этических дилемм и открывают возможность для ИИ-спровоцированных или ИИ-руководимых войн.

Существует даже группа неправительственных организаций, занимающихся запрещением подобного рода военных машин. Кампания по остановке роботов-убийц, запущенная в 2013 году, призывает правительства всех стран прекратить разработку ИИ-дронов и других транспортных средств, управляемых нечеловеческим интеллектом.

Фрэнк ван Хармелен, исследователь ИИ в университете Vrije (Амстердам), заявил изданию, что не считает слово "страшный " верным для описания технологии ИИ, но её использование в военных целях должно пугать каждого.

"Единственной областью, где я искренне считаю слово "страшный" адекватным, являются разработки в области автономных систем оружия, неважно выглядят они как роботы или нет. Любая компьютерная система, с ИИ или нет, которая автоматически решает вопросы жизни и смерти, например, запуская ракету, - это действительно страшная идея," – отметил эксперт.

Ранее в этом году исследовательская компания RAND Corporation, которая проводит работы для Минобороны США, предупредила в своём докладе, что использование ИИ в военных программных приложениях увеличивает риск ядерной войны, которая может начаться до 2040 года. Главная идея в основе этого смелого предсказания заключается в том, что есть немалая вероятность ошибки в анализе ситуации. ИИ неправильно интерпретирует данные, и это повлечёт принятие государствами опрометчивого и потенциально катастрофического решения.

Такие опасения возникли в результате печально известного инцидента в 1983 году, когда бывший советский офицер Станислав Петров заметил, что российские компьютеры неправильно предупредили о запуске США ядерных ракет. Он фактически предотвратил ядерную катастрофу.

Врачи-роботы

В то время как эксперты в основном сходятся в том, что ИИ поможет врачам-практикам во многих сферах, например, в ранней диагностике заболеваний или телемедицине, некоторые врачи и ученые опасаются, что человечество слишком спешит с внедрением подобных технологий. Главное опасение ученых в том, что люди ожидают слишком многого от ИИ, полагая его заменой человеческому мышлению.

"Все успешные медицинские приложения ИИ на сегодняшний день показали невероятные результаты, но в очень узком диапазоне применения, " – напомнил Алан Банди, профессор школы информатики Эдинбургского университета..

По его словам, эти завышенные ожидания могут иметь потенциально тяжелые последствия для здравоохранения. Так отличное медицинское приложение для диагностики сердечно-сосудистых заболеваний способно поставить ошибочный диагноз о редком сердечном заболевании больному раком, что грозит фатальным исходом.

Только на прошлой неделе доклад, основанный на внутренних документах компании IBM об использовании суперкомпьютера «Ватсон Здоровье» в медицинских целях, продемонстрировал всё несовершенство технологий. Суперкомпьютер сделал несколько "небезопасных и неправильных" рекомендаций по лечению рака. Согласно отчёту, программное обеспечение было обучено давать рекомендации путём изучения небольшого числа случаев заболевания и гипотетических сценариев протекания болезни, а не опиралось на фактических данные реальных пациентов.

"Мы создали «Ватсон Здоровье» три года назад, чтобы применить ИИ к некоторым самым больших проблем в области здравоохранения, и мы довольны прогрессом, который мы совершили. Наши онкологические и геномные предложения используются в 230 больницах по всему миру и поддерживали уход за более чем 84 тыс. пациентов", - сказал CNBC представитель IBM.

По его словам, компания улучшила программное обеспечение суперкомпьютера на основе постоянной обратной связи с клиентами. Обработав новые научные данные и проанализировав новые случаи заболевания раком, компания в течение 2017 года выпустила 11 крупных обновлений программного обеспечения для еще лучшей функциональности «Ватсона Здоровье».

Еще одной важной проблемой в медицине является опасение, что растущий поток обмена данными о здоровье пациентов, может иметь существенные этические последствия в отношении нарушения конфиденциальности информации. Расцвет технологии обработки «больших данных», которая проникла всюду от торговли до туризма, означает, что объем личной информации, доступный через компьютеры и интернет, растёт в геометрической прогрессии.

«Большие данные» преподносятся многомиллиардной индустрией как прорыв для исследования различных заболеваний, прогнозирования вероятности наличия болезни и её профилактики. Однако опасения по поводу того, сколько данных о пациенте хранится и как они распространяются, не являются беспочвенными.

Например, стоит вспомнить про случай с компанией DeepMind (принадлежит Google), которая разрабатывает ИИ для медицины. Она заключила соглашение с Национальной службой здравоохранения (НСЗ) Великобритании в 2015 году. Ей предоставили доступ к медико-санитарным данным 1,6 млн британских пациентов, чтобы программное обеспечение могло улучшить эффективность обнаружения заболеваний. Сотрудничество помогло созданию программы Streams, которая проводит мониторинг пациентов с болезнями почек и оповещает врачей, когда состояние пациента ухудшается.

Но в 2017 году британская служба Information Commissioner's Office отметила, что контракт между DeepMind и НСЗ оказался "не в состоянии соблюдать закон о защите данных". А Королевский бесплатный госпиталь Лондона был не в курсе того, как данные о его пациентах используются дочерней компанией Gooogle.

Массовая слежка

Эксперты также опасаются, что ИИ может быть использован для наблюдения за гражданами. В Китае, отмечает CNBC, такие опасения,пожалуй, становятся реальностью. В различных китайских муниципалитетах сочетание технологии распознавания лиц и ИИ используется в борьбе с преступностью.

Супердержава известна своим социальным авторитаризмом, а культ личности покойного председателя Мао Цзэдуна по-прежнему очень широко распространен в стране, даже через четыре десятилетия после его смерти. И критики КНР говорят, что власти Китая реализуют самый страшный кошмар Оруэлла.

Китай в настоящее время, по оценке New York Times в июле 2018 года, располагает боле 200 млн камер наблюдения. Это единственная страна в мире, пользующаяся "системой социального доверия", которая отслеживает деятельность граждан и начисляет им баллы, чтобы определить, могут ли они иметь доступ к различным услугам - от авиаперелётов до использования служб онлайновых знакомств.

Китай, который претендует на мировое лидерство в разработке ИИ, хочет увеличить стоимость этого сектора к 2030 году до 1 трлн юаней (около $146,6 млрд). Государство субсидирует миллиарды для реализации амбициозного плана.

Одной из компаний, занимающихся сочетанием ИИ и распознавания лиц, является китайская SenseTime. Считающаяся самым ценным старт-апом в области ИИ в мире, с оценкой в размере $4,5 млрд, дочерняя компания интернет-гиганта Alibaba предоставляет властям в Гуанчжоу и провинции Юньнань технологию идентификация лиц с использованием ИИ.

На своем вебсайте SenseTime сообщает, что бюро общественной безопасности Гуанчжоу, благодаря ИИ, выявило более 2 000 подозреваемых с момента начала использования технологии компании в 2017 году. Тоби Уолш, профессор ИИ в Университете Нового Южного Уэльса, сказал, что угроза массовой слежки «взлетела» в его личном списке страшных последствий применения ИИ.

Дискриминация

Некоторые читатели могут вспомнить Tay, чат-бот (виртуальный собеседник) с ИИ от компании Microsoft, который вызвал настоящий переполох два года назад. Бот был подключен к твиттеру. Потребовалось менее одного дня, чтобы пользователи научили его публиковать оскорбительные твиты в поддержку идей Гитлера о превосходстве белых. Проблема заключалась в том, что чат-бот был запрограммирован имитировать пользователей, взаимодействующих с ним в интернете. Учитывая темную природу некоторых уголков интернета, можно сказать, что отсутствие оскорбительных твитов было бы более удивительно.

Ошибка вынудила Microsoft закрыть виртуального собеседника. Несмотря на то, что инцидент оказался скорее юмористическим, он разжёг серьезные дебаты о потенциале ИИ оказаться предвзятым. Тоби Уолш заявил CNBC, что дискриминация является только одним из "неожиданных последствий" развития ИИ.

"Мы наблюдаем непреднамеренное смещение в алгоритмах ИИ, обусловленное машинным самообучением. Нам грозит новый социальный пожар на базе расовых, сексуальных и других предрассудков, которые мы пытались удалить из нашего общества в последние 50 с лишним лет", - сказал профессор ИИ в Университете Нового Южного Уэльса.

По мнению экспертов, тема предвзятости относится к вопросу теоритической осуществимости идеи сделать ИИ объективным, рациональным мыслителем, лишенным предпочтений в пользу одной конкретной расы, пола или сексуальной ориентации. Связывание пола или цвета кожи со стереотипной социальной ролью является большой научной проблемой, занимающая многих исследователей в области ИИ.

Так, например, выяснилось смещение приоритетов ИИ при распознавании белых и чёрных лиц. IBM, которая даже имеет научный отдел по борьбе с дискриминацией, ранее в этом году заявила, что выпустит два набора данных, содержащий широкий спектр лиц с различными тонами кожи и другими атрибутами лица для снижения непреднамеренного «смещения» в своей системе распознавания лиц.

Nota bene

SULARU напоминает, что три закона роботехники, то есть обязательные правила поведения для роботов, которые впервые были сформулированы Айзеком Азимовым в научно-фантастическом рассказе «Хоровод» ещё в 1942 году, гласят:

- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред,
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону,
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Так как законы очевидно не учитываются при создании людьми обучаемых программных комплексов (ведь ИИ в реальности не существует - это просто громкое название для привлечения финансирования), то, верятно, отсюда и проистекают все социальные угрозы развития технологий.

В Контакте Twitter Одноклассники WhatsApp Viber Telegram E-Mail