
Когда автомобиль с автономным управлением попадает в аварию, на ком лежит ответственность? Когда суперкомпьютер помогает врачам ставить диагнозы и обеспечивать лечение, кто отвечает за неправильный диагноз? Что будет, если кандидаты подадут на компанию в суд, потому что их заявки отклонил алгоритм? Так называемый искусственный интеллект — сравнительно новая технология, которая быстро находит применение во многих сферах благодаря стремительному развитию компьютерной техники.
На конференции Innovation Day, проводимой Serviceplan, Юлиан Нида-Рюмелин, признанный Мюнхенский философ и бывший министр культуры Баварии, и Мартина Кёдериц, глава совета управления IBM в Германии, обсудили новые этические стандарты с Клаусом Швабом, управляющим директором Plan.Net Group. Как быть с ответственностью, когда речь идет об искусственном интеллекте, стараясь создать более гуманное и справедливое будущее в мире, сформированном цифровыми технологиями?
Клаус Шваб: Госпожа Кёдериц, профессор Нида-Рюмелин, искусственный интеллект только начал реализовывать свой потенциал. Однако, кажется, большинство уже настроено скептически. Нужно ли активно развивать доверие людей к искусственному интеллекту? И, возможно, избежать ситуации, когда искусственный интеллект не реализует свой потенциал?
Мартина Кёдериц: Что действительно важно, как и в случае с любой новой технологией, — это чтобы люди, которые ею пользуются, делали это сознательно и в определенных целях. Должно быть понятно, почему мы что-то делаем с помощью искусственного интеллекта и для кого мы это делаем. В конце концов, в этой революции мы не просто зрители. Каждый из нас является также ее участником. Раньше мы вызывали доверие, используя продукты и технологии, которые гарантировали надежность или с прочными корпоративными ценностями. Теперь следует перенести этот подход на взаимосвязанную, основанную на данных экономику. В Германии нам приходится объяснять, что на наши методы в области цифровых технологий можно положиться.
Клаус Шваб: В Германии уже понимают искусственный интеллект? Современные исследования показывают, что люди относятся к этому вопросу с недоверием и сомнением.
Мартина Кёдериц: Люди всегда боятся нового. Нужно еще очень много вложить в подготовку людей. Интернет существует уже 30 лет, а в Германии до сих пор нет единого образовательного плана. Образование и подготовка должны стать важнейшими вопросами в нашей стране. Кроме того, каждый должен знать, какой вклад он может и хочет внести в цифровое общество — и как ответственно обращаться со своими личными данными.
Юлиан Нида-Рюмелин: В последние годы мы совершили ошибку. В период индустриализации мы очень рано установили стандарты — DIN. В период диджитализации мы не установили рамки для технологической революции. Из-за этого теперь мы оказались в своеобразной ситуации, когда несколько интернет-гигантов обеспечивают всю цифровую инфраструктуру. Поэтому люди напуганы.
В общем-то, у этих компаний добрые намерения. Еще не случилось ничего плохого, и можем надеяться, что и не случится. Тем не менее экономика больших данных ведет к концентрации знаний, которыми можно злоупотреблять, и это вызывает беспокойство. Это одна из причин, почему люди стали такими неуверенными. Они испытывают смутное беспокойство — не все, но это касается в том числе молодых людей. Мы постараемся исправить эту ситуацию, чтобы чувство беспокойства не стало барьером для инноваций и инвестиций.
Клаус Шваб: Наш страх растет по мере того, как растут технологические возможности?
Мартина Кёдериц: Причина для беспокойства заключается в том, что сейчас мы создаем монополии, которые могут быть использованы против нас. Однако будем честны — если сервис удобен для нас как для потребителей, мы им пользуемся. Своим поведением мы каждый день участвуем в принятии решения. Чем удобней сервис, тем меньшую роль в нем играет защита данных. Но это понимают, только когда возникает проблема. Мы должны развивать в людях чувство ответственности.
Клаус Шваб: Как это сделать? На данном этапе, не следует ли требовать от индустрии больше вкладывать в технологическое образование, госпожа Кёдериц?
Мартина Кёдериц: В IBM мы очень много инвестируем в обучение сотрудников, а также в науку, занимающуюся искусственным или когнитивным интеллектом. Однако необходимо сделать больше в детских садах, начальных школах и во всех учебных заведениях, в том числе в средней школе. В будущем все профессии будут связаны с данными, цифровыми технологиями или сетями. На мой взгляд, мы недостаточно следили за этими изменениями.
Клаус Шваб: Искусственный интеллект не всегда автоматически ведет себя так, как нам бы того хотелось. Интернет-тролли обучили чат-бот Microsoft сексистским и расистским высказываниям, и его пришлось отключить. Американский алгоритм Beauty AI [конкурс красоты, в котором жюри выступает искусственный интеллект] выбирал победителями только людей со светлой кожей. Есть ли риск дискриминации при использовании алгоритмов? Можно ли вообще говорить о моральном и аморальном в связи с искусственным интеллектом, господин Нида-Рюмелин?
Юлиан Нида-Рюмелин: Я предостерег бы от признания ответственными каких-либо сторон, кроме людей, организаций, компаний и политических систем, — например, автономных роботов. Существуют серьезные предложения возложить на роботов такую же ответственность, как и на людей. Я считаю, что это в высшей степени опасно:
Создавая искусственный интеллект, мы не создаем эквивалент человеческому. Даже самое умное программное обеспечение лишено личностных характеристик. Иначе на него распространялись бы права человека. И вскоре мы не имели бы права выключить ни один компьютер.
Наделение компьютеров индивидуальностью приведет к смешению ответственности, и это плохо. Исчезнет конкретное ответственное лицо.
Клаус Шваб: Госпожа Кёдериц, в какой мере компании, которые предоставляют искусственный интеллект, несут этическую ответственность?
Мартина Кёдериц: Мы являемся одними из первых разработчиков когнитивных компьютерных технологий и очень четко заявили, что существуют правила по поводу ограничения целей — то есть того, какие данные мы будем использовать в определенных целях и какие данные необходимы для достижения определенного результата. Когда мы собираем данные вместе с клиентами и партнерами, мы открыты в вопросе того, кому принадлежат данные и полученный с помощью них результат, а также какие алгоритмы мы используем, чтобы обрабатывать данные.
Клаус Шваб: В принципе, в сфере искусственного интеллекта есть три игрока: компании, предоставляющие услуги, такие как IBM, разработчики прикладных программ — например, Serviceplan как агентство, и пользователи — например, бренды. Если говорить о кризисе: кто берет на себя ответственность, если что-то идет не так?
Юлиан Нида-Рюмелин: Тут придется обратиться к юристам, потому что вопрос очень сложный. По сути, есть как минимум два правовых подхода — по эту и по ту сторону Атлантики. Наш принцип заблаговременного детального учета рисков играет довольно незначительную роль в США. Однако, если возникнет проблема, потери могут быть огромными. В нашей культурной сфере мы также не можем исключить риски, но всегда должны стараться их избегать. Несмотря на всю открытость для инноваций, вероятность катастрофы должна быть важней, чем вероятность большого успеха.
Мартина Кёдериц: Для меня очень важно, что мы используем искусственный интеллект, чтобы помочь людям в принятии решений. Поэтому мы также обсуждаем системы-помощники и системы по принятию решений. Окончательное решение должно оставаться за людьми. Будь то врач, выбирающий метод лечения из предложенных вариантов, или взаимодействие между поставщиком и покупателем в финансовом секторе, где в конечном итоге товар выбирает покупатель.
Поскольку эта технология только начинает развиваться, IBM в самом начале присоединилась к проекту «Партнерство по искусственному интеллекту» — среди участников также Google, Sony, Zalando и eBay. Мы думаем над тем, какие этические правила и принципы мы хотим для себя установить — что нам следует регулировать на уровне экономики и компаний. Кому принадлежат данные, что может считаться этичным в этой области и на что распространяются эти принципы? Поскольку мы пока не можем ответить на все вопросы, нужно искать ответы вместе.
Клаус Шваб: Верите ли вы, что люди действительно сохранят контроль? Иными словами, как долго можно будет утверждать, что решения принимают только люди?
Юлиан Нида-Рюмелин: Трудно строить догадки. Для меня вопрос заключается в том, как должно быть? Я против подхода «пусть все идет само собой». Поэтому я с большим интересом слежу за дискуссиями об автономном управлении автомобилем. В нашем понимании гуманного и справедливого общества существует, а часто и прописан в конституциях, запрет на компромисс. Например, нельзя сказать, что мы пожертвуем двумя пожилыми мужчинами, чтобы спасти ребенка. Человек может принять такое решение, но нельзя прописать это в алгоритме. Мы не можем разделять или оценивать людей, основываясь на возрасте, гендере или чем-либо еще.
Это проблема для автономного управления, в частности, когда нужно решать, как вести себя в спорной ситуации. Человек может поступить по-разному, однако к общественным нормам нужно относиться абсолютно по-другому.
Клаус Шваб: И каким должно быть решение?
Юлиан Нида-Рюмелин: На мой взгляд, мы должны использовать все возможное. Ключевое здесь «высокая степень автоматизации управления». Однако окончательная ответственность, возможность для людей вмешаться должна сохраняться.
Клаус Шваб: В теории звучит хорошо. Однако на практике вокруг «автономного управления» идут споры, и эксперты ожидают, что максимум через пять лет нам уже не нужно будет сидеть за рулем. Придется ли нам, несмотря на это, держать руки на руле?
Юлиан Нида-Рюмелин: Когда движение на дороге полностью понятно, например, на трассе со светофорами, будет появляться сигнал: «Можете почитать газету!» В менее понятных ситуациях (когда могут возникнуть конфликтные ситуации) система потребует, чтобы водитель вернулся к управлению. Это рекомендация ответственной комиссии, которую я также поддерживаю.
Клаус Шваб: Нужны ли вообще этические стандарты для искусственного интеллекта? Если да, в какой степени?
Юлиан Нида-Рюмелин: Такие стандарты есть. Это Конституция Федеративной Республики Германии (Основной закон) и определенные культурные традиции. Но очень непросто применить их так, чтобы они эффективно работали. Одна из вещей, которые нужно учитывать, — это риск потери приватности из-за использования вполне обычных инструментов коммуникации. Также сейчас есть необходимость в разъяснениях и регулировании на международном уровне. И не обязательно это будет в ущерб компаниям. Они тоже заинтересованы, чтобы была ясность. Сейчас против некоторых компаний (например, Google) возбуждены дела, которые предполагают огромные штрафы. Четкие принципы — в экономических интересах компаний в том числе. Поэтому нужны международные институции, которые возьмут на себя ответственность, не только в вопросах изменения климата, но и в вопросах цифровых технологий.
Клаус Шваб: Можете дать нашим зрителям советы, как обеспечить ответственное использование искусственного интеллекта в своей компании?
Мартина Кёдериц: Во-первых, каждый человек в компании должен спрашивать себя, как он пользуется данными. Во-вторых, нужно активно взаимодействовать с искусственным интеллектом. И не ждать, пока процесс закончится, а получать свой собственный опыт. В-третьих, компании должны очень четко оговаривать, с какой целью используется искусственный интеллект — каким должен быть результат? Кто получит от этого пользу? Я считаю, что искусственный интеллект может иметь большое значение.
Юлиан Нида-Рюмелин: У меня довольно неоднозначное отношение к требованию об открытости. Не все должно быть прозрачно. Идеология открытости должна быть ограничена в вопросах личного и коллективного самоопределения. С другой стороны, как граждане мы должны иметь возможность требовать большей прозрачности, когда дело касается использования наших данных компаниями.
Конечно, для компаний это большой вызов, потому что они очень надежно защищают свои данные и не любят публично обсуждать алгоритм контроля. Однако именно из-за этого возникает неуверенность — люди не знают наверняка, что произойдет с их данными. Я считаю, что большие компании, такие как Facebook, сейчас играют культурную роль. Они рассказывают о правильном поведении целому поколению, которое развивается вместе с ними. Однако они не всегда справляются со своей задачей.
sostav.ua