Искусственный интеллект безусловно влияет на наш образ жизни, меняет принципы работы и позволяет внедрять инновации. Но огромный потенциал этой технологии также определяет уровень ответственности за ее применение. Несмотря на бесчисленное количество возможностей ИИ, недостаточное внимание к безопасности или сознательное манипулирование данными может нанести непоправимый вред как отдельным людям, так и обществу в целом. Поэтому сегодня все чаще говорят о том, что ИИ-приложения должны разрабатываться ответственно, с ориентацией на потребности общества.

Этика в области ИИ представляет собой набор принципов и подходов, которые воплощают общие понятия «правильного» и «неправильного» при разработке и внедрении ИИ-технологий для конкретных целей. Система нравственных ценностей выстраивается специалистами уже не первый год, и в этой статье я хочу затронуть основные этические дилеммы, связанные с ИИ, которые волнуют людей больше всего.

ИИ – новый большой брат, который следит за нами?

Вопрос баланса между приватностью и наблюдением за человеком – постоянный предмет дискуссии в сфере информационных технологий. Ведь сегодня сбор и хранение данных происходит в цифровом виде, а нас все чаще окружают различные датчики и сенсоры, которые переводят в цифровой формат обычные, «аналоговые» детали наших повседневных дел. Как следствие, наши жизни автоматически становятся более цифровыми.

Многочисленные бесплатные интернет-сервисы сохраняют за нами огромный шлейф информации, и именно так они зарабатывают деньги, используя наши информационные следы. Но мы не можем даже предположить, как эти сведения о нас будут использованы в будущем.

Разработчики ИИ-технологий ежедневно собирают, обрабатывают и используют огромное количество персональных данных. И, чаще всего, перед началом работы с большими данными они не спрашивают разрешения у каждого субъекта их исследований. Поэтому работа ИИ с большими объемами реальных записей нередко ведет к раскрытию персональных данных и создает риск компрометации личной информации.

К счастью, решением этой проблемы специалисты занимаются несколько лет, и проверенные методы защиты приватности уже существуют. Да, для их реализации нужно потратить немного больше усилий и денег, но зато можно создавать системы, учитывающие требования безопасности — с шифрованием коммуникаций и обезличиванием данных, используемых для анализа.

Наиболее проблемной зоной в данном случае остается вопрос применения законов на уровне государств и частных лиц. Например, в Евросоюзе действует Общее положение о защите данных (General Data Protection Regulation, GDPR), а в России высокие требования применяются к любым компаниям, оперирующим личной информацией, согласно №152-ФЗ «О персональных данных». Тем временем, в США и Китае уровень вмешательства государства в работу ИИ-систем оказывается ниже. Вероятно, это делается для достижения прорывов и получения преимуществ за счет новых технологий.

Какой подход в действительности лучше? Пока ответить на этот вопрос сложно, но уже сейчас аналитики Gartner прогнозируют, что к 2024 году 60% всех данных, необходимых для разработки ИИ-приложений, будут генерироваться синтетически, не создавая угроз для конфиденциальности.

Может ли ИИ быть нейтральным – без предвзятости и манипулирования?

Можно бесконечно утверждать, что умные машины не имеют своего морального компаса и не следуют никаким собственным принципам. Однако при этом нельзя забывать, что они могут быть субъективными, или попросту содержать ошибки и стереотипы своих создателей — людей. Одной из больших проблем в обучении ИИ остается наличие погрешностей в обучающих наборах данных. В конечном счете, качество любого ИИ-анализа зависит от качества данных: если на входе будет мусор, на выходе будет то же самое. И, если в первоначальных данных прослеживалась какая-то закономерность, избавиться от неё будет очень сложно. Так ИИ может сформировать собственные «предрассудки» против расы, пола, религии или этнической принадлежности.

Но предвзятость ИИ может быть использована целенаправленно для улучшения индивидуального опыта пользователей и персонализации цифровых сервисов, чтобы усовершенствовать жизнь потребителей. Эту же информацию можно использовать для манипулирования поведением людей в онлайне и офлайне, предполагая выбор человека в конкретной ситуации, чтобы в будущем его изменить. Интенсивное взаимодействие с цифровыми системами, хранящими данные, делает пользователей более подверженными внешнему воздействию. Таким образом, благодаря ИИ можно таргетироваться на отдельных людей и небольшие социальные группы, ориентируясь на паттерны их поведения. Получается, субъективность ИИ – это и счастье, и несчастье одновременно.

Специалисты обсуждают и предлагают свои этические принципы для разработки и развертывания ИИ-технологий. Пока большинство организаций, которые занимаются этой работой, находятся в Северной Америке и Европе, то есть их видение склоняется к «западным» ценностям. Но важно понимать, что люди работают с ИИ и технологиями на его основе по всему миру, поэтому ИИ должен опираться на универсальные ценности, особенно в вопросах этики. По этой причине аналитики Gartner ожидают, что к 2024 году 60% поставщиков ИИ-технологий будут создавать специальные средства для смягчения возможного вреда от применения их технологий.

Можно ли доверять ИИ?

ИИ-системы «учатся» находить шаблоны с помощью имеющихся наборов данных, чтобы впоследствии подсказывать полезные решения. В то же время программисты не могут сказать, какие именно шаблоны будет использовать система во время работы.

С одной стороны, если мы полагаемся на ИИ при принятии критически важных решений, это может стать огромной проблемой. Как поведет себя система, когда нужно одобрить или отклонить займ, решить, кого брать на работу или определить путь автомобиля, когда авария неизбежна? (вспоминаем «проблему вагонетки»). Но с другой стороны, ИИ уже сейчас помогает нам с множеством решений — от выбора следующего фильма на стриминговом сервисе до блокировки подозрительных транзакций. Проблема здесь в том, что чем «умнее» становится ИИ, тем сложнее оказываются угрозы, с которыми мы сталкиваемся. Злоумышленники лучше адаптируются к системам защиты и эффективнее определяют их слабые места.

Показательный пример, когда не знаешь, доверять или не доверять – технологии создания подделок. Так называемые дипфейки уже стали надежным доказательством…ненадежности любого доказательства. Сейчас можно легко фальсифицировать цифровое изображение, видео или аудиозапись. И, судя по всему, скоро можно будет создать фейковый текст, фото или видео любого содержания с нуля. Обнаружить дипфейки в будущем будет только сложнее. Как отмечают в Gartner, в 2023 году около 20% удавшихся взломов учетных записей будет происходить именно с использованием дипфейк-технологий и социальной инженерии, чтобы заставить пользователей делиться конфиденциальной информацией или переводить деньги мошенникам.

Поэтому, может нам стоит запретить подобный вариант использования ИИ, потому что мы сами пока не можем объяснить, с какой целью он используется. А если мы хотим создавать системы, которым можно доверять, то нам важно уметь объяснять, как они работают и зачем.

Заменит ли ИИ людей на работе?

Для многих людей самым большим опасением в отношении ИИ является замена человеческой рабочей силы машинами в самых разных отраслях. И как это было со всеми технологическими прорывами, сегодня мы видим, что рабочие места не сокращаются. Вместо этого меняется потребность в навыках и работодатели ищут сотрудников на позиции, о которых раньше никто даже не задумывался. Чем больше ИИ будет проникать в реальную жизнь, тем больше будет таких примеров.

ИИ заменит человека в определенных индустриях, особенно в транспортной сфере, розничной торговле, в сфере государственных услуг и сервиса. Это значит, что организации смогут использовать человеческие ресурсы для выполнения более высокоуровневых задач, чем прием однотипных заказов, решение простейших проблем потребителей или ручной ввод данных.

Да, машины могут решать конкретные задачи намного лучше, чем люди. Но при этом нельзя забывать, что с другими задачами они вовсе не способны справиться. Так что цель внедрения ИИ совсем не в том, чтобы заменить людей машинами, а в том, чтобы облегчить труд человека, позволяя ему сконцентрироваться на более сложной и приятной работе. Согласно исследованиям Gartner, уже к 2023 ожидается, что аналитика станет более обширным инструментом и вместо текущих 35% увеличит охваты использования до 50%.

Стоит ли игра с ИИ свеч?

Даже учитывая все темные пятна в области ИИ и сомнительные варианты его использования, о которых говорилось выше, однозначный ответ на этот вопрос: «Да!». Ведь внедрение ИИ делает наши жизни проще и лучше каждый день. И одна из областей, получивших огромный импульс за счет внедрения ИИ — это здравоохранение. Именно ИИ-технологии помогают быстрее подбирать более эффективные методы лечения, интерпретировать медицинские изображения, отслеживать данные пациентов с носимых датчиков, находить новые лекарства и тестировать вакцины в более сжатые сроки.

В банковской сфере ИИ помогает выявлять подозрительные транзакции, рассматривать заявки на кредит…ИИ может писать статьи, сочинять музыку, записывать вас на стрижку, переводить меню в зарубежных странах и даже выбирать те сорта вина, которые вам вероятнее всего понравятся.

По мере развития технологий, мы будем взаимодействовать со все более надежными и интеллектуальными системами, а ИИ станет неотъемлемой частью наших ежедневных дел. Учитывая, что все больше технологических лидеров работают сегодня над ответственным использованием ИИ – стремятся к прозрачности, конфиденциальности и справедливости, – можно рассчитывать на внедрение этических норм и защиту персональных данных, которые ставят людей на первое место. ИИ появился и останется с нами надолго, поэтому наша задача – извлечь из него максимум пользы.


Автор: Агнешка Пехоцкая, консультант SAS в Польше


Новые комментарии:

Ваш адрес email не будет опубликован. Обязательные поля помечены *

  1. Сидим в первых рядах на спектакле революций и научных прорывов)) Кстати недавно компания нейролинк Илона Маска выложила ролик, где макака с вживленным нейромодулем в мозг играет в компьютерные игры. В начале ролика она играет джойстиком, а затем его отключают и все управление происходит силой мысли макаки )) В качестве поощрения за успехи в игре ей какие-то вкусности через трубку дают, поэтому она её не выпускает из рта. Этот чип можно вживить кому угодно, он беспроводной. И с помощью него можно управлять электронными устройствами силой мысли. Просыпаешься такой, одной мыслью включаешь свет, открываешь шторы, ставишь чайник, набираешь сообщения в мессенжжере. А когда доработают обратную связь у чипа, то люди смогут общаться друг с другом силой мысли в теории.

  2. Мне кажется, проблема не в ИИ, а в людях. Точнее, в их противоречивых требованиях. С одной стороны, они хотят, чтобы информационная среда, в которой приходится общаться, достаточно хорошо их понимала. Чтобы реклама, если уж приходится ее видеть, отвечала реальным интересам, и т. п. С другой, они пугаются, если видят, что о них знают слишком много. Ну а как иначе предложить что-то подходящее? Для этого человека надо очень хорошо изучить.

  3. Есть исследования «Ценность Интернета», с помощью которого пользователи высказывают свое мнение о том, как они используют и воспринимают Интернет.
    Были опрошены 4953 респондента по всему миру, как они используют Интернет для управления своими финансами. Результаты подтверждают, что III в странах уровня выше среднего, ниже среднего и низким замедляется. Особенно, более резкое замедление замечено в низкодоходных странах, оно угрожает увеличить цифровой разрыв там, где необходима интеграция.

  4. Нужно активнее ИИ привлекать к «пандемийным» проблемам. Хотя в лаборатории СБ по искусственному интеллекту спроектировали нейросистему, определяющую по дыханию, голосовым особенностям и кашлю вирусоносителя, но нужны системы лечащие (ассистирующие при лечении). Чтобы ставила диагноз не хуже ПЦР-методики, «ходила» в «красную зону с врачом» и т.д.

  5. Существует мысленный эксперимент для определения ИИ, называемый «китайская комната». К сожалению, он подтверждает, что на сегодняшний день полноценного ИИ ещё не существует, а все заявленные примеры – только хорошо завуалированные образцы обычных программ и механизмов. Поэтому, не приблизившись к изобретению настоящего ИИ, я думаю пока рано обсуждать проблемы, с ним связанные, так как, возможно, он никогда и не будет создан.

  6. С развитием ИИ жизнь человека упрощается в сотни раз. Это факт.
    ИИ позволит человеку заняться собственным саморазвитием и выйти на новый виток эволюции.
    Хорошо или плохо развитие ИИ? Все будет определяться перевесом в сторону добра или в сторону зла. А это, естественно зависит от личности. Что действительно важно, так это то, человеку нужно воспользоваться развитием технологий, чтобы выйти на более высокий уровень сознания и уметь управлять теми инструментами, которые он создал.
    История в своей сути повторяется. Всегда добро будет бороться со злом. И это тоже факт. Нас самом деле важно, чтобы как можно больше людей росли в сознательности и направляли вектор своего развития в сторону Гармонии и Мира.

  7. Любой компьютер — это именно компьютер. Даже если он очень умный.
    Он подчиняется тем программам, которые заложил в него человек. И код любого ИИ можно написать таким образом, что ничего, кроме пользы, он приносить не будет. В крайнем случае — остановится и отправит запрос своим операторам — живым людям.
    Помните, как это было у Азимова? Три закона робототехники:
    1) Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
    2) Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
    3) Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

  8. Для меня плюс в развитии ИИ — это помощь в уходе за малышами и пожилыми людьми. И если детям в этом направлении уделяется большое внимание, то по поводу старшего поколения такого не скажешь. А жаль. Мы были бы спокойнее за родителей если бы знали, что рядом с ними есть такой ИИ, который напомнит про прием лекарств, измеряет давление, расскажет про погоду или поможет с уборкой. Надеюсь, что к тому времени когда я стану бабушкой, у меня точно будет такой помощник.

  9. Да, технологии и развитие ИИ шагают вперёд с огромной скоростью. Уже сейчас «умные» машины решают за нас множество задач. Компьютеры, навигаторы, техника для дома, самостоятельно выполняющая ряд задач — это все круто. И в то же время вспоминается американский фильм «Я — робот» с У.Смиттом в главной роли. Так сидишь и думаешь, а что если ИИ когда-нибудь решит, что людей надо контролировать, а не наоборот, что тогда? Кто сможет остановить восставшие машины?