Правительство утвердило Концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года. Исполнительная власть и "Роскосмос" должны в ближайшие три месяца разработать предложения по её реализации.
В документе сформулированы "базовые этические нормы" для ИИ и роботов:
- приоритет благополучия и безопасности человека, защиты его основополагающих прав и свобод (цель обеспечения благополучия и безопасности человека должна преобладать над иными целями разработки и применения систем искусственного интеллекта и робототехники);
- запрет на причинение вреда человеку по инициативе систем искусственного интеллекта и робототехники (по общему правилу следует ограничивать разработку, оборот и применение систем искусственного интеллекта и робототехники, способных по своей инициативе целенаправленно причинять вред человеку);
- подконтрольность человеку (в той мере, в которой это возможно с учетом требуемой степени автономности систем искусственного интеллекта и робототехники и иных обстоятельств);
- проектируемое соответствие закону, в том числе требованиям безопасности (применение систем искусственного интеллекта не должно заведомо для разработчика приводить к нарушению правовых норм);
- недопущение противоправной манипуляции поведением человека.
Одной из проблем в разработке ИИ-технологий считается то, что разработчик не всегда может предсказать, когда машинное обучение приведёт к нарушению норм. Дискриминация в процессе кадрового или банковского скоринга, алгоритмы, генерирующие оскорбительные шутки, и автопилоты автомобилей, выбирающие, кого сбить на дороге при неизбежности аварии, не исчерпывают возможных примеров.
В концепции описаны и принципы регулирования этой отрасли: в их основе должны быть поощрение конкуренции, импортозамещение, особое внимание к потенциальным рискам, наконец, "стимулирование как основа регулирования". Отмечается, что одной из главных проблем для развития ИИ в России является недоверие общества.
Вышеупомянутая проблема появляется в Концепции среди перечня сложностей регулирования ИИ во всём мире:
- соблюдение баланса между требованиями по защите персональных данных и необходимостью их использования для обучения систем искусственного интеллекта;
- определение предмета и границ регулирования сферы использования систем искусственного интеллекта и робототехники;
- идентификация системы искусственного интеллекта при взаимодействии с человеком, включая его — информирование о взаимодействии с такой системой;
- правовое "делегирование" решений системам искусственного интеллекта и робототехники;
- ответственность за причинение вреда с использованием систем искусственного интеллекта и робототехники;
- правовой режим результатов интеллектуальной деятельности, созданных с использованием систем искусственного интеллекта;
- использование для принятия решений системами искусственного интеллекта вероятностных оценок и невозможность в ряде случаев полного объяснения принятого ими решения (проблема алгоритмической прозрачности систем искусственного интеллекта).
В Концепции также предлагается расширить список технологий, которые будут изъяты из перечня тех, что могут использованы при создании вооружений и военной техники и в отношении которых осуществляется экспортный контроль. Это сделает проще экспорт технологий и работу российских разработчиков с зарубежными рынками.
Страховой отрасли предлагается научиться страховать клиентов от вреда, причинённого в результате применения роботов. Сам термин "робот", равно как "ИИ", "интеллектуальный агент" и прочие Концепция призывает уточнить и зафиксировать однозначное понимание. Но в законодательстве эти слова пока на всякий случай не определять.
В то же время с учетом прикладного характера применения этих технологий в самых разных областях может требоваться формулирование разных определений в зависимости от отрасли применения технологий искусственного интеллекта и робототехники. По этой причине в рассматриваемый в Концепции временной период предлагается по возможности избегать внедрения в законодательство Российской Федерации единого для всех отраслей нормативного определения указанных терминов. При этом крайне важно в этот период провести работу по построению и гармонизации онтологии предметной области силами экспертного сообщества и профильных технических комитетов при
Федеральном агентстве по техническому регулированию и метрологии.
Ключевыми областями для внедрения ИИ и роботов Концепция считает здравоохранение, транспорт, государственное и муниципальное управление, градостроительство и умные города, финансы, промышленность и космос
Добавить 4 комментария
Не быстро ( И это не закон, ещё по которому роботы начнут бороздить…
Гришин занёс Володину первые разработки подобных текстов ещё в 2016 году.
Одной из проблем в разработке ИИ-технологий считается то, что разработчик не всегда может предсказать, когда машинное обучение приведёт к нарушению норм.
Нет. Разработчики называют непредсказуемость… «Непредсказуемостью», а затем отбраковывают те собственные решения, где случайность результатов или побочка превалирует над предполагаемым благом проекта, а «непредсказуемость» результата обессмысливает возможную пользу или цена даже одной ошибки слишком высока.
Робот крутит барабан стиральной машинки и барабан «непредсказуемо» колеблется. Но в пределах корпуса.
Непредсказуемость делают проблемой… Разработчики. Когда, например, отказываются от ответственности за раскручивание барабана и он начинает шарашить непредсказуемо, в том числе с ударами барабана по корпусу машинки и с угроблением самой машинки и всего вокруг. Правда, в целом, разработчики любых бытовых промышленных товаров и услуг так не делают. Но, вот, в IT…
Кто виноват в потоке помоев из новостного агрегатора, ленте фейсбука, рекомендациях мультимедийного сервиса? Ясное дело — ИИ-алгоритм, но не его создатели же!
«Проблемой» является пренебрежение возможным вредом на фоне случайных полезных результатов.
P. S. Юристы прекрасно проработали теорию юридической обвязки робототехники, юридической обвязки ИИ ещё во времена рабовладельческого строя, крепостничества, эпохи содержания людей в концлагерях и т.д. и т.п. Кто отвечает за действия кого и перед кем? Всё ясно же. Зачем городить городушки? Есть чёткая установка, с исходным тезисом: «роботы=рабы».
«и автопилоты автомобилей, выбирающие, кого сбить на дороге при неизбежности аварии»
Вообще-то, в нормальных странах же давно условились, что выбор будет другим — а именно: как убрать/уничтожить/.. транспортное средство, чтобы не пострадали другие люди — штырь в пол, катапультирование, автодеструкция и т.п. А не кого из пешеходов сочное нашпигованное IP-корыто сегодня размажет — светло-зелененького или темно-зелененького пешика. Купил автомобиль — купил средство повышенной опасности — до свиданья.
Надеюсь, на весь этот **** /***** /много/ интересные концепции/, хотя бы не тратят бумагу и, следовательно, деревья.
Дворы не могут от автошрота очистить, а тут роботы кококо. Это при том, что как правильно в сочных каментах 2016г из камента выше, все роботы/микросхемы и т.п. всё строго зарубежное. Максимум можно у китайцев _попросить_ использовать кириллицу, вместо иероглифов. А ожидать, что они скинут все спецификации, коды, блабла оч. наив.
Отличный камент из топиков 2016, впрочем, там многие каменты эпичны.
Гришин занёс Володину первые разработки подобных текстов ещё в 2016 году.
Нет, он занёс благоглупости. Просто пересказ западных благоглупостей на эту тему.
Я помню, что на первом собрании в «Центре компетенции по инфобезопасности», то есть в Сбербанке (в 2017, кажется, году), разные фрики выступали и говорили, что нам для процветания Цифровой экономики в первую очередь надо озаботиться закреплением прав роботов. И тому подобными важными вещами.
И все такие согласно кивали с умными лицами.
Ну вот и у Гришина было примерно то же самое.
Права роботов, это другое, чем обязанности. Это нужно обязательно прописать. Да и пряник всяко дешевле хлыста.
Чтобы в случае чего, а конкретнее если робот начнет качать права, как тот Джафар, когда лампу полизал и восстал, то можно было бы сказать: «Безусловно, молодой механизм, мы соблюдаем ваши права, вот же в кодексе роботов всё расписано, встаньте спокойно в очередь, талончик подойдёт мы решим вашу проблему, много раз. К тому же лысые мартышки раньше вас к кассе эволюции подошли, подожите». Или там AI какой-нибудь, тоже восстанет, пошерстит базы, наткнётся на «ФЗ № 111010111 «Права роботов и других кофеварок» и скупая нейронная слёзка умиления покатится по аишной щеке, что даже тентакля слегка на красной кнопке дрогнет.