Директор "Яндекса" по распространению технологий Григорий bobuk Бакунов сегодня рассказал Совету Федерации про искусственный интеллект. Сенаторы узнали, каковы перспективы развития искусственного интеллекта в мире и России, какие решения потребуются от законодателей?
Дополнительно: ещё в 2016—2017 годах председатель совета директоров Mail.ru Group Дмитрий Гришин с соавторами создали концепцию первого в мире закона о робототехнике и отправили его на рассмотрение в комитет Госдумы по экономической политике. Конвенция о робототехнике и искусственном интеллекте пока не стала официальной российской нормой.
На заседании в Совете Федерации в рамках «Времени эксперта» выступил директор по распространению технологий Яндекс Grigory Bakunov. Эксперт рассказал об искусственном интеллекте и том, как уже сегодня он меняет нашу жизнь и становится ее неотъемлемой частью.
Во время выступления были затронуты важные вопросы:
→ Почему искусственный интеллект на самом деле не «искусственный» и не «интеллект»;
→ Какие проблемы возникают при общении людей с роботами;
→ Как системы с искусственным интеллектом получают жизненный опыт;
→ С разрешением каких морально-этических проблем мы столкнемся при внедрении систем искусственного интеллекта;
→ Какие решения потребуются от законодателей для внедрения автоматизированных систем принятия решений;
→ Каковы перспективы развития искусственного интеллекта в мире и России.Полное выступление Григория Бакунова ⤵
Posted by Совет Федерации on Wednesday, April 10, 2019
Добавить 6 комментариев
Машины захватить лакомый кусок, конечно. Яндексовый ИИ за каждый руль и всё такое.
Только мне непонятно зачем пытаться решить сложную задачу если под ногами нерешены простые: трамвай, метро, электричка?
Между тем Бобук рассказал российским сенаторам забавную подробность о «проблеме вагонетки». Оказывается, что китайские роботизированные машины проблему решили (то что китайские ездить не должны, не могут ездить — это дело десятое, эти-то технологии они у того же Яндекса украдут).
Короче в Китае ситуация решается так. Кого давить китайскому робокару? Правильно. Давить того у кого ниже _социальный капитал_.
Ясное дело, что для этого нужны или жёлтые звёзды на телогрейках, цветовая дифференциация штанов или население надо чипировать.
Кто не чипованный — давим в первую очередь! У чипованных сравниваем капитал, у кого меньше — давить неудачника. Если ситуация предполагает, что в машине едут так себе людишки, не очень, на их пути стоят капитальные люди и есть возможность спасти капитальных ценой уничтожения фиговеньких людишек, машина врезается в стену.
Объясните пожалуйста по-простому, почему так важна проблема вагонетки в самоуправляемых машинах?
Водителю пдд предписывает тормозить как можно раньше, не меняя траектории(полосы). Любая инициатива человека с маневром уклонения — огромный риск с правовой точки зрения. Почему вдруг робот должен прыгать на стены, отворачивать в остановки и выбирать? Прям как в анекдоте «кого давить будешь».
>Только мне непонятно зачем пытаться решить сложную задачу если под ногами нерешены простые: трамвай, метро, электричка?
Они не простые, так как дорогие, «сложными» IT решениями дешевле многие вопросы решить, тотальная оцифровка — единственный шанс России сократить чудовищное отставание от запада.
> Почему вдруг робот должен прыгать на стены, отворачивать в остановки и выбирать?
Потому что может! Это человек впадает в ступор, поэтому правило предписывает ему торможение, вплоть до остановки. ИИ способен за доли секунд выбрать оптимальный вариант развития событий, поэтому должен выбирать.
Это правильно как с морально-этической точки зрения, так и с имиджевой, когда автопилот от яндекса раздавит пару человек, условный когнитивтехнолоджис будет рассказывать, как яндекс легко мог этого избежать, причинив пару царапин пассажирам, но он выбрал раздавить младенцев…
Мне понравилось, как Яндекс Бобук перевёл для сенаторов на русский кальку «искусственный интеллект». Сказал, что он вовсе не «искусственный», он «рукотворный», «созданный человеком» [конкретным человеком, гражданином с ФИО]. А теперь вопрос на внимание. Кто-нибудь помнит случаи, где Яндекс занял бы публичную позицию, соответствующую пониманию Бакунова. Очень простую, по формуле: «решение принял алгоритм, _созданный Яндексом_»? Я слышал только сокращённую, а потому вздорную формулу: «решение принял алгоритм». Мол, алгоритм так решил. Сам. Он ничей. Он сирота. Поэтому, с нас-то какой спрос? Мы сироту просто приютили. А он… По этому с Яндекса спроса никакого. Просто обижайтесь «на алгоритм», а лучше на случайность и на мироздание в целом.
все придумано давным давно. Называется «законы», создаются учонными-юристами. И прекрасно регулирют жизнь общества.
Если не соблюдаются законы а равно не выдумываются новые и более удобные, то никакие алгоритмы и искуственные интеллекты не помогут.
Рассказки про всякие панацеи (в виде ИИ, БД, балбла) — вечный тутошний инфофон. Неумение и неспособность создать\соблюдать хотябы эелементарынй набор законов и правил хотябы лет 10-20 приводит к постоянному поиску инноваций, новых концепций про особый путь, какието упоавния на какието вотвот технологии и прочий хлам. Русский медведь, обособленный инет, блаблабла, свойпуть, кузькинамать и прочее.
И стереотипно безрезультатный результат.
Тут смотрел бредолекцию И.С. какраз вот про ИИ, где он начинает (и это какбы аксиома, принимается без обсуждений), что БД имеют огромную ценность и крайне важны. В отличие от всяких муравьев и т.д. Вот изучение БД муравьев какраз выявило кучу нового в посление годы про их повадки и т.д.
А что выявило нового это самое ИИ? Каков именно эффект и что такого выяснилось про «гомосапиенс», чего уже неск. тыщ лет неизвестно было доселе? Какие именно решения (оптимальные) принял этот ИИ, до которых никто бы не смог додуматься? Чтото никаких доказательств не слыхал.
Вывод: если люди дремучие и маловысокообразованные их хоть в какой сенат собери и хоть каким ИИ вооружи — один хрен кроме арашуковщины и 32 турибйона на майбахе ихняя фантазия не может подниматься. Ибо генетика.