К ИИ подошли мягко
В мире по-разному подходят к развитию ИИ. В Японии технологиям разрешили обучаться на любых доступных продуктах и не учитывают мнение правообладателей, в Израиле, Индии и Австралии власти пока не принимали специальных законов, решив посмотреть, как будут действовать компании. В Европе очень берегут права человека, там ввели некоторые ограничения на использование ИИ.
В России в этом вопросе сложилась гибридная политика: с одной стороны, власти стараются соблюсти интересы людей, с другой — не допустить деструктивного воздействия технологий, а с третьей — не тормозить прогресс, рассказала начальник президентского управления по развитию информационно-коммуникационных технологий Татьяна Матвеева. Сейчас, по ее словам, разрабатываются стандарты использования ИИ, которые лягут в основу системы сертификации. Для государства использование сертифицированных решений может стать обязательным, для бизнеса на первом этапе — добровольным.
В мире с интересом изучают наш кодекс этики в сфере ИИ, к которому уже присоединились 383 участника, в том числе 27 зарубежных организаций из 19 стран, сообщила Матвеева. Кодекс, напомнила она, это не закон, а норма мягкого права — своего рода социальная ответственность разработчиков за то, что ИИ не навредит.
В будущее Матвеева смотрит с оптимизмом и верит, что к 2030 году Россия сможет стать лучшей регуляторной юрисдикцией для развития ИИ.
Наши данные — только наши
Глава Комитета Госдумы по информационной политике Александр Хинштейн в своих оценках был более сдержан, сказав, что законодательное регулирование ИИ в России пока и вовсе отсутствует. Сам термин упоминается всего в двух законах. Ситуацию пора исправлять, поэтому команда законодателей и экспертов сейчас пишет Цифровой кодекс, а в Госдуме ко второму чтению готовят законопроект о больших данных. Такие данные, будучи даже обезличенными, все же остаются персональными, подчеркнул Хинштейн. «Их нельзя пускать на самотек, и нужно обеспечить право человека ими распоряжаться», — сказал он.
Еще одна законодательная инициатива на подходе — регулирование дипфейков, поскольку количество преступлений, совершаемых с помощью этой технологии, только растет. Каким будет это регулирование, Александр Хинштейн не сообщил. Запрещать дипфейки как класс было бы странно, считает вице-президент по кибербезопасности Сбербанка Сергей Лебедь. С их помощью можно сделать много чего хорошего: изучать историю, создавать хорошие фильмы и музыку. На ПМЭФ работу технологии демонстрируют многие компании, обратил внимание специалист: стенды говорят на разные голоса и проецируют самые разные изображения.
Что до недобросовестного использования дипфейков, то эту проблему скоро решат, анонсировал Сергей Лебедь: «Уже есть технологии их выявления, скоро они будут встроены во все гаджеты».
Мир в погоне за технологиями
ИИ — универсальная технология, ее можно использовать, чтобы учить и лечить людей, строить и программировать, и даже управлять государством. В самых чувствительных сферах нужно использовать доверенные отечественные решения, в которые не смогут попасть так называемые отравленные данные извне, подчеркнула Татьяна Матвеева. А специалист в сфере информационных технологий Игорь Ашманов призвал исключить применение ИИ в социальной сфере: технология не должна оценивать людей. «Лишние данные о нас ИИ не нужны, — сказал он. — А нужны они жадным коммерсантам для зарабатывания денег. Без данных пострадает только сверхприбыль и цифровой капитализм, а нам это не нужно».
Обсудили на площадке и международное взаимодействие в сфере ИИ. В марте 2024 года Генассамблея ООН приняла первую резолюцию о регулировании искусственного интеллекта, напомнила официальный представитель МИД Мария Захарова. Документ носит мирный характер, но в ближайшее время она предрекла обострение битвы за место под солнцем в сфере разработок. «Страны начнут доставать из рукава свои наработки, чтобы занять побольше места на этой поляне», — заключила Захарова.
Резолюция, предложенная США, призывает к мировому сотрудничеству в сфере ИИ. При ее рассмотрении американский постпред при ООН отметила, что страны, поддержавшие инициативу, не хотят допустить, «чтобы искусственный интеллект управлял людьми». Такую позицию Игорь Ашманов посчитал блефом: «На международном уровне договориться нам ни о чем не удастся, там лидеры — США и Китай. Они рвутся к первенству и не хотят себя ограничивать».
России, по мнению Ашманова, нужно сотрудничать со странами БРИКС, в числе которых, кстати, Китай, и создавать свой пул технологий. «Сам по себе ИИ никому не угрожает — угрозу представляют люди, которые им управляют», — заключил специалист.
Источник Парламентская газета
- 2
- 0
- 0
- 0
- 0
- 0