Почему детям нужна особая защита от влияния ИИ




Почему детям нужна особая защита от влияния ИИ - блог Guland

Алгоритмы могут изменить ход жизни детей. Дети взаимодействуют с Alexas, который может записывать их голосовые данные и влиять на их речь и социальное развитие. Они выкладывают видео на TikTok и YouTube, которые им навязывают рекомендательные системы, которые в конечном итоге формируют их мировоззрение.

Алгоритмы также все чаще используются для определения их образования, получения ими медицинской помощи и даже того, могут ли их родители заботиться о них. Иногда это может иметь разрушительные последствия: например, прошлым летом тысячи студентов лишились зачисления в университеты после того, как алгоритмы, используемые вместо стандартных тестов, отмененных пандемией, неверно предсказали их академическую успеваемость.

Другими словами, дети часто находятся на переднем крае, когда дело доходит до использования и использования ИИ, и это может оставить их в опасности. «Поскольку они развиваются интеллектуально, эмоционально и физически, они очень гибки», — говорит Стив Вослоо, специалист по политике в области цифровых подключений в ЮНИСЕФ, Детском фонде Организации Объединенных Наций.



Восло руководил разработкой нового набора руководящих принципов от Unicef, призванных помочь правительствам и компаниям разработать политику в области ИИ, учитывающую потребности детей. Опубликованные 16 сентября девять новых руководств стали кульминацией нескольких консультаций, проведенных с политиками, исследователями развития детей, практиками ИИ и детьми со всего мира. Они также принимают во внимание Конвенцию ООН о правах ребенка, договор о правах человека, ратифицированный в 1989 году.

Руководящие принципы не являются еще одним набором принципов ИИ, многие из которых уже говорят то же самое. В январе этого года Гарвардский центр Беркмана Кляйна рассмотрел 36 наиболее важных документов, определяющих национальные и корпоративные стратегии ИИ, и выявил восемь общих тем, среди которых конфиденциальность, безопасность, справедливость и объяснимость.

Скорее, руководство Unicef ​​призвано дополнить эти существующие темы и адаптировать их для детей. Например, системы искусственного интеллекта не должны быть просто объяснимыми — они должны быть объяснимы детям. Им также следует учитывать уникальные потребности детей в развитии. «Дети имеют дополнительные права по сравнению со взрослыми», — говорит Вослоо. По оценкам, на них также приходится не менее одной трети онлайн-пользователей. «Мы не говорим здесь о группе меньшинств», — отмечает он.

Помимо снижения вреда, наносимого ИИ, цель этих принципов — способствовать развитию систем ИИ, которые могут улучшить рост и благополучие детей. Например, если они хорошо спроектированы, инструменты обучения на основе искусственного интеллекта улучшают критическое мышление и навыки решения проблем, и могут быть полезны детям с ограниченными возможностями обучения. Эмоциональные помощники искусственного интеллекта, хотя и относительно недавно появившиеся, могут оказывать психологическую поддержку и, как было продемонстрировано, улучшают социальные навыки аутичных детей. Распознавание лиц, используемое с осторожными ограничениями, может помочь идентифицировать детей, которые были похищены или проданы.

Детей также следует информировать об ИИ и поощрять их участие в его развитии. По словам Восло, дело не только в их защите. Речь идет о том, чтобы дать им возможность определять свое будущее.

«Если говорить о неблагополучных группах, конечно, дети — самые обездоленные».



Не только ЮНИСЕФ задумывается над этим вопросом. За день до выхода проекта руководящих принципов Пекинская академия искусственного интеллекта (BAAI), организация, поддерживаемая Министерством науки и технологий Китая и муниципальным правительством Пекина, также опубликовала набор принципов искусственного интеллекта для детей.

Объявление последовало через год после того, как BAAI опубликовала Пекинские принципы искусственного интеллекта, которые считаются руководящими ценностями для развития национального искусственного интеллекта Китая. «Новые принципы, изложенные специально для детей, призваны стать« конкретным воплощением »более общих принципов», — говорит И Цзэн, директор Исследовательского центра этики и устойчивого развития ИИ при BAAI, руководивший их разработкой. Они полностью соответствуют руководящим принципам ЮНИСЕФ, также затрагивая вопросы конфиденциальности, справедливости, объяснимости и благополучия детей, хотя некоторые детали более конкретно касаются проблем Китая. Например, руководство по улучшению физического здоровья детей включает использование ИИ для борьбы с загрязнением окружающей среды.

Хотя эти две попытки формально не связаны, время также не случайно. После потока принципов искусственного интеллекта в последние несколько лет оба ведущих составителя проекта говорят, что создание более индивидуальных руководств для детей было следующим логическим шагом. «Если говорить о неблагополучных группах, то, конечно, дети — самые обездоленные», — говорит Цзэн. «Вот почему нам действительно нужно [уделять] особую заботу этой группе людей». Команды совещались друг с другом при составлении соответствующих документов. Когда Unicef ​​проводил консультационный семинар в Восточной Азии, Цзэн присутствовал на нем в качестве спикера.

В настоящее время ЮНИСЕФ планирует запустить серию пилотных программ с различными странами-партнерами, чтобы увидеть, насколько практичны и эффективны их руководства в различных контекстах. BAAI сформировала рабочую группу, в которую вошли представители некоторых из крупнейших компаний, реализующих национальную стратегию ИИ, включая компанию образовательных технологий TAL, компанию бытовой электроники Xiaomi, компанию компьютерного зрения Megvii и интернет-гиганта Baidu. Есть надежда, что они начнут соблюдать принципы в своих продуктах и ​​побудят другие компании и организации сделать то же самое.

И Восло, и Цзэн надеются, что, сформулировав уникальные проблемы, которые ИИ ставит перед детьми, руководство повысит осведомленность об этих проблемах. «Мы входим в это с широко открытыми глазами», — говорит Восло. «Мы понимаем, что это новая территория для многих правительств и компаний. Поэтому, если со временем мы увидим больше примеров того, как дети включаются в цикл разработки ИИ или политики, больше заботимся о том, как собираются и анализируются их данные — если мы увидим, что ИИ стал более понятным для детей или их опекунов — это будет победой для нас.»



Понравилась статья? Пожалуйста, оцените и поделитесь:

1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд
Загрузка...

Вам также будет интересно


Добавьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *