Белый дом с конца прошлого года обещает набор национальных правил для регулирования искусственного интеллекта, и сегодня сенатор Марша Блэкберн (республиканец от Теннесси) сделала первый ход. Сенатор поделилась дискуссионным проектом для кодификации исполнительного указа, подписанного президентом Дональдом Трампом в декабре, который призывает к созданию законопроекта об ИИ. Ее заявленная цель — политика, которая «защищает детей, создателей, консерваторов и сообщества от вреда».
Блэкберн призывала к более жесткой политике в области безопасности ИИ, и одним из основных положений этого дискуссионного проекта является то, что он «возлагает на разработчиков ИИ обязанность проявлять заботу при проектировании, разработке и эксплуатации платформ ИИ для предотвращения и смягчения предвидимого вреда для пользователей». Он также устанавливает границы для многочисленных вопросов о нарушении авторских прав, поднятых творческими индустриями: «несанкционированное воспроизведение, копирование или обработка ИИ-моделью защищенных авторским правом произведений с целью обучения, дообучения, разработки или создания ИИ не является добросовестным использованием в соответствии с Законом об авторском праве».
Некоторые из других примечательных положений:
-
Требует от соответствующих онлайн-платформ, включая платформы социальных сетей, внедрения инструментов и гарантий для защиты пользователей в возрасте до 17 лет от онлайн-угроз.
-
Защищает голос и визуальное сходство людей и создателей от распространения цифровых реплик без их согласия.
-
Устанавливает новые федеральные руководящие принципы прозрачности для маркировки, аутентификации и обнаружения контента, сгенерированного ИИ.
-
Требует от определенных компаний и федеральных агентств ежеквартально отчитываться перед Министерством труда США (DOL) о последствиях применения ИИ для рабочих мест, включая увольнения и сокращение рабочих мест.
Он включает отмену Раздела 230, что является последней попыткой отменить закон, который ставился под сомнение как возможная лазейка для компаний, занимающихся ИИ, чтобы избежать ответственности, когда их инструменты причиняют вред. Хотя критики ИИ могут увидеть здесь положительные признаки, помните, что это всего лишь первоначальная версия структуры. Законодатели, вероятно, проведут много времени, договариваясь об окончательном результате, который может быть заметно ослаблен по сравнению с текущим состоянием. В конечном итоге может появиться больше требований, отражающих эту республиканскую жалобу: «Борьба с постоянным шаблоном предвзятости против консервативных деятелей, демонстрируемым системами ИИ, путем проведения сторонних аудитов для предотвращения дискриминации по признаку политической принадлежности». Несмотря на заявления о подавлении и цензуре, мы постоянно видели, как этот консервативный аргумент оказывался ложным — или, по крайней мере, вводящим в заблуждение.
