Планы Дональда Трампа по искусственному интеллекту вызвали предупредительное письмо от 400 голливудских звезд

Более 400 крупнейших креативщиков Голливуда собрались вместе в надежде отговорить Дональда Трампа разрешить технологическим компаниям вроде OpenAI и Google подрывать законы об авторских правах ради укрепления позиций Америки как ведущей силы в области искусственного интеллекта. Лили Вачовски, со-создательница ‘The Matrix’, Бен Стиллер, Пол Маккартни, Кейт Бланшетт и многие другие недавно подписали письмо о важности сохранения законов об авторском праве в эпоху ИИ. Однако вопрос заключается в том, послушает ли Трамп артистов, взывающих к разуму, или техноброкеров, стремящихся к прибыли? К сожалению, это не сложно угадать.


🚀 Хочешь улететь на Луну вместе с нами? Подписывайся на CryptoMoon! 💸 Новости крипты, аналитика и прогнозы, которые дадут твоему кошельку ракетный ускоритель! 📈 Нажмите здесь: 👇

CryptoMoon Telegram


После долгих и утомительных забастовок SAG AFTRA в 2023 году актёры добились определённых успехов в отношении закона об авторских правах на ИИ и предотвращения кражи изображений. Однако крупные производственные компании дали лишь дюйм, когда требовалось много миль переговоров для защиты артистов от возможного воровства голосов, сценариев или образов. Режиссеры вроде Тайки Вайтити и Гильермо дель Торо объединились, чтобы подчеркнуть важность киноиндустрии и индустрии искусства для американской экономики и ее глобального влияния, предостерегая президента о том, что если он не начнёт действовать сейчас, культурное наследие Америки окажется в руинах.

«Промышленность искусства и развлечений Америки поддерживает более 2.3 миллиона рабочих мест в США с ежегодными зарплатами свыше $229 млрд., являясь фундаментом для американского демократического влияния и мягкой силы за рубежом, но компании по искусственному интеллекту просят ослабить защиту авторских прав на фильмы, телесериалы, произведения искусства, письма, музыку и голоса, использованные для обучения моделей искусственного интеллекта, лежащих в основе многомиллиардных корпоративных оценок».

Двенадцатистраничное письмо появилось как раз в тот момент, когда технологические гиганты OpenAI и Google стали активно поддерживать призыв Трампа к разработке плана действий по искусственному интеллекту. Обе компании подали краткие доклады о своих пожеланиях, которые, согласно их словам, обеспечат американское превосходство в области ИИ. В этих докладах содержатся разделы об авторских правах и обходных путях интеллектуальной собственности, что может усилить уязвимость американских художников перед заменой генеративным искусственным интеллектом.

ИИ нуждается в художниках; художники не нуждаются в ИИ

Ни для кого не секрет, что обучение ИИ требует обилия данных, созданных человеком, и зачастую их предостаточно в индустрии развлечений. Уже более 139 000 сценариев фильмов и сериалов использовались для создания наборов данных для обучения ИИ, таким образом угроза вмешательства ИИ в индустрию развлечений затрагивает не только инструменты процесса производства, но нацелена на замену художников в целом.

В целях уважения к проблеме выделения опасности от запросов технологических компаний в адрес американской индустрии развлечений, такие крупные фигуры, как Оскар-номинант Синтия Эриво, Марк Руффало, Крис Рок, Джадд Апатоу, Джон Легуизамо, Обри Плаза, Пол Джиамматье и другие подписали предостерегающее письмо, которое гласит:

Почти 250 лет законодательство об авторском праве США балансировало права авторов с нуждами общества, создавая самую яркую творческую экономику в мире. Мы рекомендуем, чтобы американский план действий по ИИ поддерживал существующие структуры авторского права для сохранения силы американской творческой и научной индустрии, а также культурного влияния Америки за рубежом.

Хотя текущие меры защиты от кражи контента ИИ недостаточны для большинства творцов, требования технологических компаний обойти эти препятствия только сделают искусство менее человечным и обогатят их еще больше. Нужно что-то предпринять до того, как на отрасль обрушится новая критика.

Смотрите также

2025-03-18 23:29