Европейская комиссия 7/11 опубликовала «Кодекс практики для ИИ» (General-Purpose AI Code of Practice) в качестве переходного механизма, помогающего компаниям соблюдать «Закон о ИИ», содержание которого сосредоточено на защите авторских прав и повышении прозрачности крупных ИИ-моделей. В ближайшее время, начиная с августа, он будет применяться к таким крупным генеративным ИИ-моделям, как ChatGPT и Claude, а нарушители могут быть оштрафованы на 7% от дохода.
Запрет на использование盗版 материалов для обучения ИИ, защита прав создателей
Европейская комиссия заявила, что этот кодекс практики требует от разработчиков не использовать пиратский контент для обучения ИИ. Если автор четко заявляет, что "не хочет, чтобы его произведения и данные использовались для обучения ИИ", разработчики должны уважать это и исключить такие материалы.
Кроме того, если содержимое, созданное искусственным интеллектом, вызывает подозрения на нарушение авторских прав, компании должны иметь механизм для решения и исправления таких проблем.
Разработчики должны предоставить полную документацию по ИИ для реализации принципа прозрачности.
Исполнительный комитет добавил, что разработчики ИИ-моделей должны предоставить регулирующим органам и третьим сторонам интеграторам актуальные документы по использованию моделей, в которых конкретно раскрывается, как работает ИИ и его ограничения, и должны реализовать «принцип прозрачности».
Это правило в основном касается «Универсальных AI моделей» (General Purpose AI), таких как ChatGPT от OpenAI, Claude от Anthropic и т.д., и ожидается, что оно вступит в силу в августе.
Правила являются добровольными, и за их нарушение максимальный штраф составляет 7% от годового дохода.
Данные рекомендации являются «добровольными», и компании могут выбирать, подписывать их или нет, с целью подготовки к предстоящему закону «Об ИИ». Исполнительный комитет подчеркивает, что компании, подписывающие рекомендации, могут получить больше юридических гарантий и снизить риск нарушения закона в будущем.
В случае нарушения Закона об ИИ максимальный штраф может составить 7% от годового дохода компании. Для разработчиков высоких AI моделей максимальный штраф составит 3% от годового дохода. Эти правила изначально планировались к публикации в мае этого года, но исполнительный комитет в конечном итоге отложил их до июля; в настоящее время нет планов по дальнейшему отсрочиванию сроков вступления в силу закона.
Общие принципы были разработаны Европейской комиссией, которая пригласила представителей AI-лабораторий, технологических компаний, научного сообщества и организаций цифровых прав человека для формирования рабочей группы, чтобы совместно разработать содержание проекта.
Все технологические компании Западной Европы и Америки выразили свое несогласие.
Однако этот стандарт сразу вызвал backlash со стороны таких технологических компаний, как Meta и Alphabet, которые также раскритиковали первоначальный проект за то, что он выходит за рамки первоначального содержания "Закона о ИИ" и дополнительно увеличивает нагрузку на бизнес. В ответ на это в Европе также появились протестные настроения.
Полупроводниковая компания ASML (ASML), Airbus и стартап в области ИИ Mistral AI в начале июля совместно призвали Европейский Союз отложить на два года внедрение Закона об ИИ, утверждая, что ЕС должен принять более дружелюбный к инновациям подход к регулированию.
Темы баланса прав создателей и технологических инноваций все еще существуют.
Ранее легендарный режиссер студии анимации Ghibli Хаяо Миядзаки заявил:
«Совершенно не хочу внедрять ИИ в работу, это оскорбление самой жизни. Я считаю, что человечество приближается к концу эпохи, одновременно теряя уверенность в себе.»
Когда AI модели в значительной степени полагаются на данные, собранные из интернета, а иногда даже без разрешения используют произведения авторов для обучения, это может не только нарушать авторские права, но и заставлять многих художников чувствовать, что ценность их творчества размыта, а эмоции заменены. На этот раз Европейский Союз первым предложил правила и практические нормы для AI. Хотя спорные вопросы еще существуют, это, безусловно, попытка прояснить границы между «лицензированием данных», «ответственностью технологий» и «уважением к творчеству». В будущем как достичь баланса между защитой авторов, поощрением инноваций и предотвращением злоупотреблений станет долгосрочным вызовом, с которым столкнутся законодательства и отрасли разных стран.
Эта статья о новом законе ЕС по ИИ, который наказывает ChatGPT и Claude! За пиратское обучение и нарушение авторских прав максимальный штраф 7% от выручки. Впервые опубликовано в Chain News ABMedia.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Новый закон ЕС по ИИ наказывает ChatGPT и Claude! Максимальный штраф за пиратское обучение и нарушение авторских прав составляет 7% от выручки.
Европейская комиссия 7/11 опубликовала «Кодекс практики для ИИ» (General-Purpose AI Code of Practice) в качестве переходного механизма, помогающего компаниям соблюдать «Закон о ИИ», содержание которого сосредоточено на защите авторских прав и повышении прозрачности крупных ИИ-моделей. В ближайшее время, начиная с августа, он будет применяться к таким крупным генеративным ИИ-моделям, как ChatGPT и Claude, а нарушители могут быть оштрафованы на 7% от дохода.
Запрет на использование盗版 материалов для обучения ИИ, защита прав создателей
Европейская комиссия заявила, что этот кодекс практики требует от разработчиков не использовать пиратский контент для обучения ИИ. Если автор четко заявляет, что "не хочет, чтобы его произведения и данные использовались для обучения ИИ", разработчики должны уважать это и исключить такие материалы.
Кроме того, если содержимое, созданное искусственным интеллектом, вызывает подозрения на нарушение авторских прав, компании должны иметь механизм для решения и исправления таких проблем.
Разработчики должны предоставить полную документацию по ИИ для реализации принципа прозрачности.
Исполнительный комитет добавил, что разработчики ИИ-моделей должны предоставить регулирующим органам и третьим сторонам интеграторам актуальные документы по использованию моделей, в которых конкретно раскрывается, как работает ИИ и его ограничения, и должны реализовать «принцип прозрачности».
Это правило в основном касается «Универсальных AI моделей» (General Purpose AI), таких как ChatGPT от OpenAI, Claude от Anthropic и т.д., и ожидается, что оно вступит в силу в августе.
Правила являются добровольными, и за их нарушение максимальный штраф составляет 7% от годового дохода.
Данные рекомендации являются «добровольными», и компании могут выбирать, подписывать их или нет, с целью подготовки к предстоящему закону «Об ИИ». Исполнительный комитет подчеркивает, что компании, подписывающие рекомендации, могут получить больше юридических гарантий и снизить риск нарушения закона в будущем.
В случае нарушения Закона об ИИ максимальный штраф может составить 7% от годового дохода компании. Для разработчиков высоких AI моделей максимальный штраф составит 3% от годового дохода. Эти правила изначально планировались к публикации в мае этого года, но исполнительный комитет в конечном итоге отложил их до июля; в настоящее время нет планов по дальнейшему отсрочиванию сроков вступления в силу закона.
Общие принципы были разработаны Европейской комиссией, которая пригласила представителей AI-лабораторий, технологических компаний, научного сообщества и организаций цифровых прав человека для формирования рабочей группы, чтобы совместно разработать содержание проекта.
Все технологические компании Западной Европы и Америки выразили свое несогласие.
Однако этот стандарт сразу вызвал backlash со стороны таких технологических компаний, как Meta и Alphabet, которые также раскритиковали первоначальный проект за то, что он выходит за рамки первоначального содержания "Закона о ИИ" и дополнительно увеличивает нагрузку на бизнес. В ответ на это в Европе также появились протестные настроения.
Полупроводниковая компания ASML (ASML), Airbus и стартап в области ИИ Mistral AI в начале июля совместно призвали Европейский Союз отложить на два года внедрение Закона об ИИ, утверждая, что ЕС должен принять более дружелюбный к инновациям подход к регулированию.
Темы баланса прав создателей и технологических инноваций все еще существуют.
Ранее легендарный режиссер студии анимации Ghibli Хаяо Миядзаки заявил:
«Совершенно не хочу внедрять ИИ в работу, это оскорбление самой жизни. Я считаю, что человечество приближается к концу эпохи, одновременно теряя уверенность в себе.»
Когда AI модели в значительной степени полагаются на данные, собранные из интернета, а иногда даже без разрешения используют произведения авторов для обучения, это может не только нарушать авторские права, но и заставлять многих художников чувствовать, что ценность их творчества размыта, а эмоции заменены. На этот раз Европейский Союз первым предложил правила и практические нормы для AI. Хотя спорные вопросы еще существуют, это, безусловно, попытка прояснить границы между «лицензированием данных», «ответственностью технологий» и «уважением к творчеству». В будущем как достичь баланса между защитой авторов, поощрением инноваций и предотвращением злоупотреблений станет долгосрочным вызовом, с которым столкнутся законодательства и отрасли разных стран.
Эта статья о новом законе ЕС по ИИ, который наказывает ChatGPT и Claude! За пиратское обучение и нарушение авторских прав максимальный штраф 7% от выручки. Впервые опубликовано в Chain News ABMedia.