AI 학습 데이터
-

AI의 발전으로 디지털 창작물의 데이터 활용이 증가하고 있지만, 종종 명확한 동의 없이 진행됩니다. 기업들은 약관을 통해 책임을 최소화하고, 사용자 권리를 제한합니다. 이에 따라 소유권 및 데이터 사용에 관한 법적 분쟁이 발생하고 있으며, 새로운 라이선스 및 계약 모델이 필요합니다.
-

생성형 AI의 학습 데이터는 인간 창작물로 구성되어 법적 갈등이 심화되고 있다. 미국, 유럽연합, 일본, 중국, 한국 등 각국은 저작권 보호와 AI 기술 혁신 간의 균형을 모색하며, 공정 이용, TDM 및 비향유 목적 면책 등의 규제를 통해 대응하고 있다.
-
EU AI 법 3차 행동 강령(Code of Practice)과 시사점
AI 리스크 관리, AI 모델 정책, AI 거버넌스, AI 법률, AI 법률 초안, AI 법안, AI 법적 책임, AI 보고 의무, AI 규제 가이드라인, AI 규제 초안, AI 투명성, AI 학습 데이터, AI 행동강령, AI 윤리, AI 저작권, AI와 저작권, ChatGPT 규제, Code of Practice, EU AI Act, EU AI 법, 대규모 언어모델, 범용 인공지능, General-Purpose AI, GPAI, GPT, 시스템적 위험, 유럽 AI 정책, 인공지능 규제, 창작자 반발, 창작자 권리 보호, LLM, robots.txt, TDM 옵트아웃
EU AI 법은 2024년 유럽연합에서 채택된 인공지능 규제로, 안전성과 인권 보호를 목표로 합니다. 최근 공개된 GPAI에 대한 3차 행동 강령 초안은 투명성, 저작권 준수, 위험 관리, 사용자 권리 보호를 포함하지만, 창작자 권리 보호에 대한 우려가 제기되고 있습니다.
-

한국 저작권법은 AI 창작물을 보호하지 않으며, AI 단독으로 생성한 저작물은 법적으로 인정되지 않습니다. AI 학습에 대한 저작물 사용 규제가 부족해 논란이 되고 있으며, 정부는 정책 개선을 추진하고 있지만 법제화는 신중한 접근을 요구하고 있습니다. AI와 창작자 간의 균형이 필요합니다.

