AI
-

대한민국을 뒤흔든 연쇄 보안 사고 2025년은 한국 사회가 사이버보안의 중요성을 뼈저리게 깨달은 해가 될 것입니다. 4월 SK텔레콤의 2,700만 명 USIM 정보 유출, 9월 KT의 소액결제 해킹, 8월 롯데카드의 297만 명 개인정보 유출이 연이어 터지면서 국가 핵심 인프라의 보안 취약성이 적나라하게 드러났습니다. 이 세 사건의 공통점은 무엇일까요? 바로 기본적인 보안 원칙의 부재입니다. SKT는 3년간 해커의 침입을…
-

생성형 AI의 발전과 함께 저작권 문제도 대두되고 있다. 파멜라 새뮤얼슨은 ICML에서 AI와 저작권의 충돌을 다루며, 여러 국가에서의 법적 접근 차이를 설명했다. 판결들은 AI 학습이 공정 이용으로 인정될 수도 있지만, 불법 복제는 위법으로 간주된다. 기술자들은 법을 이해하고 이를 기반으로 지속 가능한 혁신에 기여해야 한다.
-

AI의 발전으로 디지털 창작물의 데이터 활용이 증가하고 있지만, 종종 명확한 동의 없이 진행됩니다. 기업들은 약관을 통해 책임을 최소화하고, 사용자 권리를 제한합니다. 이에 따라 소유권 및 데이터 사용에 관한 법적 분쟁이 발생하고 있으며, 새로운 라이선스 및 계약 모델이 필요합니다.
-

인공지능(AI)은 지금 사회적, 경제적, 문화적 기반으로 자리잡고 있으며, Sovereign AI를 통해 자국 내에서 독립적인 AI 개발이 필요하다. 프랑스의 Common Corpus는 법적 및 윤리적으로 안전한 데이터셋으로서, 다양한 언어와 문화적 자료를 제공하며 한국의 Sovereign AI 전략 수립에 있어 유의미한 모델이 될 수 있다.
-

“우리가 만든 AI를 우리 손으로” — 한국의 소버린 AI 선언 2025년 6월, 이재명 정부는 ‘소버린 AI(Sovereign AI)’를 국가 전략으로 공식 발표하며, 100조 원 규모의 투자 계획과 함께 공공 서비스의 인공지능 전환(AX)을 추진하겠다고 밝혔습니다. 대통령실에는 AI 전담 직책이 신설됐고, 네이버 클라우드 출신의 하정우 인공지능미래기획수석이 임명되며 정책 실행의 구체적인 그림도 그려지고 있습니다. 정부는 이 전략을 통해 한국형…
-
Unlearning (AI 기억 삭제)
AI 데이터 거버넌스, AI 데이터 삭제, AI 모델 보안, AI 모델 삭제 요청, AI 개인정보 보호, AI 법률 준수, AI 편향 제거, AI 프라이버시, AI 학습 데이터 삭제, AI 학습 파라미터, AI 윤리, AI Unlearning, CCPA AI, Certified Unlearning, differential privacy, 딥러닝 개인정보, 딥러닝 프라이버시, 멀티모달 모델 프라이버시, 모델 망각, 모델 재학습, 기계 학습 삭제, GDPR AI, 삭제 가능한 AI, 잊혀질 권리, 차등 프라이버시, Unlearning 기술
이번 뉴스레터는 AI 모델에서 ‘잊혀질 권리’를 확보하기 위한 Unlearning 기술에 대해 설명합니다. AI의 데이터 삭제 요청에 따른 프라이버시 문제와 이를 해결하기 위한 다양한 Unlearning 방법들이 소개되며, 기술적 도전 과제와 향후 필요성을 강조합니다. AI의 발전과 사회적 신뢰 확보를 위한 방향성도 제시됩니다.
-

생성형 AI의 학습 데이터는 인간 창작물로 구성되어 법적 갈등이 심화되고 있다. 미국, 유럽연합, 일본, 중국, 한국 등 각국은 저작권 보호와 AI 기술 혁신 간의 균형을 모색하며, 공정 이용, TDM 및 비향유 목적 면책 등의 규제를 통해 대응하고 있다.



![[책소개]”AI와 기후의 미래: 디지털 과잉 항점에 빠진 한국, 더 위험해진 기후”](https://greengeek.blog/wp-content/uploads/2025/08/u9435539945_a_symbolic_digital-art_style_banner_illustrating__de8aff4e-254f-48ad-b909-2e7ff12643e4_1.png?w=1024)