AI
-

지난 2월 15일, 한국녹색당 주최의 좌담회에서 조경숙 씨가 친밀한 관계에서의 폭력 피해자를 위한 디지털 증거 수집 기술을 소개했다. 이 기술은 피해자가 안전하게 증거를 수집하고 보존할 수 있도록 돕는 프레임워크를 제안하며, 법적 및 심리적 지원을 제공한다.
-

체제전환운동 포럼에서 AI 대응 시민사회 워크숍이 열렸다. 다양한 시민사회 단체와 활동가들이 모여 AI에 대한 비판적 논의를 진행하고, 기술 발전이 자본에 의해 남용되기보다는 노동자를 위한 방향으로 나아가야 한다고 강조했다. 이는 기술 선택의 중요성을 일깨우는 기회였다.
-

김태희는 녹색당 과학기술위원회 회원으로, 성평등가족부 간담회에 참석하여 장애인과 여성 개발자의 문제를 논의했다. 그는 디지털포용법과 관련한 기술의 민주화를 강조하며, 오픈소스 소프트웨어의 중요성을 제기했다. 시민의 의견이 반영되는 변화의 필요성을 주장하였다.
-

최근 AI 관련 주요 학회들은 데이터 합법성, 저작권, 개인정보 보호, 윤리적 고려 사항 등을 다루는 Position paper 트랙을 도입했습니다. “AI 안전은 미래의 노동을 중심에 두어야 한다”는 논문은 AI가 노동에 미치는 부정적 영향을 지적하며, 체계적인 정책 개편과 노동자 보호 기조를 제안합니다.
-

한국은 2026년 시행될 AI 기본법을 통해 국가 차원의 AI 규제를 정립했습니다. 그러나 이 법안은 고위험 기술에 대한 명확한 금지 규정을 두지 않아 실효성에 의문이 제기되고 있습니다. 국제 협력과 디지털 격차 해소 등에서 부족한 점이 여전히 남아 있습니다.
-

디지털 포용법은 경제적, 사회적, 문화적 환경을 조성하여 모든 구성원이 기술의 혜택을 누리게 하는 법안입니다. 그러나, 장애인 및 고령자의 디지털 접근성 개선이 부족하며, 법의 강제력이 미약하여 효과적이지 못합니다. 실질적이고 포괄적인 접근성이 필요합니다.
-

오늘날 교육 분야에서 AI 활용에 대한 논의가 활발하며, 유럽의 AI Act에 따라 고위험 등급으로 분류됩니다. 두 논문은 AI의 수학 튜터링 능력과 에세이 채점에서의 편향 문제를 다루고 있습니다. 연구 결과, AI는 높은 정확도를 보이지만 신뢰성과 공정성 문제가 여전히 존재합니다.
-

생성형 AI의 사용과 관련된 책임 문제는 점점 더 중요한 주제로 부각되고 있다. AI가 제공하는 잘못된 정보로 생기는 문제들에 대해 결국 사람과 조직이 책임을 져야 한다는 인식이 필요하다. 기술 발전은 필수지만, 투명하고 공정한 책임 시스템 구축이 중요하다.
-

대한민국을 뒤흔든 연쇄 보안 사고 2025년은 한국 사회가 사이버보안의 중요성을 뼈저리게 깨달은 해가 될 것입니다. 4월 SK텔레콤의 2,700만 명 USIM 정보 유출, 9월 KT의 소액결제 해킹, 8월 롯데카드의 297만 명 개인정보 유출이 연이어 터지면서 국가 핵심 인프라의 보안 취약성이 적나라하게 드러났습니다. 이 세 사건의 공통점은 무엇일까요? 바로 기본적인 보안 원칙의 부재입니다. SKT는 3년간 해커의 침입을…
-

생성형 AI의 발전과 함께 저작권 문제도 대두되고 있다. 파멜라 새뮤얼슨은 ICML에서 AI와 저작권의 충돌을 다루며, 여러 국가에서의 법적 접근 차이를 설명했다. 판결들은 AI 학습이 공정 이용으로 인정될 수도 있지만, 불법 복제는 위법으로 간주된다. 기술자들은 법을 이해하고 이를 기반으로 지속 가능한 혁신에 기여해야 한다.
