2025.09.15 (월)

어제 방문자
5,045

전국

개인정보위, GPA 서울서 ‘오픈소스 AI와 프라이버시’ 논의의 장 열다

GPA 서울 계기 ‘오픈소스 데이’ 개최, 글로벌 AI 기업과 해외 감독기구 및 국내 AI 기업이 한자리에서 안전한 활용 방안 논의

 

인공지능(AI) 도입 및 혁신 서비스 개발에 기반이 되는 오픈소스를 안전하게 활용하기 위한 국제적인 논의의 장이 마련됐다.

 

개인정보보호위원회는 9월 16일 예정된 글로벌 프라이버시 총회(GPA) 개막에 앞서, 사전 부대행사로 ‘오픈소스 데이’를 9월 15일에 개최했다. 구글, 메타, 마이크로소프트, 오픈AI, 셀렉트스타, 에임 인텔리전스 등 글로벌 오픈소스 모델·솔루션 기업들과 국내 AI 기업·연구자, 그리고 해외 감독기구 등 120여 명이 참석하여, 오픈소스 AI 생태계와 프라이버시에 대해 논의했다.

 

개인정보위는 올해 초 생성형·오픈소스 기반 AI 스타트업과 간담회를 개최하여 낮은 비용으로 높은 성능을 구현할 수 있는 오픈소스 모델에 대한 산업 현장의 많은 관심과 수요를 확인했고, 지속가능한 오픈소스 생태계를 위한 프라이버시 가드레일을 논의한 바 있다. 또한, 작년과 올해 초에 걸쳐 오픈소스 모델을 포함한 주요 대규모언어모델(LLM)을 대상으로 사전 실태점검(‘24.6.)을 하고 오픈소스 AI 환경에서의 프라이버시 리스크를 파악했다.

 

이러한 경험을 토대로, 오픈소스 생태계에서의 위험 관리와 책임 배분 방안 등의 내용을 구체화하여 「AI 프라이버시 리스크 관리 모델(‘24.12.)」 및 「생성형 AI 개인정보 처리 안내서(’25.7.)」를 발간한 바 있다.

 

개인정보위가 행사에 앞서 진행한 간이 설문에 따르면, 설문에 참여한 70명의 개발자·연구자 및 기업 관계자 중 약 62%가 오픈소스를 도입·활용한 경험이 있으며, 오픈소스 모델을 활용한 미세조정 시 안전성을 고려한 경험이 있다고 응답한 비율은 77%에 달했다.

 

이날 행사에 참여한 글로벌 오픈소스 AI 기업들은 자사의 오픈소스 생태계와 실제 적용 경험을 발표했다.

 

먼저, 구글은 비용 효율적인 오픈 소스 모델 운영을 위한 자사 플랫폼(Vertex AI)을 소개하면서, LLM 품질 평가 도구와 프롬프트 최적화 기능, 안전성 강화 도구 등 신뢰성·안전성 확보를 위한 도구 활용 방안을 공유했다.

 

이어서, 에임 인텔리전스는 고객 대상 AI 서비스 운영 및 사내 업무용 AI 모델 활용 과정에서 기업들이 현장에서 직면하는 다양한 안전성 및 정보 보안 과제를 실제 경험과 함께 공유했다. 이 회사는 메타의 오픈소스 AI 필터링 모델 라마 가드(Llama Guard)를 한국 실정에 맞게 고도화해 ‘라마 임팩트 이노베이션 어워즈’를 수상한 바 있다.

 

마이크로소프트는 자사 플랫폼(Azure AI Foundry)을 기반으로 에이전트 AI를 구축한 고객사 사례를 제시하면서, 차세대 패러다임으로 주목받는 에이전트 AI 구축을 위한 오픈소스 모델·도구 활용 가능성을 제시했다.

 

다음으로, 네이버는 자사 오픈소스 모델(HyperClovaX)과 더불어, 공개 데이터셋과 벤치마크, AI 안전성 프레임워크 등 안전한 오픈소스 활용을 위한 도구를 소개하며, 국내 오픈소스 생태계 확산에 기여한 그간의 노력을 공유했다.

 

오픈AI는 새롭게 공개한 자사 오픈소스 모델(gpt-oss-20b/120b)을 소개하며, 오픈소스 모델이 지니는 경제·사회적 가치와 더불어 안전성에 대한 우려와 책임성, 글로벌 차원의 논의 필요성 등 오픈소스 확산 과정에서 직면하는 과제를 함께 제기했다.

 

마지막으로 셀렉트스타는 오픈소스 모델·기술을 활용해 개발한 자사의 AI 신뢰성 검증 솔루션(DATUMO Eval)을 소개하면서, 오픈 데이터셋 구축 및 한국 최초 신뢰성 평가 벤치마크 구축 등의 사례를 통해 AI 데이터·신뢰성 사업 과정에서 오픈소스 생태계 확산에 기여한 과정을 소개했다.

 

이어진 실시간 질의응답 시간에서는 참석자들이 오픈소스 도입 과정에서 겪은 애로사항과 프라이버시 관련 고민 등 현장의 목소리와 함께 해결 방안을 공유했다.

 

특히, 오픈소스 AI 도입 과정에서 ▲개인·민감정보 필터링 및 검증 절차, ▲미세조정 시 고려사항, ▲레드팀 테스트 설계 방안 등 오픈소스 활용 과정의 안전성 및 신뢰성 보장 방안을 집중적으로 논의하며, “책임 있는 오픈소스 AI 생태계”에 대한 공감대를 형성했다.

 

마지막 순서로, 한국 개인정보위를 비롯한 영국, 이탈리아, 브라질 등 4개 국 개인정보 감독기구가 패널로 참석한 라운드테이블이 진행됐다.

 

4개국 개인정보 감독기구는 오픈소스 AI 생태계에서의 프라이버시 고려사항에 대해 논의하고, 개방성과 투명성에 기반한 신뢰할 수 있는 AI 구현 필요성에 공감대를 모았다. 특히, 향후 자율성에 기반한 에이전틱(Agentic) AI 시대가 도래할 것이라는 전망 속에서, 안전한 AI 생태계를 구축하기 위한 국제적 차원의 지속적 논의와 협력 필요성에 뜻을 모았다.

 

최장혁 개인정보위 부위원장은 “이번 오픈소스 데이는 에이전트 AI와 같은 혁신 서비스의 기반이 되는 오픈소스 AI 생태계와 개인정보 보호를 함께 고민하는 국내 첫 공개 논의의 장으로 의미가 크다”며, “기업과 연구자들이 안심하고 오픈소스를 활용할 수 있도록 현장의 목소리를 경청하여 정책에 적극 반영하겠다”라고 밝혔다.

 

이날 행사에 참석한 김휘강 개인정보위 비상임위원은 “오픈소스의 개방·공유 문화가 최신 기술의 확산을 앞당기고, 다양한 산업과 사회 전반에 혁신을 가속화하는 원동력이 되고 있다”라며, “개방적이면서 신뢰할 수 있는 AI 발전을 함께 모색하는 의미있는 출발점이 되기를 기대한다”라고 축하의 말을 전했다.


배너