[아이뉴스24 민혜정 기자] 이효성 방송통신위원회 위원장이 기업 현장을 찾아 인공지능(AI) 개발 윤리와 이용자 보호 규범 마련을 주문했다.
이효성 방통위장은 13일 판교 카카오 회의실에서 정책간담회를 열고 이 같이 강조했다.
이날 간담회는 지능정보사회로 진입하는 과정에서 AI·데이터 활용 확산에 따른 윤리규범과 가치를 체계적으로 정립해 나가기 위한 방안을 논의하는 차원에서 마련됐다.
카카오는 국내에서는 처음으로 AI 윤리헌장을 발표·시행하고 있다.
간담회에서는 지능정보사회에 대응하기 위해 ▲지능정보기술 이용행태 변화에 대한 조사·분석 인프라 구축 ▲신기술에 의한 피해 예방 등을 통한 이용자 보호 강화 ▲인공지능 오작동 등 서비스 구입·이용 과정에서의 피해구제 절차 마련 방안 등을 논의했다.
이효성 위원장은 "최근 구글·MS 등 글로벌기업 나쁜 AI 활용 서비스들이 새로운 윤리적·기술적·법적 문제를 야기하여 브랜드 평판과 매출에 부정적인 영향을 주고 있다"며 "또 AI 서비스의 지나친 상업적 활용으로 이용자가 편향된 정보만을 접하는 문제도 발생할 수 있음을 인식해 정책입안자·학계 등과 연계해 AI 윤리 연구를 시작했다"고 말했다.
이어 "우리도 혁신적인 지능정보 서비스가 안정적으로 활성화될 수 있는 환경을 조성하기 위해 민관협의체를 구성, 지능정보사회 이용자 보호를 위한 규범과 가치를 정립하는 등 적극적으로 대응해 나가겠다"고 덧붙였다.
이 자리에서 그간 지능정보서비스의 영향분석 연구를 수행해 온 이원태 KISDI 그룹장은 "복잡·다양해지는 지능정보기술 도입에 따른 이용자 피해를 예방·구제하고 안전하게 활용할 수 있도록 체계적으로 대응하려면 영국 등 주요 선진국과 같은 'AI·데이터 윤리혁신센터' 설치가 시급하다"고 강조했다.
최경진 가천대 교수는 "인공지능과 데이터 기반의 방송통신 환경에 능동적으로 대응하기 위해 산·학·연이 참여하는 '협력적 규제' 모델이 필요하다"며 "급속히 지능정보사회로 이동하고 있지만 법제도가 미비하므로 'AI 이용자 보호 가이드라인'과 같은 자율 행동규범을 마련해야 한다"고 말했다.
카카오의 김대원 정책담당 이사는 "AI 기업들은 서비스와 기술에 대한 사회적 신뢰 확보를 선결과제로 인식하고 있다"며 "국내외 주요 AI 기업들이 자율적으로 AI 윤리원칙을 정비하고 있다"고 강조했다.
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기