[아이뉴스24 민혜정 기자] 인스타그램이 보다 안전한 플랫폼 이용 환경 조성을 위해 계정 비활성화 정책을 강화한다고 22일 발표했다.
기존 인스타그램은 음란물, 사이버 불링 등 커뮤니티 가이드라인을 위배하는 유해 게시물을 찾아 삭제하고, 계정의 전체 게시물 중 유해 게시물이 일정 비율을 초과할 경우 계정 비활성화 조치를 취해왔다.
강화되는 정책은 일정 기간 동안 정해진 횟수 이상으로 유해 게시물을 올리는 계정을 즉시 삭제하도록 하는 '스트라이크 아웃' 모델이다. 유해 게시물을 반복적으로 올렸다 내리거나, 전체 게시물 수가 방대해 상대적으로 유해 게시물 비율이 낮은 이유로 비활성화 하지 못했던 계정들을 단속할 수 있을 것으로 보인다.
유해 게시물 삭제와 함께 계정 소유자에게 해당 계정이 비활성화될 수 있다는 알림을 띄우는 기능도 새롭게 도입한다. 게시물 삭제가 부당하다고 생각하는 계정 소유자는 해당 알림을 통해 재심사를 요청할 수 있다.
인스타그램은 안전 정책 강화와 함께 지속적인 안전관련 기능 및 기술 개발 투자를 통해 안전한 플랫폼 조성에 힘쓰고 있으며, 지난 9일에는 사이버 불링 근절을 위해 인공지능(AI) 기술을 활용하는 '댓글 취소', '제한하기' 등을 포함하는 새로운 안전 기능 도입을 발표한 바 있다.
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기