[김익현기자] “사람의 감정은 전염될 수 있을까?”
사회연결망 연구자들의 오랜 질문에 대해 페이스북이 “그렇다”는 해답을 내놨다. 그것도 무려 69만 명의 데이터를 분석한 결과라 의미도 크다는 평가를 받고 있다.
하지만 연구를 하면서 페이스북 뉴스피드 표출 내용을 인위적으로 조작한 것으로 알려져 논란이 일고 있다. 미국 현지 전문가들은 ‘불특정 다수를 상대로 한 감정 조작’이란 비판까지 쏟아내고 있어 관심이 쏠리고 있다.
페이스복 데이터 과학자들이 캘리포니아 주립대 및 코넬대 교수팀과 공동으로 작성한 ‘사회관계망을 통한 대규모 감정 전염 실험 연구(Experimental evidence of mass-scale emotional contagion through social networks)’란 논문이 논란이 되고 있다고 디애틀랜틱을 비롯한 주요 외신들이 29일(현지 시간) 보도했다.
이번 논문은 페이스북 코어 데이터 사이언스 팀의 애덤 크레이머를 비롯해 제이미 길로리 캘리포니아주립대 교수, 제프리 핸콕 코넬대 교수 등 3명이 공동 저자로 돼 있다.
◆"SNS 통해 감정 전염된다는 사실 입증 성공"
미국 국립과학원회보(PNAS)에 실린 이 논문은 페이스북 이용자 68만9천3명의 데이터 분석을 토대로 했다. 연구자들은 2012년 1월 한 주 동안 긍정적인 메시지와 부정적인 메시지 노출을 조절해 이용자들의 반응을 추적했다.
연구 방법은 간단했다. 페이스북 뉴스피드 알고리즘을 조작해 일부 사용자에겐 긍정적 메시지를 더 많이 노출한 반면 다른 사용자들에겐 부정적 메시지를 더 많이 보여줬다.
이렇게 실험 처치를 한 결과 긍정적인 메시지에 더 많이 노출된 사람들은 긍정적인 글을 올리는 빈도가 더 늘어났다. 반면 부정적 메시지에 노출된 이용자들은 부정적인 글 빈도가 증가했다.
연구자들은 이런 결과를 토대로 “페이스북에서 표현한 감정이 (직접 대면하지 않더라도) 다른 사람들에게 영향을 미친다는 것을 의미한다”면서 “이는 소셜 네트워크를 통해 대규모로 감정 전염이 된다는 것을 실험을 통해 입증한 것”이라고 의미 부여했다.
이들은 또 “페이스북 같은 SNS의 규모를 감안하면 조그만 효과도 큰 결과로 이어질 수 있다”고 강조했다.
그 동안 소셜 네트워크를 통해 감정이 전염된다는 연구 결과는 적지 않았다. 하지만 이번처럼 광범위한 연구자를 대상으로 표출 알고리즘까지 조작해서 데이터를 수집한 경우는 없었다.
이번 연구 결과가 발표되자 곧바로 연구윤리 문제가 제기된 것은 이런 사정 때문이다.
이들의 논문을 게재한 PNAS 편집 위원인 수잔 피스크 프리스턴대 교수는 디애틀랜틱과 인터뷰에서 “페이스북이 늘 뉴스피드를 조절한다는 전제 하에 이들의 연구 방법에 대해 OK 사인을 내줬다”면서 “현 규정상으론 이번 연구 윤리는 용인될 수 있는 수준이다”고 강조했다.
그는 또 “이번 연구의 독창성이 훼손되는 걸 원친 않았다”고 덧붙였다. 하지만 그는 “연구 윤리는 사회적 결정의 문제일 것”이라면서 “그런 면에선 이번 실험 역시 윤리 문제가 제기될 여지는 있다”고 밝혔다.
◆연구윤리-감정 분석 정확성 등 비판도 적지 않아
이번 연구는 학술적 성과 면에선 높은 평가를 받고 있다. 하지만 연구 윤리 면에선 적잖은 논란이 제기될 전망이다.
이에 대해 테크 전문 매체인 판도데일리는 “페이스북이 이용자들의 동의를 받지 않은 채 그런 사회 행동 실험을 할 수 있다는 사실이 놀랍다”고 지적했다.
물론 페이스북의 이용자 약관에는 데이터를 실험에 활용할 수 있다고 돼 있다. 하지만 실제로 이용 약관을 제대로 읽어보는 경우는 거의 없다는 점을 고려할 때 연구윤리 문제가 제기될 수 있다는 것이 판도데일리의 지적이다.
판도데일리는 또 디지털 공간에서 이용자들의 감정을 조작하는 것이 자칫 심각한 결과로 이어질 수 있다고 지적했다. 오프라인 공간에선 부정적인 언급을 많이 할 경우 그 사람을 피해버리면 되지만 디지털 공간의 알고리즘 조작에 대해선 그런 대처가 쉽지 않다는 것이다.
이번 연구팀은 분석 도구로 LIWC란 언어분석 프로그램을 이용했다. 이용자들의 멘션을 직접 읽은 게 아니라 LIWC 분석 툴로 분석했기 때문에 개별 이용자들을 식별한 것은 아니란 것이다. 따라서 연구윤리는 문제될 것 없다는 것이 연구팀의 주장이다.
하지만 바로 그 부분 때문에 연구 결과의 객관성에 대한 비판도 제기되고 있다. LIWC로 자연언어에 적용해 ‘긍정’ ‘부정’ 메시지를 도출하는 것 자체가 쉽지 않다는 게 그 이유다.
이 부분에 대해선 디애틀랜틱이 좀 더 직접적인 비판을 쏟아냈다. “나는 행복하지 않다(I am not happy)”와 “오늘 일진이 좋지 않다(I am not having a great day)”란 문장을 예로 들어 LIWC의 한계를 지적했다.
이 두 문장은 그냥 읽을 경우 부정 지수 2, 긍정 지수는 0가 정상이다. 그런데 LIWC로 분석할 경우 긍정 지수2, 부정 지수2로 나와 중립적인 문장이 된다고 디애틀랜틱이 지적했다. ‘행복(happy)’과 ‘좋은 일진(great day)’란 문장이 부정어(not)를 상쇄해버리기 때문이다.
◆알고리즘 조작, 문제는 없을까?
지난 2010년 개봉된 ‘엑스페리먼트’란 영화가 있다. 가상 감옥 체험을 다룬 이 영화는 사람의 감정을 대상으로 한 실험이 실제 상황으로 이어지는 모습을 적나라하게 보여줬다.
실제 실험 사례에서 모티브를 얻은 이 영화는 ‘감정 조작’이 얼마나 위험한지 보여줬다는 점에서 큰 반향을 불러 왔다.
물론 페이스북의 이번 실험은 그 정도는 아니다. 알고리즘을 조작해 일부 메시지를 인위 노출하는 정도였다. 긍정, 부정 메시지의 강조 역시 크게 높은 것은 아니었다.
하지만 전 세계인 이용자 10억 명을 웃도는 페이스북이 불특정 다수를 상대로 감정 조작 실험을 했다는 점에서 적잖은 논란이 예상되고 있다.
이에 대해 논문 공동 저자인 페이스북 사이언스 팀 애덤 크레이머는 "이번 연구 결과는 특정 페이스북 사용자의 계정과는 무관하다"면서 "연구 주제와 관련 없는 개인정보는 수집하지 않았으며, 연구 대상자의 모든 정보는 안전하게 보관하고 있다"고 설명했다고 페이스북 측이 밝혔다.
김익현기자 sini@inews24.com
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기