IT 인터넷/SNS

인스타그램, 자해 관련 이미지 전면 차단.. 이유는?

파이낸셜뉴스

입력 2019.02.08 17:53

수정 2019.02.08 17:53

[사진=픽사베이]
[사진=픽사베이]

인스타그램에서 '자해'에 관한 이미지가 전면 삭제될 전망이다.

영국 BBC는 7일(현지시간) 아담 모세리 인스타그램 대표가 인스타그램 내에 게시된 자해 관련 이미지를 모두 삭제할 계획을 밝혔다고 보도했다.

모세리 대표는 "책임감 있는 판단과 행동이 필요하다"며 "자해 관련 이미지는 허용되지 않을 것"이라고 말했다.

지난 2017년 영국의 14세 소녀 몰리가 스스로 목숨을 끊은 사건이 계기가 됐다.

몰리의 아버지 이안 러셀은 자신의 딸이 인스타그램에 올라온 자해 관련 사진들에 영향을 받아 죽음을 택했다고 주장했다.



이안은 인스타그램의 결정에 환영의 뜻을 표했다.

"온라인이 젊은이들과 상처입기 쉬운 사람들에게 안전한 공간이 되도록 소셜 미디어 플랫폼들이 책임을 다해야 한다"는 의견을 덧붙였다.

인스타그램은 지금까지 사용자들의 신고를 받아 자해 관련 이미지를 선별해왔다. 조만간 관련 사진을 골라내고 삭제하는 데 필요한 기술을 도입할 예정이다.

그동안은 표현의 자유를 위해 자해를 연상케 하는 이미지를 허용했지만 앞으로는 전면 금지될 전망이다.

이에 따라 인스타그램 이용자들은 자해 관련 검색과 해시태그를 사용할 수 없게 되며, 추천 게시물에도 관련 이미지가 노출되지 않는다.

#인스타그램 #자해 #SNS

sunset@fnnews.com 이혜진 인턴기자

실시간핫클릭 이슈

많이 본 뉴스

한 컷 뉴스

헉스