박경신 (오픈넷 이사, 고려대학교 법학전문대학원 교수)
- 서론
디지털플랫폼은 불특정다수가 서로 간에 자유롭게 정보를 공유할 수 있는 소프트웨어 체계를 말하며 결국 디지털플랫폼 규제는 이 소프트웨어체계를 운영하는 자 즉 정보매개자에 대한 규제이다. 모든 기업들은 다양한 규제의 대상이 되며 정보매개자들도 당연히 이들 규제의 대상이 되지만 이 글에서는 디지털플랫폼의 특성에 대한 규제 즉 대중들의 정보를 매개하는 활동과 연관되어 규제를 받는 것에 집중하고자 한다.
인터넷을 통해 불법적인 행위가 이루어지면 행위의 매개가 되는 정보가 올려져 있는 플랫폼에게 책임을 지우려는 움직임은 계속 반복해서 시도되고 있지만 플랫폼규제는 생각보다 많이 확산되지 않고 있다. 그 이유는 국제인권기준의 하나가 된 정보매개자책임제한 원리가 있다.
2. 정보매개자책임제한 원리(intermediary liability safe harbor)
인터넷의 생명은 극단적으로 분산되고 개인화된 소통방식을 통해 모든 개인을 공적 소통 또는 매스커뮤니케이션에 참여시킨다는 것이다. 여기서 공적 소통 또는 매스커뮤니케이션이란 일반대중에게 한꺼번에 소통하는 것을 말하는데, 인터넷은 모든 사람이 타인의 허락 없이 원하는 글을 볼 수 있는 공적 소통의 장이며, 또 모든 사람이 이 공적 소통의 장에 타인의 허락 없이 글을 올릴 수 있다. 다른 공적 소통의 방법인 방송과 신문에서는 전문언론인들의 선택을 받지 못한 개인들은 공적 소통에서 배제될 수밖에 없지만, 인터넷은 다르다. 물론 인터넷에는 이메일, 채팅, 클라우드 등의 다른 기능도 있지만, 세계 각국이 인터넷을 특별히 보호하기 위해 노력하는 이유는 인터넷이 엄청나게 다양한 개인들을 공적 소통에 포용하여 그 특유한 방식으로 정치, 사회, 경제를 발전시키기 때문이다.
우리나라 헌법재판소도 “경제력이나 권력에 의한 위계 구조를 극복하여 계층․지위․나이․성 등으로부터 자유로운 여론을 형성함으로써…국민 의사를 평등하게 반영하여 민주주의가 더욱 발전되게 한다((2010 헌마 47, 인터넷실명제 위헌결정)”고 판시한 바 있고 “저렴한 비용으로 누구나 손쉽게 접근이 가능하고 가장 참여적인 매체로서…경제력 차이에 따른. . . 공정성 훼손이라는 폐해가 나타날 가능성이 현저히 낮[다](2007 헌마 1001, 공직선거법 위헌결정)(“고 판시하기도 하였다.
개인들에게 타인의 허락 없이 소통할 자유를 허락하는 한 인터넷에는 명예훼손, 저작권침해, 음란물 등의 불법행위가 일어날 수밖에 없다. 인터넷의 생명을 지킨다는 것은 여기서 두 가지 결단을 필요로 한다. 첫째, 사전차단이 아니라 사후규제여야 한다. 불법정보를 사전에 차단하려면 모든 정보를 누군가가 미리 검열하고 이를 통과한 정보만 인터넷에 오르게 해야 하는데 이와 같은 ‘일반적 모니터링(general monitoring)’은 인터넷의 생명인 타인의 허락 없이 공적 소통을 할 자유가 파괴됨을 의미한다. 인터넷에 오른 정보는 타인의 승인 안에 오른 것이기 되기 때문이다. 둘째, 정보를 매개한 플랫폼운영자에게 불법정보에 대해 책임을 지울 때는 그 정보를 인지한 경우에만 책임을 지도록 해야 한다. 정보매개자가 존재를 인지하지 못한 불법정보에도 책임을 지운다면, 사업자들은 자신의 서버에 오르는 정보를 모두 사전검열을 하려 할 것이며 역시 ‘타인의 허락 없이 공적 소통을 할 자유’는 파괴될 것이다.
외국의 법들은 바로 이 결단들을 법제화하고 있다. 미국 통신품위법(Communication Decency Act 제230조와 저작권법(DMCA) 제512조, EU전자상거래지침 제14조, 일본 프로바이더책임법 제3조는 법원이 정보매개자들에게 책임을 지울 때 자신이 모르는 정보에 대해서는 책임을 지우지 못하게 하는 조항들을 두고 있고 어떤 나라도 불법정보의 유통을 방지할 의무를 부과하지 않는다. 또 EU전자상거래지침 제15조는 EU회원국이 일반적 모니터링 의무를 정보매개자에게 부과하지 못하도록 명시하고 있다. 유럽의 최신 움직임인 Digital Services Act역시 이 부분에 있어서는 전자상거래지침 14-15조를 그대로 계승하고 있다.
3. 우리나라의 상황
가. 책임제한
우리나라는 어떠한가? 정보통신망법 제44조의2와 저작권법 제102조가 외국의 책임제한 조항을 도입한 것처럼 보인다. 우리나라가 102조를 통해 다른 나라의 정보매개자면책조항을 온전하게 도입하려 했다는 것에는 의문이 없다.

문제는 103조1항과 2항의 존재이다. 다른 나라의 법은 모두 1개의 조항 또는 문장으로 이루어진 반면 우리나라는 102조 외에도 103조가 독립적으로 존재한다. 103조 1항과 2항은 침해신고가 있으면 즉시 삭제할 의무를 부과하고 있는데 위의 표에서 보여지듯이 다른 어느 나라 법에도 이에 대응될 만한 내용을 가진 조항은 없다. 다른 나라의 법들은 신고된 게시물에 대해 삭제차단할 “의무”가 발생하는 것이 아니라 그러한 삭제차단이 침해물의 제공에 대한 공동불법책임을 면해주는 조건이 될 뿐이다. 즉 신고물을 삭제차단할 “동기”를 부여한다. 우리나라의 법은 103조가 별도로 존재하면서 정보매개자에게 모든 신고된 게시물을 삭제차단할 “의무”를 부과하는 것처럼 읽힌다.
“의무”와 “동기”의 차이는 크다. “동기”만이 부여된 상태에서는 정보매개자는 자신이 판단하기에 합법적이라고 판단되는 게시물에 대해서는 삭제차단을 하지 않을 자유가 있다. “정보매개자가 원한다면” 게시물을 유지할 권한을 부여한다. 이에 반해, “의무”가 부과된 상태에서는 정보매개자는 자신이 보기에 아무리 침해여지가 없는 게시물이라도 반드시 삭제차단해야 한다.
물론 종국적으로 민형사상 책임은 게시물 자체가 불법인 경우에만 플랫폼운영자에게 적용될 것이며 ‘불법게시물이 신고되면 삭제하라’는 명령에 하등의 문제가 없다고 생각할 수 있다. 하지만 플랫폼운영자가 게시물이 저작권침해물인지 아닌지 판단하기는 매우 어렵다. 게시물을 삭제하면 게시자에 대한 법적 책임은 크지 않다. 대부분 플랫폼운영자는 게시물관리정책을 통해 반드시 불법이 아닌 게시물이라고 할지라도 플랫폼운영자의 재량에 따라 게시물을 억제할 권한을 민법적으로 확보하기 때문이다. 그러나 게시물을 삭제하지 않으면 저작권침해에 대한 공동불법행위자가 된다. 이런 비대칭적인 책임분배 때문에 플랫폼운영자는 신고된 게시물이 저작권침해물이 아니라고 판단했더라도 법원 등의 종국적판단에 의해 저작권침해물로 판단될 위험을 감수하는 대신 삭제차단할 동기를 갖게 된다. 이렇게 되면 플랫폼운영자를 위축시켜 본인들이 합법이라고 판단한 게시물들까지 삭제차단하도록 만드는 효과를 발생시킨다.
물론 이 조항이 있든 없든 플랫폼운영자는 자신의 판단이 잘못될 가능성에 위축되어 항상 신고게시물을 삭제차단할 동기를 가지고 있다. 그러나 이 조항이 없었다면 플랫폼운영자는 일반불법행위법이나 방조범원리에 따라 불법성을 알고 있거나 알았어야 할 정보의 매개에 대해서만 책임을 졌을 것이고 위축효과도 한정될 것이다. 위 조항은 불법성을 몰랐을 경우에도 신고 이후 정보매개를 중단하지 않은 책임을 지우는 근거가 된다. 그러므로 위 조항은 합법적이라고 판단한 정보를 삭제차단하도록 만들고 결국 실제로 합법정보들이 다수 삭제차단하도록 만드는 위축효과(chilling effect)를 발생시킨다고 봐야 한다.
더욱 심각한 문제는, ‘저작권법은 2011년 법개정을 통해 미국의 선진적인 정보매개자책임제한(safe harbor) 조항을 온전히 도입하였다’는 통념 때문에 103조1항/2항의 신고물 삭제차단의무가 명예훼손, 사생활침해 등의 다른 법제에도 복제되었다는 것이다. 즉 정보통신망법 제44조의2인데 정보매개자에게 침해신고가 된 불법게시물은 삭제차단할 의무를 부과한다.
제44조의2(정보의 삭제요청 등) ① 정보통신망을 통하여 일반에게 공개를 목적으로 제공된 정보로 사생활 침해나 명예훼손 등 타인의 권리가 침해된 경우 그 침해를 받은 자는 해당 정보를 처리한 정보통신서비스 제공자에게 침해사실을 소명하여 그 정보의 삭제 또는 반박내용의 게재(이하 “삭제등”이라 한다)를 요청할 수 있다. <개정 2016. 3. 22.>
② 정보통신서비스 제공자는 제1항에 따른 해당 정보의 삭제등을 요청받으면 지체 없이 삭제ㆍ임시조치 등의 필요한 조치를 하고 즉시 신청인 및 정보게재자에게 알려야 한다. 이 경우 정보통신서비스 제공자는 필요한 조치를 한 사실을 해당 게시판에 공시하는 등의 방법으로 이용자가 알 수 있도록 하여야 한다. [중략]
④ 정보통신서비스 제공자는 제1항에 따른 정보의 삭제요청에도 불구하고 권리의 침해 여부를 판단하기 어렵거나 이해당사자 간에 다툼이 예상되는 경우에는 해당 정보에 대한 접근을 임시적으로 차단하는 조치(이하 “임시조치”라 한다)를 할 수 있다. 이 경우 임시조치의 기간은 30일 이내로 한다.
위 4항을 통해 삭제차단을 임시로 할 수 있는 재량을 주었지만 플랫폼운영자가 합법적이라고 판단한 게시물들도 30일의 기간 동안 삭제차단하도록 위축효과를 발생킨다는 점에서는 다르지 않다.
특히 헌법재판소는 아예 명예훼손이나 사생활침해일 “가능성이 있는” 정보에 대해서도 임시조치의무가 적용되는 것으로 오히려 기존 법조항보다 더 넓게 해석하였다. (헌법재판소 2012.5.31. 결정 2010헌마88). 또는 임시조치의무가
국제기준에 맞추기 위해서는 우선 저작권법의 개정이 필요하다. 이는 별로 어렵지 아니하다. 예를 들어, 제103조 제1항/2항이 의무부과조항이 아니라 제102조의 면책을 받기 위한 필요한 절차를 정한 조항이 되도록 다음과 같이 개정하는 것이다.

망법도 저작권법 102조와 유사한 책임제한 조항을 만들어 과거에 제공했던 컨텐츠에 대해서 권리침해신고가 들어오면 즉시 내리기만 한다면 면책된다는 조항을 두는 것이다.
만약 국제기준에 맞추기 보다는 “신고불법물 삭제의무”를 실제로 법제화하려 한다면 위에서 말한 위축효과를 제거하기 위해서는 최소한 플랫폼운영자가 ‘불법성을 아는 경우’로 삭제차단의무의 적용범위를 한정해야 할 것이다.
나. 일반적 감시의무
국제기준에 맞추자면 ‘일반적 감시의무’를 부과하는 조항들 역시 손을 봐야 한다. 저작권법 제104조와 전기통신사업법 제22조의3은 웹하드들에게 각각 특정 불법정보들(음란물 및 특정 원본의 저작권을 침해하는 게시물)의 유통을 “차단” 또는 “방지”할 의무를 부과하고 있고 아청법 제17조는 모든 정보매개자에게 아동포르노의 유통을 “중단” 또는 “방지”할 의무를 부과하고 있다. 또 2020년부터 시행된 소위 “N번방법(전기통신사업법 제22조의5제2항)은 이용자가 동영상파일을 업로드할 때 플랫폼이 필터링을 통해 해당 동영상파일이 불법촬영물등에 해당하는지를 감시(monitoring)할 의무를 부과하고 있다.
, 이는 각각 다른 나라에서는 금기시되거나 금지된 일반적 모니터링의무에 해당한다. 아무리 모니터링의 목표물이 범위가 좁거나 해악이 큰 것이라고 하더라도 플랫폼 입장에서는 모든 정보를 일일이 확인해야만 해당 목표물을 찾아내어 사전차단을 할 수 있기 때문이다.
4. 2016년 이후의 해외의 흐름
가. 책임제한
2016년 트럼프가 미국대통령에 당선되면서 가짜뉴스(fakenews) 또는 허위정보(disinformation)에 대한 관심이 지대해졌다. 선거기간 동안 페이스북 이용자들이 진짜 언론기사보다 가짜뉴스(즉 내용만 허위인 것이 아니라 주류언론매체의 기사인 것처럼 치장된 게시물)가 더 널리 그리고 빨리 확산되었다거나 트럼프에 투표한 유권자들의 46%가 민주당중앙위원회가 실제로 아동성매매 사업을 하고 있다고 믿었다는 연구결과가 촉매역할을 하였다. 당선 이후 트럼프의 파괴적인 외교정책 및 인종정책이 각종 논란을 불러일으키거나 실제로 폭력을 선동하는 효과를 내면서 사상의 자유시장이 제대로 기능하고 있지 않아 실제로 강대국의 역사가 그리고 세계의 역사가 뒤바뀔 수 있다는 위기감이 고조되었다. 그 위기감은 유럽지역에서 고조되어 소위 ‘가짜뉴스’ 또는 폭력을 선동하는 각종 위험한 정보를 규제하려는 노력이 나타났다. 독일에서는 2018년1월에는 소위 네트워크집행법(Network Enforcement Act 또는 NetzDG)라는 법이 통과되어 혐오표현 및 각종 형법규정이 불법으로 정한 표현행위와 관련하여 ‘명백히 불법인 정보’는 24시간 안에 그리고 모든 불법정보에 대해서는 7일 내에 삭제하도록 의무를 부과하였다. 호주에서는 2019년 형법을 개정하여 혐오폭력정보(abhorrently violent material)를 살인, 테러리즘, 강간, 고문을 내용으로 하는 실시간제공정보를 신속하게(expeditiously) 삭제차단할 의무를 부과하여 무분별하게(reckless) 정보를 존속시켜서는 안되다고 하며 행정기관(e Safety Commissioner)의 삭제차단요청이 있다는 것만으로 무분별했다는(reckless) 추정을 발생시키도록 하였다. 프랑스에서는 2019년 7월 ‘아비아(Avia)법’으로 인터넷혐오표현금지법이 하원을 통과하였는데 SNS, 검색 엔진 등 플랫폼 사업자에게 신고가 들어온 지 24시간 이내에 ‘명백한(manifestly)’ 불법 콘텐츠를 삭제할 의무를 부과하고, 이를 위반한 사업자를 처벌하는 법이다. 명백한 불법 콘텐츠에는 인종, 종교, 민족, 성별, 성적 지향 또는 장애를 이유로 차별, 적대감, 폭력을 선동하는 혐오표현, 이러한 집단이나 개인에 대한 차별적 모욕, 홀로코스트 부인, 성폭력 등이 포함된다. 아울러 테러 미화·선동 콘텐츠나 아동음란물은 행정당국의 요청이 있으면 1시간 이내에 삭제해야 한다.
위의 3가지 법들은 모두 신고된 불법감시물에 대해 삭제차단의무를 부과시킨다는 의미에서 우리나라의 망법 44조의2와 닮아 있으나 삭제차단을 하지 않을 경우 행정벌을 가한다는 면에서 더 강력하다고 볼 수 있다.
신고된 불법감시물에 대해 삭제차단의무를 부과시키는 법은 확산되고 있다. 베트남은 2022년 사이버보안법을 통과시켜 ‘베트남에 반대하는 선전물’ 등을 신고 후 24시간 내에 삭제차단하도록 할 계획이고, 인도네시아는 이미 2021년 MR5를 통해 각종 ‘금지정보’를 정부기관의 요청 이후 4시간 또는 24시간 내에 삭제 차단하도록 하였다. 역시 2022년 미얀마 사이버보안법(안)에도 각종 불법정보에 대해 정부의 요청 후에 ‘신속히’ 삭제하도록 하는 내용이 있다. 동남아시아의 법들은 법안 논의 과정에서 독일의 NetzDG를 비교법적 선례로 언급하고 있는데 다른 점은 정부기관의 요청이 강조된다는 점이다. 필리핀의 2019 Anti False Content Bill은 행정기관에 의한 엄격한 내용규제를 목적으로 하고 있다.
그러나 이들 NetzDG-스타일의 법제들은 정보매개자책임제한원리에 어긋나는 문제가 있다. 2020년 6월 18일, 프랑스 헌법위원회(Conseil constitutionnel)는 인터넷 혐오표현 금지법에 대해 위헌 결정을 내렸다. 먼저 테러 콘텐츠 또는 아동음란물 1시간 이내 삭제 조항에 대해서는 ‘행정당국이 삭제여부를 결정하고, 플랫폼운영주가 이에 대해 이의제기하거나 법원의 검토를 받을 수 없다’는 이유에서, 다음으로 “명백한 불법 콘텐츠” 24시간 이내 삭제 조항에 대해서도 법원판단없이 진행되며 신고의 건수가 많을 수 있어 24시간내 판단이 어려울 수 있다‘며 위헌이라고 보았다. 아비아법은 행정기관이나 사인의 신고가 있는 게시물에 대해서만 책임을 지운다는 면에서 본연의 정보매개자 책임제한 원리를 위배하지 않는 것으로 보이나, 게시물의 존재만 인지했을 뿐 그 불법성을 인지하지 못한 상황에서 정보매개자에게 게시물에 대한 책임을 지운다는 면에서 정보매개자의 사적 검열을 강요하기는 마찬가지이다. 헌법위원회가 불법성 판단을 행정당국에 전담시킨 것에 대해서 불만을 표시한 것은 표현의 자유 영역에 있어서는 행정기관이 개입해서는 안된다는 헌법원리의 발현으로 보인다. 또 불법성 판단을 플랫폼운영자에게 전담시킨 것에 대해 불만은 합법적인 게시물도 차단하는 상황에 대한 우려로 해석된다.
나. 일반적 감시의무
일반적 감시의무에 대해서도 새로운 흐름이 엿보인다. Eva Glawischnig-Piesczek 판결( Eva Glawischnig-Piesczek v. Facebook Ireland Limited(C-18/18))에서는 유럽사법재판소는 ‘법원이 명예훼손에 해당한다고 판결한 정보’에 대하여 문구가 동일하거나 의미가 동등한 정보와 같이 특정된 정보를 발견하기 위한 의무를 부과하는 것은 일반적인 감시의무에 해당하지 않는다고 판단하였다. 기존의 해석과 달리 특정 콘텐츠를 제거·차단하기 위하여 모든 콘텐츠를 감시하는 것을 허용한 것이다.
뒤이어 Poland v. Parliament and Council 판결(Poland v. Parliament and Council(C-401/19))은 위의 Eva Glawischnig-Piesczek 판결을 인용하면서 플랫폼운영자가 저작권자가 제공한 정보를 바탕으로 콘텐츠에 대한 필터링을 하도록 규정한 EU저작권지침 제17조가 일반적 감시의무를 부과한 것이 아니고, 따라서 EU기본권헌장에 위배되지 않는다고 판단하였다.
그러나 이 판결들의 한계를 염두에 둬야 한다. 첫째 *법원*이 명예훼손에 해당한다고 판결한 정보에 한해서 콘텐츠 감시의무 부과가 허용된다. 둘째 EU저작권지침은 EU전자상거래지침과 동급의 법률이기 때문에 유럽사법재판소의 위와 같은 판단은 이해가 되는 측면이 있다. 유럽인권재판소는 법률 보다 위상이 높은 인권의 측면에서 어떤 판단을 내릴지 살펴봐야 한다.
5. 결론
인터넷이라는 정보의 바다에서 어떤 정보를 길어 올릴지의 판단은 각 개인에게 주어진다. 내가 인터넷에 글을 올린다고 해서 모두가 볼 수 있는 것이 아니다. 보고 싶어 하는 사람만 볼 뿐이다. 검색을 통한 미리 보기는 그 선택권을 강화해준다. 방송과 신문의 시대에는 자신이 원하는 것을 골라볼 자유가 채널 수준으로 한정되어 있었지만 인터넷의 시대에는 그 자유가 기사 수준으로 확장되어 있고 그 자유의 양과 폭도 훨씬 넓다. 성인을 전제로 한다면, 유해한 정보의 파편들에 상처받은 개인을 상정할 것이 아니라 원하는 정보를 습득한 개인을 상정해야 한다.
수많은 플랫폼운영자가 법적 책임의 위험 때문에 합법적인 글들을 삭제차단하고, 서비스들을 축소하거나 닫고 있으며, 새로운 기술개발에 투여되어야 할 자원을 게시물 모니터링에 소진하고 있다. 더 중요한 것은 이런 모니터링 비용이 진입장벽으로 기능하면서 새로운 경쟁력 있는 플랫폼의 탄생이 지연되고 있다.
인터넷은 문명사적으로 매우 특별한 도구이다. 인류가 처한 상당수의 문제에 대한 해결책은 이미 존재한다. 매년 수백만 명이 기아로 죽고 있지만, 인류는 이미 인구가 필요한 식량의 3배를 매년 생산해내고 있어 아사를 피할 수 있는 최소량에 해당하는 식량이 소비자를 찾지 못하고 매년 버려지고 있다. 엄청나게 많은 사람들이 치료법이 없는 병 때문에 죽는 것이 아니라 치료법 즉 정보의 유통이 제대로 되지 않아 죽는다. 중요한 것은 해결책을 실행에 옮기기 위한 의지의 조직이며, 인터넷은 그런 의지들이 축적되기 위한 첫 단계로서의 상호소통과 정보공유를 가속화하고 나아가 그런 의지를 조직해내기 위한 다양한 정치적 기술적 산업적 혁신들을 가능하게 한다.
*위 글은 한국지능정보사회진흥원의 2022년 한국인터넷백서에 게재되었습니다. https://nia.or.kr/site/nia_kor/ex/bbs/View.do?cbIdx=99871&bcIdx=25447&parentSeq=25447
0 Comments