온라인 공간을 안전하게 만드는 방법

Spread the love

온라인 공간을 안전하게 만드는 방법

 

인터넷을 안전하고 표현의 자유를 허용하려면 규제 및 비즈니스 과제를 충족해야 합니다.

 

애플은 오랫동안 유지해온 “개인 정보 보호 우선” 관행을 뒤집고 2021년 8월 저장된 아동 성 학대 물질(CSAM)을 탐지하기 위해 장치의 이미지와 동영상을 스캔하는 새로운 기능을 출시하겠다고 발표했습니다.

이러한 정책 전환은 기술의 책임 있는 사용과 안전한 디지털 공간을 보장하는 것을 목표로 하는 규제와 기업 모두에서 오늘날 일어나고 있는 주요 변화를 전형적으로 보여줍니다.

 

하지만, 애플의 새로운 정책은 보안과 프라이버시 전문가들로부터 너무 많은 우려를 불러일으켰기 때문에 애플의 계획은 연기되었습니다.

 

디지털 안전 공간의 개념은 CSAM의 확산에 국한되지 않습니다. 소셜 미디어, 마켓플레이스 또는 온라인 플랫폼과 같은 사람을 연결하여 사용자 생성 콘텐츠를 배포하는 중개 서비스 제공업체는 점점 더 많은 수의 서비스 남용에 직면하고 있습니다.

 

여기에는 혐오 발언, 테러 콘텐츠, 불법 상품 및 서비스, 스팸 및 허위 정보의 확산이 포함됩니다.

실제로 매년 전 세계 중개 서비스 제공업체들은 수십억 개의 콘텐츠를 플랫폼에서 탐지하고 제거합니다. 그 이유는 콘텐츠가 불법이거나 서비스 약관에 위배되기 때문입니다.

 

이는 거대 플랫폼뿐만 아니라 작은 플랫폼에도 영향을 미칩니다. 수천 개의 소규모 온라인 플랫폼들이 매달 사용자들에 의해 게시되는 엄청난 양의 불법 콘텐츠의 본거지입니다.

페이스북은 2020년에 이러한 콘텐츠를 5억 개 이상(스팸 포함 13억 개) 확인했으며 콘텐츠 조정에 수억 달러를 지출하고 있습니다.

 

문제점은

 

이 내용은 너무 극단적이고 폭력적이어서 사람들은 종종 정신 건강 문제를 겪는 것으로 보고되고 있습니다.

 

물론, 불법적이거나 유해한 콘텐츠의 문제는 디지털 서비스의 부상과 함께 나타나지 않았습니다. 다만 점점 교묘해진 악성 행위자들에 의해 이런 내용이 확산되고 증폭될 수 있는 규모와 속도는 걱정입니다.

 

이로 인해 이러한 위험의 일부를 완화하기 위해 새로운 규제 프레임워크를 설계하고 있는 전 세계 정부들에게 경각심을 불러일으켰으며, 이는 사회의 미래뿐만 아니라 규제하고자 하는 기업에도 중요한 영향을 미칩니다.

 

하지만, 안전한 디지털 공간을 확보하는 것은 규제 기관과 기업 모두에게 상당한 도전과제로 입증되었고 앞으로도 그럴 것입니다.

 

규제 과제입니다.

 

온라인 공간을 규제하려는 민주 정부는 모순된 목표와 씨름해야 합니다.

 

그들은 한편으로는 불법 콘텐츠의 확산을 막기 위해 플랫폼을 의무화함으로써 인터넷을 안전하게 유지하는 것과, 다른 한편으로는 언론의 자유를 포함한 기본적인 인권이 온라인에서 보호되도록 하는 것 사이에서 균형을 맞출 필요가 있습니다.

 

인스타그램에 매일 9천 5백만 장 이상의 사진이 업로드되고 있는 가운데, 온라인에 게시된 콘텐츠의 양과 잠재력은 콘텐츠 제거에 앞서 사법적 검토를 거의 불가능하게 만듭니다.

따라서 정부는 민간이 특정 규제 원칙에 따라 불법 콘텐츠를 완화할 의무를 설정하는 데 의존해야 합니다.

 

하지만 규제가 엄격할수록 과잉 콘텐츠 제거의 위험이 높고 규제가 관대할수록 불법 또는 유해 콘텐츠가 확산될 위험이 높습니다.

입법자들의 관련 과제는 무엇이 효과적으로 불법 콘텐츠를 구성하는지 정의하는 것입니다. 이는 목표된 피해를 커버할 수 있을 만큼 광범위하고 검열 크리프의 위험을 피할 수 있을 만큼 구체적이기 때문입니다.

비현실적으로 넓은 정의는 표현의 자유에 심각한 위험을 초래합니다.

 

많은 사람들은 이 어려움이 적절한 안전장치 없이 규칙을 정의하려고 시도하는 민주주의가 낮은 국가들에서 정치적 검열로 이어질 수 있다고 걱정합니다.

 

또한, 이러한 규제 정의로 인해 상당한 회색 지대가 존재할 수 있으므로, 기업은 자신의 재량에 따라 콘텐츠를 삭제할지 여부를 결정해야 합니다.

이러한 모호성과 플랫폼에 대한 압박이 결합되어 이러한 콘텐츠가 탐지되는 즉시 행동해야 한다는 압박은 온라인 상의 표현의 자유에 중요한 영향을 미치면서 과도한 검열의 위험을 증가시킵니다.

 

또다른 어려움

 

규제 당국이 직면한 또 다른 어려움은 시장 내 경쟁을 보장하면서 효과적인 의무를 이행하는 방법입니다.

이는 혁신이나 시장 진입에 대한 장벽을 만들지 않고 모든 관련 서비스에 최소한의 요구사항을 부과하는 것 사이의 적절한 균형을 찾는 것을 의미합니다.

 

이러한 딜레마에 적합한 솔루션을 찾기 위한 시도로, 민주 정부와 대규모 디지털 서비스는 처음에는 Facebook 규제 백서 또는 EU 행동 강령과 같은 일련의 자율 및 공동 규제 이니셔티브를 시작했습니다.

 

그러나, 그 대신 탐지된 불법 콘텐츠를 다루거나 그렇지 않으면 심각한 처벌을 받도록 온라인 플랫폼을 의무화하는 새로운 프레임워크를 개발하기 시작한 규제 당국에 의해 결과가 항상 충분하다고 여겨지는 것은 아니다.

 

일반적으로 이러한 새로운 규제 접근법은 콘텐츠별 접근법과 시스템적 접근법의 두 가지 광범위한 범주로 나눌 수 있습니다.

 

첫 번째는 저작권 침해, 테러 콘텐츠 또는 CSAM과 같은 특정 유형의 온라인 피해를 목표로 하는 법률을 설계하는 것으로 구성되며 해당 콘텐츠의 효과적이고 시기 적절한 제거에 초점을 맞추고 있습니다.

 

이러한 규제의 예로는 유럽 연합의 테러 콘텐츠 온라인 규정, 허위 정보에 대한 프랑스 법률, 독일 네트워크 집행법(NetzDG) 및 디지털 단일 시장에서의 저작권에 대한 지침이 있습니다.

이와는 대조적으로, 시스템적 접근 방식은 온라인 기업들이 플랫폼에서의 불법 콘텐츠 확산에 대응하고 서비스의 잠재적인 남용을 완화하는 동시에 사용자의 권리를 보호하기 위해 정책, 프로세스 및 시스템이 설계되고 구현되었음을 입증해야 하는 교차 피해 법률 프레임워크를 제공하는 것을 목표로 합니다.

 

이것은 최근 영국의 온라인 안전 법안과 유럽연합의 디지털 서비스법(DSA)에서 제안된 방향입니다.

 

예를 들어, 위원회가 2020년 12월에 처음 제시한 DSA의 경우, 입법자들은 기존의 책임 체제를 수정하지 않으며, 온라인에서 불법 콘텐츠를 정의하지도 않습니다. 그 대신에, 위원회는 중개서비스 제공자에 대해 다음과 같은 새로운 통일된 책임과 실사 의무를 설정합니다.

 

컨텐츠가 불법임을 알게 되었을 때 해당 컨텐츠가 플랫폼에서 제거되거나 비활성화될 수 있도록 프로세스와 절차가 마련되어 있어야 합니다. 이러한 규정은 잠재적인 대규모 금융 위약금을 넘어서는 모든 중개 서비스 제공업체에 영향을 미칩니다.

 

비즈니스 과제 및 시사점을 파악합니다.

 

기업은 고객의 신뢰를 유지하면서 복잡한 사법권 간 요구사항을 준수하기 때문에 “빠르게 움직이고 물건을 부수는” 문화에서 더 합리적인 “빠르게 움직이고 책임감 있는” 문화로 전환해야 할 것입니다. AI 규제에 대한 EU의 제안에서 알 수 있듯이, 이미 일부 규제 기관이 취하고 있는 위험 기반 접근 방식으로의 전환에는 조직의 변화와 새로운 위험 관리 프레임워크의 개발이 필요합니다.

 

영향을 받는 기업은 새로운 규제 의무의 운영 영향을 이해하고, 적절한 위험 완화 요소를 준수하고 이행할 수 있는 능력을 평가해야 합니다.

 

금융과 같은 다른 분야의 교훈이 유용할 수 있습니다. 이러한 분야와 마찬가지로 온라인 플랫폼도 새로운 정책과 절차를 개발하고 기술적 솔루션을 구현해야 합니다.

 

또한 이들은 새로운 역할과 책임을 창출하여 궁극적으로 비즈니스 내의 조직적, 문화적 변화를 이끌어야 합니다.

 

새로운 리스크 관리 프로세스 및 절차입니다.

 

첫째, 기업은 규모와 관계없이 국가 권한 기관, 플랫폼의 사용자 또는 내부 조정 시스템 등 다양한 출처에서 알게 된 불법 콘텐츠를 해결하기 위한 프로세스를 마련해야 합니다.

또한 여러 관할 지역에서 투명성, 공정성, 안전 및 규정 준수를 보장하기 위해 컨텐츠 조정 관리 프로세스와 도구를 개발해야 합니다. 이로 인해 불가피하게 모든 온라인 플랫폼에 비용과 운영상의 복잡성이 가중될 것입니다.

 

예를 들어, 유럽 위원회는 콘텐츠 조정 관리 또는 투명성 보고 워크플로우를 포함하는 이러한 툴의 구현 및 운영에 드는 연간 비용이 규모가 큰 참가자들의 경우 연간 수천만 달러에 이를 것으로 추산하고 있습니다.

 

둘째, 온라인 광고에 대한 새로운 투명성 요구사항은 온라인 플랫폼이 광고주와 대상 청중에 대한 정보를 사용자들에게 제공하기 위한 전용 프로세스와 도구를 개발할 것을 요구합니다. 또한 온라인 마켓플레이스의 공급자는 비즈니스 고객 정책 파악을 제정하고 플랫폼에서 운영되는 사용자로부터 식별 정보를 수집해야 합니다.

 

이러한 의무는 자금 세탁의 위험을 제한하기 위해 채택된 금융 산업의 유사한 요구사항에 의해 크게 영감을 받았습니다.

 

셋째, 초대형 온라인 플랫폼(VLOP)은 서비스 사용으로 인한 중요한 시스템 리스크에 대한 연간 리스크 평가를 수행해야 하는 의무를 포함하여 추가 요구사항의 대상이 될 것입니다.

 

이러한 평가에는 예를 들어 서비스를 통한 불법 콘텐츠 유포 및 플랫폼의 의도적인 조작과 관련된 리스크가 포함되어야 합니다.

 

답글 남기기

이메일 주소는 공개되지 않습니다.