Bizi Gözetleyenleri İzlemek

Bizi Gözetleyenleri İzlemek - Digital

Özet

Bu politika belgesinde sosyal medya platformlarının içerik moderasyonunu, ifade ve bilgi edinme özgürlüğünü koruyacak şekilde düzenlemesine ilişkin ARTICLE 19 olarak tutumumuzu özetliyoruz.

Bu politika belgesi, bu alandaki önceki çalışmalarımıza, özellikle de aracı sorumluluğu ve şirketlerin topluluk kuralları/hizmet şartlarına ilişkin politikalarımıza dayanmakta ve bunları geliştirmektedir. Daha önceki önerilerimiz, büyük ölçüde “hafif düzenleme” olarak adlandırılabilecek düzenleme önerileri idi. Sosyal medya platformlarının, kullanıcılarının içeriklerine ilişkin sorumluluktan muafiyetten büyük ölçüde yararlanmaya devam etmesi gerektiğini savunuyorduk. Bu önemli kural, şirketlerin yasadışı içeriği kalmamalarından dolayı sorumlu tutulmalarına engel değildir. Bu model aynı zamanda şirketlerin hizmet şartlarını insan haklarına ilişkin uluslararası standartlarla uyumlu bir şekilde hayata geçirmelerini esas almaktadır. Bu modeli, kullanıcıların ifade özgürlüğünü daha iyi koruduğuna inandığımız için savunmaktaydık. Bu model sadece sosyal medya platformları için değil, aynı zamanda içerik dağıtım ağı ve alan adı kaydı gibi altyapı düzeyinde hizmet sunan çok çeşitli diğer internet aktörleri için de önemlidir.

Ancak bugün bu değerler dizisi, büyük sosyal medya platformlarının ölçeği ve kendilerine yöneltilen eleştirileri -Facebook’un Myanmar’daki Rohingya krizini ele alışından YouTube’un ‘nefret söylemi’ konusundaki anlaşılmaz tutumuna ve Twitter’da kadın gazetecilere yönelik amansız saldırılara kadar- uygun bir şekilde ele almaktaki istikrarlı başarısızlıkları karşısında sürdürülemez görünmektedir. Ayrıca, şirketlerin her hareketlerinde şeffaf olması gerektiğine, buna daha fazla hesap verilebilirlik ve insan haklarının korunması taahhüdünün eşlik etmesi gerektiğine inanıyoruz.

Bu politika belgesi, büyük sosyal medya platformlarına yöneltilen eleştiriler ışığında savunduğumuz modelin geçerliliğini koruyup korumadığını incelemekte; son dönemde dünya çapında yapılan çeşitli önerilerin artı ve eksilerini değerlendirerek, platformların düzenlenmesine ilişkin gözden geçirilmiş pozisyonumuzu ortaya koymaktadır.

 

Temel öneriler

  1. Devletler, çevrimiçi içerik moderasyonuna ilişkin gereksiz düzenlemelerden kaçınmalıdır.
  2. Her düzenleme şeffaflık, hesap verebilirlik ve insan haklarının korunması ilkelerine dayanmalıdır.
  3. Üçüncü taraf içeriği için sorumluluktan şartlı muafiyet korunmalı, ancak bunun kapsamı, bildirim ve eylem prosedürleri açıklığa kavuşturulmalıdır.
  4. İçeriğin genel takibi yasak olmaya devam etmelidir.
  5. Her düzenlemenin kapsamı sınırlı olmalıdır. Düzenlemeler “yasal ama zararlı” içerikten ziyade yasadışı içeriğe odaklanmalıdır. Özel mesajlaşma hizmetleri ve haber kuruluşları bu kapsamın dışında tutulmalıdır. Tedbirlerin sınırötesi uygulaması olmamalıdır.
  6. Her düzenlemenin kapsadığı yükümlülükler açıkça tanımlanmalıdır. Özellikle şeffaflık yükümlülüğü, ve dahili süreçlerden kaynaklanan yükümlülükler buna dahildir.
  7. Herhangi bir düzenleyici kurum hem yasada hem de uygulamada bağımsız olmalıdır.
  8. Her düzenleme, orantılı olmalıdır.
  9. Her düzenleme, etkili yasal yollara erişimi temin etmelidir.
  10. Büyük platformlara, barındırma ve içerik küratörlüğü işlevlerini birbirinden ayırmaları, ve bu işlevlerin diğer hizmetlerle birlikte çalışabilir olmasını sağlamaları gerekliliği getirilmelidir.

 

Giriş

İnternetin fikir babalarından John Perry Barlow, 1996 yılında, Siber Alemin Bağımsızlığını ilan etti.[1] Barlow’un vizyonu, ‘herhangi birinin, herhangi bir yerde, ne kadar tekil olursa olsun, sessizliğe ya da uyuma zorlanma korkusu olmadan inançlarını ifade edebileceği’ bir yerdi. Hükümetler burada hoş karşılanmıyordu. Bu alanda yönetişim, ‘etik, aydınlatılmış bireysel fayda ve kamu yararından’ türetilecekti. Bunun üzerinden geçen yaklaşık 25 yılın sonunda, internet daha çok bir avuç sosyal medya platformundan (özellikle Facebook, Google ve Twitter) ibaret olarak görülüyor, sansür yaygınlaşıyor ve hükümetler düzenlemeler yapmaya hazırlanıyor. Ne oldu peki?

İnsanların sosyal medya platformlarının rolüne ilişkin algıları da değişti. İlk günlerinde bu platformlar, ifadeyi özgürleştiren, insanlar arasında bağlantılar kuran ve dünya çapında demokratik bir devrime öncülük eden, iyiye hizmet eden güçler olarak görülüyordu. Yıllar geçtikçe nefret söylemi, taciz, zorbalık, komplo teorileri ve propagandanın batağı olarak görülmeye başlandılar. İlk zamanlarında içeriğe nispeten tarafsız bir şekilde “ev sahipliği yapan”[2] bu platformlar, artık seçilmiş üçüncü taraf içeriklerini aktif olarak teşvik ediyor, ve hatta kendi içeriklerini üretiyorlar. Sanık sandalyesinde, Cambridge Analytica skandalından Facebook’un Myanmar’daki Rohingyalara yönelik soykırım kışkırtıcılığını kaldırmamasına, YouTube’un Yeni Zelanda’daki Christchurch terör saldırısının videosunu kapatma mücadelesine kadar, büyük sosyal medya platformlarının kullanıcılarının ve hükümetlerin endişelerini kavrama ve ele alma konusundaki tekrarlanan başarısızlıkları yer alıyor.

Bu şirketlerin bireyler üzerinde sahip oldukları güç ve çeşitli pazarlardaki[3] hakimiyetleri, Ocak 2021’de, Twitter, Facebook ve diğerleri de dahil olmak üzere başlıca sosyal medya şirketlerinin, ayın başlarında ABD Kongre Binası baskınını kışkırtan tweetlerinin bir sonucu olarak gelecekte şiddet olaylarının yaşanması ihtimaline karşı dönemin ABD Başkanı Donald Trump’ın hesaplarını askıya almasıyla daha da keskin bir şekilde ortaya çıktı.[4] Aynı ay içinde Twitter, muhaliflerin Çin’in azınlık Uygur kadınlarını zorla kısırlaştırdığını söylediği batı bölgesi Sincan’daki politikalarını savunan bir paylaşımın ardından Çin’deki ABD Büyükelçiliği’nin resmi hesabını kilitledi.[5] İlk kez olmasa da bu, sosyal medya platformları açısından dikkate değer bir güç gösterisiydi. Bu durum, içerik moderasyonu çevrelerindeki en gergin tartışmalardan birini, yani, çevrimiçi kamusal söylemde neye izin verilip verilmeyeceğine kimin karar vereceği konusunu yeniden alevlendirdi.

Bu önemli bir tartışma, ve devletlerin bu tartışmada oynayacakları bir rol var. Uygulamada kabahatin çoğu, internet aracılarının sorumluluğu konusundaki düzenlemelerin üzerine atılmıştır. Birçok ülkede sosyal medya ve diğer dijital platformlar, yasadışı içerik barındırmada sorumluluktan geniş veya şartlı muafiyet rejiminden faydalanmaktadır.[6] Son birkaç yıldır, bu düzenlemeler şirketlere bu denli serbestlik tanıdıkları ve şirketlerin ‘ekstremist’ ve diğer ‘zararlı’ içeriklerle bağımlılık yaratan etkileşimi teşvik eden algoritmalar sayesinde karlarını artırmalarına yardımcı oldukları için sıklıkla eleştirilmektedir. Bu durum, başat sosyal medya şirketlerinin gücünü dizginlemek, yasadışı ve diğer zararlı içeriklerle mücadele etmek ve şirketlerin kararlarında daha geniş kitlelere karşı demokratik hesap verebilirliğini sağlamak için daha fazla düzenlemeye ihtiyaç olup olmadığı sorusunu gündeme getirmiştir. Son zamanlarda hükümetler de sosyal medya platformlarını yayın-tipi düzenleyicilerin yetki alanına sokmayı amaçlayan ya da platformlarının, platformun diğer kullanıcılarının ifadelerinden kaynaklanan ‘zararı’ önlemek için kullanıcılarına karşı bir ‘özen yükümlülüğü’ olmasını öneren tekliflerle karşılık vermiştir.[7]

İfade özgürlüğü savunucuları için bu önermeler, kullanıcıların ifadelerini denetleme konusunda kime güvenmemiz gerektiği konusunda zor sorular doğurmaktadır. Sosyal medya platformları eskiden ifade özgürlüğüne yüksek düzeyde koruma sağladıkları şeklinde algılanırken, topluluk standartlarını giderek daha fazla kısıtlayarak azınlık seslerini susturur hale gelmişlerdir.[8] İçerik kaldırma konusundaki şeffaflık ve bu konudaki uyuşmazlık çözümleri, şimdiye dek, bu eylemlerin yeterince denetlenmesini mümkün kılmada ve kullanıcılarına anlamlı bir çözüm sunmada yetersiz kalmıştır. Son olarak, az sayıda başat platformun, daha fazla doğrudan kamusal hesap verebilirlik olmaksızın insanların neleri görebileceği üzerinde bu kadar fazla güce sahip olmasına müsaade edilmesinin gerekli olup olmadığı şüphelidir.

Bununla birlikte, yeni bir ‘platform’ düzenlemesi ihtimali de son derece sorunludur. Mevcut tekliflerin çoğu aslında çevrimiçi ‘içerik’ düzenlemesi, yani kullanıcıların ifadelerinin düzenlenmesi ile ilgilidir, çünkü devletler, şirketlerin insan iletişimini denetlemesini ve hangi ifadenin ‘yasadışı’ veya ‘zararlı’ olduğuna karar vermesini bilfiil talep etmektedir.[9] Bu, hangi ifadenin yasadışı olduğuna yalnızca mahkemeler karar verebileceğinden ve farklı içerik türleri farklı düzenlemeler gerektirebileceğinden son derece sorunludur; örneğin çocuk istismarı materyalleriyle başa çıkmak için kullanılan çözümler dezenformasyon veya telif hakkı ile başa çıkmak için uygun olmayabilir.

Her halükarda ARTICLE 19, platform düzenlemesine ilişkin yeni tekliflerin ifade özgürlüğü açısından dikkatli bir şekilde incelenmesi gerektiğine inanmaktadır. Bu doğrultuda devletler, geleneksel olarak medya düzenlemelerine atfedilen hedeflerin (çoğulculuk ve ifade özgürlüğünün çeşitliliği gibi) her birinin etkili bir şekilde korunmasını sağlamak için gerekli ve en az kısıtlayıcı yöntemi belirlemeli ve dijital platformların, -ifade özgürlüğü de dahil olmak üzere- çevrimiçi insan haklarının desteklenmesi ve korunmasındaki evrimini ve rollerini dikkate almalıdır.

Bu politika belgesi, ifade özgürlüğüne ilişkin uluslararası standartlar ışığında bu yönde bir analiz sunmaktadır ve aracı sorumluluğu konusunda halihazırdaki pozisyonumuz,[10] dijital platformların dahili kuralları/topluluk ilkeleri ve ifade özgürlüğü konusundaki politikamız,[11] yeni bir çok paydaşlı düzenleme modeli -Sosyal Medya Konseyleri[12]– için önerilerimiz ve dijital platformlara yönelik savunuculuk çalışmalarımız üzerine inşa edilmiştir. Bu konularda uzun süredir savunduğumuz pozisyonların sürdürülebilir olup olmadığını değerlendirirken, sosyal medya platformlarının faaliyetlerini yöneten düzenleyici bir çerçevenin içermesi gereken asgari güvencelere ilişkin tavsiyelerde bulunuyoruz.

Bu politika belgesinin kapsamı öncelikle, yer yer ‘dijital platformlar’ olarak adlandırdığımız ‘başat’ sosyal medya platformlarına odaklanmaktadır. Bununla birlikte, araştırmamızın daha geniş bağlamını da göz önünde bulundurarak internet altyapı sağlayıcıları (bilgisayar dağıtım ağları gibi) ve diğer dijital hizmet sağlayıcıları (özel mesajlaşma veya bulut hizmetleri gibi) dahil olmak üzere internet ekosistemindeki diğer aktörlere de değiniyoruz.

Bu politika belgesi dört bölüme ayrılmıştır:

  • İlk olarak, ‘başat’ sosyal medya platformları, ‘içerik denetimi’ ve ‘özdenetim’ de dahil olmak üzere bazı temel kavramlar açıklanmaktadır.
  • İkinci olarak, bu alandaki yasama ve politika çabalarına rehberlik etmesi gereken çevrimiçi ifade özgürlüğünün korunmasına yönelik uygulanabilir standartların ana hatları çizilmektedir.
  • Üçüncü olarak, platformların içerik moderasyon politikaları üzerinde daha fazla düzenleme yapılması lehindeki temel argümanlar ve bunlara yönelik kapsamlı yanıtımız ortaya koyulmaktadır.[13]
  • Son olarak ARTICLE 19, bu alandaki herhangi bir yeni düzenlemenin insan haklarını koruyabilmesi için hangi temel güvenceleri içermesi gerektiği konusunda tavsiyelerde bulunmaktadır.

Bu politika belgesi, ARTICLE19’in platform düzenlemesine ilişkin diğer politika belgelerini, özellikle de içerik kürasyonunun ‘ayrıştırılması’,[14] dijital ekosistemde medya çeşitliliği[15] ve taşıma zorunluluğuna ilişkin tekliflerimizin tamamlayıcısı niteliğindedir.[16] Ayrıca bu karmaşık konuyla ilgili diğer hususlarda başka politika pozisyonları da yayımlamayı planlıyoruz.[17]

 

Temel Kavramlar

ARTICLE 19 daha önce internet aracılarının bir tipolojisini çıkarmıştır – internet hizmet sağlayıcıları, web barındırma sağlayıcıları, sosyal medya platformları ve arama motorları.[18] Bunlar bugün de geçerliliğini korumaktadır, ancak sosyal medya platformlarının uygulamaları geliştikçe ve faaliyetleri daha fazla inceleme altına alındıkça, bu tartışmada bazı temel kavramları tanımlamak önem kazanmıştır. Bu politika belgesinin amaçları doğrultusunda:

  • Sosyal medya platformları, bireylerin ve grupların diğer kullanıcılarla bağlantı ve etkileşim kurmasını ve elektronik iletişim ağlarını kullanarak içerik paylaşmasını sağlayan şirketlerdir. Bunu yaparken, kullanıcılara ‘barındırma’ hizmetleri sunarlar, ancak buna genellikle özel mesajlaşma, ‘içerik moderasyonu’ ve haber akışlarının düzenlenerek sunulması gibi bir dizi başka hizmet de eşlik eder. Buna ek olarak, sosyal medya platformları genellikle reklam verenlere reklam alanı ve ilgili hizmetler, ve haber yayıncılarına haber yönlendirme hizmetleri sunarak onları kullanıcılarla buluşturur; ayrıca uygulama geliştiricilere, uygulama programlama ara yüzleri (API’ler) sağlayarak platformla bütünleşmiş araçlar programlamalarına ve geliştirmelerine olanak tanıyabilirler. Bu nedenle, bazı akademisyenler sosyal medya platformlarının genellikle faaliyet gösterdiği dört ilgili pazarı geçici olarak tanımlamıştır: sosyal ağ hizmetleri, reklam gösterimi, haber yönlendirme ve uygulamalar için platformlar.[19]
  • Dijital platform, bu politika belgesinde ‘sosyal medya platformları’ yerine sıklıkla kullanılan bir terimdir. Ancak, dijital platformlar sosyal medyadan daha geniş bir faaliyetler kümesini kapsamaktadır. Bunlar arasında çevrimiçi ticaret dünyası, uygulama mağazaları, ödeme sistemleri, arama motorları ve işbirliğine dayalı ekonomi platformları sayılabilir. Dijital platformlar, diğerlerinin yanı sıra, şu şekilde karakterize edilmiştir: (1) büyük ölçüde büyük miktarda verinin toplanması, işlenmesi ve düzenlenmesine dayanan bir iş modeline sahip olmak; (2) çok taraflı piyasalarda faaliyet göstermek (3) hizmetin değerinin kullanıcı sayısıyla birlikte artma eğiliminde olduğu ağ etkilerinden yararlanmak; ve (4) kullanıcılarına anında ve ücretsiz olarak ulaşmak için bilgi iletişim teknolojilerine bel bağlamak.[20]
  • İçerik denetimi, sosyal medya platformlarının yasadışı içerikle başa çıkmak ve hizmetlerinde kullanıcı tarafından oluşturulan içeriğe karşı topluluk standartlarını uygulamak için kullandıkları farklı önlem ve araçları kapsar. Bu genellikle kullanıcılar, güvenilir işaretçiler veya ‘filtreler’ tarafından işaretlemeyi; içeriğin kaldırılmasını, etiketlenmesini, sıralamasının düşürülmesini, içerikten gelir elde edilmesinin engellenmesini; veya belirli özelliklerin devre dışı bırakılmasını içerir.
  • İçerik kürasyonu, sosyal medya platformlarının, genellikle kullanıcılarının profillerine dayalı olarak, haber akışlarındaki içeriği sıralamak, öne çıkarmak veya geri planda tutmak için otomatik sistemler kullanmasıdır. İçerik, platformlarda ödeme karşılığında da öne çıkarılabilir. Platformlar ayrıca kullanıcıları hassas içeriklere karşı uyarmak veya örneğin, içeriğin güvenilir bir kaynaktan gelip gelmediğini vurgulamak için belirli etiketler uygulayarak da içerik düzenleyebilir.
  • Öz düzenleme, tamamen gönüllü uyuma dayanan bir çerçevedir; mevzuat, ilgili standartların uygulanmasında hiçbir rol oynamaz. Varlık nedeni, üyelerini kamuya karşı sorumlu tutmak, üyeleri arasında bilgiyi teşvik etmek ve etik standartlar geliştirmek ve bunlara saygı göstermektir. Öz düzenleme modelleri, her şeyden önce, üyelerin profesyonel davranışın temelini oluşturan değerler ve etik konusunda ortak bir anlayışa sahip olmalarına dayanır. Sosyal medya şirketleri bağlamında ‘öz-düzenleme’ kavramı, ‘solo-düzenleme’ (hizmet şartları veya topluluk standartları yoluyla ifadenin düzenlenmesi) ve ‘sektörel düzenleme’ (sosyal medya platformlarının ‘dezenformasyon’ gibi belirli sorunları ele almak için benimsediği çeşitli inisiyatifler) anlamında kullanılmaktadır. “Öz düzenleme” bu politika belgesi boyunca bazen şirketlerin hükümet gözetimi altında bir dizi önlemi benimsemeye zorlandığı, ancak bu önlemlere uyulmamasının yasal yaptırımlarla sonuçlanmadığı hükümet girişimlerini tanımlamak için de kullanılmaktadır.[21]
  • Aracı sorumluluğu[22], internet aracılarının kullanıcıları tarafından yayılan veya oluşturulan içerikten yasal olarak sorumlu tutulabilecekleri yasaları ifade eder. Pek çok ülkede internet aracıları, yasadışılık konusunda fiili bilgi sahibi olduklarında ya da bir mahkeme kendilerine bunu yapmalarını söylediğinde içeriği kaldırdıkları sürece sorumluluktan muaftırlar (yani dava edilmezler). Kullanıcılar tarafından üretilen içeriğin çokluğu göz önüne alındığında, sorumluluktan muafiyet genellikle internet aracılarının hayatta kalması için gerekli görülmektedir.
  • Yayıncıların sorumluluğu[23], yayınladıkları içerikten dolayı herhangi bir kişinin yasal sorumluluğunu ifade eder. Uygulamada bu, yayıncıların hakaret, resmi sırların yayınlanmasını engelleyen yasalar gibi genel uygulanabilir yasalara tabi olduğu anlamına gelir. Gazeteler bunun en iyi örneğidir. Gazeteler, web sitelerinde yayınlanan veya basımı yapılan fiziki kopyalarında bulunan içerikten yasal olarak sorumludur. Buna editörlere yazılan mektuplar da dahildir. Uygulamada, ister çevrimdışı ister çevrimiçi olsun, gazetelerin yayınladığı içerik, yayınlanmadan önce kapsamlı bir redaksiyona ve yasal incelemeye tabi tutulmaktadır. Günümüzde internet sayesinde herkes yayıncı olabilmektedir. Bu sebeple internet kullanıcıları da ürettikleri içerikten sorumlu tutulabilirler.

Uygulanabilir uluslararası insan hakları standartları

İfade özgürlüğü hakkının teminatları

İfade özgürlüğü hakkı, İnsan Hakları Evrensel Beyannamesi’nin (İHEB)[24] 19. Maddesi ile korunmakta ve Medeni ve Siyasi Haklara İlişkin Uluslararası Sözleşme’nin (MSHUS)[25] 19. Maddesi ve diğer bölgesel antlaşmalarla[26] yasal güvence altına alınmaktadır.

İfade özgürlüğü hakkının kapsamı geniştir ve elektronik ve internet tabanlı her türlü ifade biçimi için geçerlidir. Devletlerin, tüm insanlara, sınırlara bakılmaksızın, kişinin seçtiği herhangi bir medya aracılığıyla her türlü bilgi veya fikri arama, alma veya verme özgürlüğünü garanti etmesini gerektirir. Uluslararası insan hakları standartları uyarınca, kitle iletişim araçlarını düzenleyen yasal çerçeve, yazılı ve görsel medya ile internet arasındaki farklılıkları dikkate almalıdır[27], telekomünikasyon ve yayıncılık sektörlerine ilişkin düzenlemeler internetin düzenlenmesine oldukları gibi aktarılamaz.[28] Devletler, internetteki yasadışı içeriğe yönelik özel bir yaklaşım benimsemeli ve internetteki zararlı söylemin giderilmesinde etkili bir araç olarak öz düzenlemeyi teşvik etmelidir.[29]

İfade özgürlüğü hakkına ilişkin sınırlamalar

Devletler, istisnai olarak, uluslararası insan hakları standartları uyarınca, ifade özgürlüğü hakkını, söz konusu sınırlamaların üç aşamalı testin katı şartlarına uygun olması kaydıyla sınırlandırabilirler. Buna göre her sınırlama,

  • Kanunla öngörülmelidir: bireylerin davranışlarını buna göre düzenlemelerini sağlamak için yeterli kesinlikte formüle edilmelidir;
  • Meşru bir amaç gütmelidir: sınırlı sayılda sayılan başkalarının haklarına veya itibarına saygı gösterilmesi, ulusal güvenliğin veya kamu düzeninin korunması, ve kamu sağlığının veya ahlakının korunması amaçlarından birini gütmelidir;
  • Demokratik bir toplumda gerekli ve orantılı olmalıdır: daha az müdahaleci bir tedbirin daha kısıtlayıcı bir tedbirle aynı amaca ulaşabiliyor olması halinde, daha az kısıtlayıcı olan tedbirin uygulanmasını gerektirmektedir.[30]

Ayrıca, MSHUS Madde 20(2), ayrımcılığa, düşmanlığa veya şiddete tahrik teşkil eden her türlü ulusal, ırksal veya dini nefret savunuculuğunun kanunla yasaklanması gerektiğini öngörmektedir. Aynı ilkeler internet üzerinden yayılan elektronik iletişim veya ifade biçimleri için de geçerlidir.[31]

Sosyal medya şirketleri ve ifade özgürlüğü

Uluslararası insan hakları organları, ifade özgürlüğü ve sosyal medya şirketleri arasındaki ilişkiyi çeşitli alanlarda yorumlamıştır.

Aracı sorumluluğu

İfade özgürlüğü özel raportörleri, uzun süredir sorumluluktan muafiyetin çevrimiçi ifade özgürlüğünü korumanın en etkili yolu olduğunu savunmaktadır. Aracıların teknik hizmetler sunarken başkaları tarafından üretilen içerikten sorumlu olmamasını ve sorumluluğun yalnızca aracı, çevrimiçi yayınlanan içeriğe özel olarak müdahale ettiğinde ortaya çıkmasını tavsiye etmektedirler.[32]

Düşünce ve ifade özgürlüğünün geliştirilmesi ve korunmasına ilişkin müteakip BM Özel Raportörleri, sansürün asla özel bir kuruluşa devredilmemesi gerektiğini ve devletlerin, aracıları kendi adlarına sansür yapmaları için kullanmamaları, onları buna zorlamamaları gerektiğini birçok kez ifade etmişlerdir.[33]

David Kaye ayrıca, ‘görüşlere dayalı sert düzenlemelerin değil, akıllı düzenlemelerin norm olması gerektiğini ve bu düzenlemelerin şirketlerin şeffaflığını ve eksikliklerini gidermeyi sağlamaya odaklanması gerektiğini’ belirtmiştir.[34] Özel raportör, belirli koşullar altında düzenleme yapılması olasılığını göz ardı etmemekle birlikte, devletlerin içeriği yalnızca bağımsız ve tarafsız bir yargı makamının emri uyarınca ve yasal süreç içinde kanunilik, gereklilik ve meşruiyet standartlarına uygun olarak kısıtlayabilmesi gerektiğini yinelemiştir.[35] Ayrıca, ifade özgürlüğü üzerindeki önemli ve caydırıcı etkileri göz önüne alındığında, devletlerin internet aracılarına -gerek ağır para cezaları ve gerekse hapis cezaları olsun- orantısız yaptırımlar uygulamaktan kaçınmaları gerektiğini belirtmiştir.[36] Halefi (ve şu anki İfade Özgürlüğü Özel Raportörü) Irene Khan da benzer bir sonuca varmıştır.[37]

Özel sektörün insan hakları sorumlulukları

Sosyal medya şirketlerinin insan haklarına saygı gösterme sorumluluklarına ilişkin tavsiyeler, (bunlarla sınırlı olmasa da) aşağıdaki belgeleri içerir:

  • İş Dünyası Ve İnsan Haklarına Dair Rehber İlkeler: Birleşmiş Milletler ‘Koruma, Saygı Gösterme ve Telafi Edici Çözüm Üretme’ Çerçevesi (Kılavuz İlkeler), özel sektörün internette insan haklarının korunmasındaki rolünü ifade etmek için bir başlangıç noktası teşkil eder.[38] Bu ilkeler, devletin yükümlülüklerinden veya bu yükümlülüklerin uygulanmasından bağımsız olarak, ticari işletmelerin insan haklarına saygı gösterme sorumluluğunu kabul etmekte ve şirketlerin benimsemesi gereken çeşitli tedbirler önermektedir.[39] Bunlar arasında şirketlerin olumsuz etkileri hafifletmek için şirketin tasarım aşamasına insan hakları güvencelerini dahil etmesi, hükümet yetkilileri karşısında güçlerini artırmak için şirketlerin birlikte hareket ederek bir etki alanı oluşturması ve olumsuz insan hakları etkilerinin ortaya çıktığı durumlar için etkili çözüm yollarını ulaşılabilir kılmaları bulunmaktadır.
  • İfade özgürlüğü özel raportörleri, sosyal medya platformlarının ifade özgürlüğünün desteklenmesindeki rolüne değinmiş ve bu bağlamda Kılavuz İlkelere saygı göstermelerini ve bunları teşvik etmelerini tavsiye etmişlerdir. Diğer hususların yanı sıra, şirketlerin uluslararası insan hakları normları ve ilkeleri doğrultusunda[40] açık ve net hizmet şartları oluşturmalarını, şeffaflık raporları hazırlamalarını[41] ve ihlal durumlarında, etkilenen kullanıcılar için etkili çözüm yolları sunmalarını tavsiye etmişlerdir.[42] Ayrıca, içeriğin yasalara aykırılığını belirleme konusunda genellikle yeterli donanıma sahip olmayan özel sektörden, yasalar, politikalar veya diğer yollarla ifade özgürlüğüne gereksiz veya orantısız bir şekilde müdahale eden adımlar atmasını istememeleri yönünde devletlere birçok kez çağrıda bulunmuşlardır.[43] İfade Özgürlüğü Özel Raportörü ayrıca, şirketlerin faaliyetlerinin tüm aşamalarında şeffaflık konusunda kökten farklı yaklaşımlar benimsemeleri ve kendilerini kamusal hesap verebilirliğe açmaları gerektiğini açıkça belirtmiş ve bunun Sosyal Medya Konseyleri aracılığıyla olabileceğini önermiştir.[44]
  • Bölgesel düzeyde:

° Avrupa Konseyi İnsan Hakları Komiseri, devletlerin bizzat kendi insan hakları yükümlülüklerini[45] ihlal eden kısıtlamalar getirmeleri için internet şirketlerine bel bağlamayı bırakmalarını tavsiye etmiş ve ticari işletmelerin internet üzerindeki faaliyetleriyle ilgili sorumlulukları konusunda daha fazla rehberlik geliştirilmesi gerektiğini belirtmiştir.[46] Avrupa Konseyi Bakanlar Komitesi de benzer şekilde, sosyal medya şirketlerinin usule ilişkin güvenceler[47] de dâhil olmak üzere insan haklarına ve hukukun üstünlüğüne saygı göstermelerini ve otomatik veri işleme tekniklerinin kullanımı konusunda şeffaf olmalarını tavsiye etmiştir.[48]

° Amerikan Devletleri Örgütü (ADÖ) internet özgürlüğü konusunda benzer tavsiyelerde bulunan çeşitli raporlar hazırlamıştır.[49] Örneğin ADÖ, aracıların hala özel kuruluşlar olduğunu, çıkarlarının devletin çıkarlarından farklı olduğunu ve onlardan bir mahkeme gibi çalışmalarını beklemenin yetki alanlarının ötesine geçtiğini ve bu durumun kötüye kullanımı teşvik edebileceğini vurgulamıştır.[50]

° İnsan ve Halkların Hakları Afrika Komisyonu kısa bir süre önce Afrika’da İfade Özgürlüğü ve Bilgiye Erişim Üzerine İlkeler Bildirgesi’ni revize ederek kabul etmiştir.[51] Bildirge’nin 39. ilkesi, devletlerin internet aracılarından, çevrimiçi içeriğin denetlenmesi ve filtrelenmesi süreçlerine insan hakları güvencelerini dahil etmelerini, ifade özgürlüğü ve çevrimiçi bilgiye erişim üzerindeki kısıtlamaları azaltmak için hafifletme stratejileri benimsemelerini, içeriğin kaldırılmasına yönelik tüm taleplerde şeffaflık sağlamalarını, itiraz mekanizmaları kurup hak ihlallerinin meydana geldiği durumlarda etkili çözüm yolları sunmalarını talep etmelerini öngörmektedir.[52]

Sivil toplum da sosyal medya şirketlerinin uluslararası insan hakları standartlarına saygı göstermesi gerektiği yönünde tavsiyelerde bulunmuştur. Örneğin, Aracı Sorumluluğuna İlişkin Manila İlkeleri, şirketlerin insan haklarına saygı göstermek için ne tür önlemler alması gerektiğini ayrıntılı olarak açıklamaktadır.[53] Bilhassa, şirketlerin içerik kısıtlama uygulamaları insan hakları hukuku kapsamındaki gereklilik ve orantılılık testlerine uygun olmalı[54] ve kullanıcılara şirketlerin kararlarına itiraz edebilecekleri mekanizmalar sağlamalıdır.[55] Ranking Digital Rights Projesi, büyük internet şirketlerini, diğerlerinin yanı sıra, hizmet şartlarının mevcudiyeti; içerik, hesap veya hizmet kısıtlamasının nedenleri; kullanıcılara bildirim; üçüncü taraf taleplerine yanıt verme süreci ve çeşitli şeffaflık faaliyetlerini içeren dijital haklar göstergelerine uyumları açısından değerlendirmektedir.[56]

İçeriğe özgü ilkeler

İnsan hakları raportörleri, ‘şiddetli ekstremizm’,[57] ‘sahte haberler’,[58] toplumsal cinsiyete dayalı çevrimiçi taciz ve istismar,[59] ve ‘nefret söylemi’[60] de dahil olmak üzere belirli içeriklerle ilgili olarak devletlerin ve şirketlerin sorumluluklarını vurgulayan bir dizi ortak bildiri yayınlamıştır. Bu bildirilerde, devletlere, içeriğin uluslararası standartlara uygun şekilde yasal olarak kısıtlandığı durumlar haricinde, dijital platformlardan içeriğin kaldırılması veya başka bir şekilde kısıtlanmasını talep etmemeleri çağrısında bulunmuşlardır.[61]

Ayrıca şirketlere, kullanıcılarının politikalarına ve uygulamalarına kolayca erişebilmelerini, bunların nasıl uygulandığını ve asgari usul kurallarına[62] nasıl riayet ettiklerini anlayabilmelerini sağlamaları, ve bu politikaların uluslararası insan hakları hukuku ile doğrudan bağlantılı olması çağrısında bulunmuşlardır.[63]

İçerik moderasyonunda yapay zekanın rolü

İfade Özgürlüğü Özel Raportörü, Ağustos 2018’de Genel Kurul’a sunduğu bir raporda, yapay zekanın içerik moderasyonundaki rolü ve insan hakları üzerindeki potansiyel etkisine ilişkin bir dizi tavsiyede bulunmuştur.[64] Özellikle, devletlerin yapay zeka alanında çeşitli, çoğulcu bir bilgi ortamına elverişli politika ve yasalar benimsemelerini tavsiye etmiştir.[65] Bu tür önlemler, yapay zeka konusundaki uzmanlığın ve gücün birkaç başat şirketin elinde toplanmasını önlemek için teknoloji tekellerinin düzenlemelere tabi tutulmasını ve hizmet ve teknolojilerin birlikte çalışabilirliğini artırmak için tasarlanan düzenlemeler yapılmasını içerebilir.[66] Diğerlerine ek olarak, şirketlere, platformlarında, hizmetlerinde ve uygulamalarında[67] yapay zeka teknolojilerinin nerede ve nasıl kullanıldığını açıkça belirtmelerini; içerik kaldırma, vaka çalışmaları ve ticari ve siyasi profilleme[68] hakkında veri yayınlamalarını; ve yapay zeka sistemlerinin olumsuz insan hakları etkilerine karşı bireysel kullanıcılara çözüm yollarına erişim sağlamalarını tavsiye etmiştir.[69]

Çevrimiçi gizlilik ve anonimlik hakkının korunması

Çevrimiçi iletişimde özel hayatın gizliliği hakkının güvence altına alınması, bireylerin ifade özgürlüğünü serbestçe ve güvenle kullanabilmeleri açısından elzemdir.[70] Mahremiyetle iletişim kuramamak, bireylerin ifade özgürlüğü haklarını esaslı bir şekilde etkilemektedir.

Bu durum, İfade Özgürlüğü Özel Raportör David Kaye’in, devletlerin ve özel aktörlerin, bireylerin internet üzerindeki iletişimlerini ve faaliyetlerini izlemesi ve bunlar hakkında bilgi toplaması konusundaki endişelerini dile getirdiği çeşitli raporlarında kabul edilmiştir.

Bu uygulamalar, internet kullanıcılarının özel hayatın gizliliği hakkının ihlalini teşkil edebilir ve nihayetinde çevrimiçi bilgi ve fikirlerin serbest akışını engelleyebilir.[71] İfade Özgürlüğü Özel Raportörü ayrıca devletlerin, kişilerin kendilerini çevrimiçi ortamda anonim olarak ifade edebilmelerini temin etmelerini ve gerçek isimle kayıt sistemlerini uygulamaya koymaktan kaçınmalarını tavsiye etmiştir.[72] Ayrıca, devletlerin dijital iletişim ve çevrimiçi hizmetlere erişim için kullanıcıların kimliklerinin belirlenmesini bir ön koşul haline getirmekten ve mobil kullanıcılar için SIM kart kaydını zorunlu kılmaktan kaçınmalarını tavsiye etmiştir.[73] Ayrıca şirketlerin şifreleme ve anonimliği (takma ad kullanılması dahil) kısıtlayan politikalarını yeniden gözden geçirmesini tavsiye etmiştir.[74]

İçerik moderasyonunun düzenlenmesine dair ikilemler

Daha önce de belirtildiği üzere, son yıllarda devletlerin sosyal medya pazarında ‘baskın’ olduğu düşünülen dijital platformların içerik moderasyon faaliyetlerini düzenlemesi yönünde artan bir ivme söz konusudur. Kamusal söylemde bu çizgi genellikle bulanık olsa da ‘platform’ düzenlemesi için yapılan bu çağrılar, uygulamada genellikle ‘çevrimiçi içerik’ düzenlemesine dönüşmektedir.

ARTICLE 19 bu bölümde, yasal düzenleyicilerin devreye girmesine ve özellikle de çevrimiçi içeriğin düzenlenmesi için kapsayıcı bir çerçevenin benimsenmesine ihtiyaç duyulduğuna dair algının temel nedenlerinden bazılarını incelemektedir. Ardından bu nedenleri mercek altına alarak ne kadar geçerli olduklarını değerlendireceğiz.

Platform regülasyonu lehine argümanlar

Platform gücü ve pazar gücü

Regülasyona yönelik mevcut ivmeyi yönlendiren en büyük faktör, az sayıda sosyal medya platformunun büyük pazar gücüdür, bu, bu platformların çok sayıda insanın çevrimiçi ifade özgürlüğünü nasıl kullanacaklarını kontrol etmelerine olanak sağlamaktadır. Bu platformların büyüklükleri ve gelirleri

birkaç ülkenin gelirinden daha fazladır.[75] İfade özgürlüğü ve demokrasi açısından en büyük endişe, kullanıcıların hangi bilgileri göreceğine, hangi bilgilere erişip hangi bilgileri paylaşabileceğine yalnızca bir avuç küresel -çoğunlukla ABD merkezli- şirketin karar veriyor olmasıdır.

Yoğunlaşmış güce ilişkin endişe, uygulamada büyük ölçüde, baskın sosyal medya platformlarını yayıncılık tipi bir düzenleyicinin yetkisi altına sokacak bir dizi teklife dönüşmüştür. Dolayısıyla bu tekliflerin odak noktası daha çok çevrimiçi içeriğin düzenlenmesidir, pazar gücünü doğrudan ele almamaktadırlar.[76] Bununla birlikte, bu tekliflerin bazı unsurları, kullanıcı sayıları ve ciroları da dâhil olmak üzere, platformların büyüklüğünü dikkate almaktadır.[77]

İçeriğin yayılmasını içeren diğer teklifler daha açık bir şekilde farklı sektör türleri arasında eşit şartlar yaratmayı amaçlamaktadır.[78] Buna ek olarak, rekabet ve yayıncılık düzenleyicileri, etkili düzenleyici müdahaleler geliştirmek ve istenmeyen sonuçlardan kaçınmak da dahil olmak üzere, çevrimiçi hizmetlerin sağlanmasında piyasa başarısızlığı ile nasıl başa çıkılacağı konusunda kendi önerilerini geliştirmeye başlamıştır.[79]

Son olarak, veri taşınabilirliğinden rıza ve amaç sınırlamasına kadar verilerin korunması ile ilgili bir dizi önlemin, kullanıcıların kişisel verilerinin korunmasının ötesinde platformların rekabet gücü üzerinde etkisi olduğunu belirtmek gerekir. Bu nedenle, AB Genel Veri Koruma Tüzüğü gibi güçlü veri koruma çerçevelerinin benimsenmesi, bu dev şirketlerin gücünü kontrol altında tutmanın ve çıkarcı iş modellerine sınırlar koymanın anahtarıdır.

Yeni bir düzenleyici çerçevenin oluşturulması tekliflerinin çoğu ABD’nin büyük sosyal medya platformlarının aşırı gücünü dizginlemeyi amaçlasa da, bunlar daha küçük oyuncuları ve mesajlaşma, bulut barındırma ve dosya paylaşım hizmetleri gibi diğer hizmetleri düzenlemek için de bir fırsat olarak kullanılmaktadır. Gerçekten de bazı altyapı sağlayıcıları, özellikle neo-Nazi ve aşırı sağcı gruplara hizmet sunmaları nedeniyle, içerik denetimi konusundaki tartışmaların giderek daha fazla içine çekilmektedir.[80]

Platform iş modeli

Daha fazla çevrimiçi içerik düzenlemesi yapılmasına yönündeki mevcut çabaların altında yatan ikinci temel endişe, büyük sosyal medya platformlarının, kullanıcıları ve kullanıcılarının çevrimiçi alışkanlıkları (davranışsal veriler) hakkında büyük miktarda veri toplamaya ve çevrimiçi (hedefli) reklamcılık yoluyla para kazanmaya dayanan iş modelidir.[81] Özellikle mahremiyet ve dijital haklar savunucuları, ‘gözetim kapitalizminin’ hem manipülatif hem de kullanıcıların insan haklarına zararlı olduğu konusunda uzun süredir uyarılarda bulunmaktadır.[82] Bu model, hem özel hayatın gizliliğini ihlal eden (örneğin çevrimiçi izleme, gerçek zamanlı teklif verme ve hedefleme) hem de hiç şeffaf olmayan tekniklere dayanır.[83] Bu teknikler, kullanıcıları platformlarda meşgul etmeyi ve tıklama tuzağı (clickbait), sansasyonel ve ‘ekstremist’ içeriğin çevrimiçi ortamda yayılmasını teşvik etmeyi hedefler.[84] Kullanıcılar, belirli bir tür içerik veya reklamı neden gördüklerine dair anlamlı bir anlayışa sahip olmadan bu içeriklerle karşılaşırlar. Dolayısıyla bu reklam teknikleri, kullanıcıların bilgisel özerkliklerini ihlal etmektedir. Ayrıca, daha düşük çeşitlilik ve içerik kalitesini[85] teşvik etme eğilimindedirler ve diğerlerinin yanı sıra konut ve iş ilanları gibi alanlarda önemli ayrımcılık riskleri taşırlar.[86]

Algılanan solo-düzenleme ve öz-düzenleme başarısızlığı ve demokratik hesap verebilirlik eksikliği

Mevcut düzenleme önerilerinin bir diğer önemli itici gücü de, büyük sosyal medya platformlarının ‘dezenformasyon’ ve ‘nefret söylemi’nden[87] terörizm ve çocuk istismarı görüntülerine kadar bir dizi ‘zararı’ gidermekte başarısız olduğu algısıdır. Bu eleştiriler özellikle hem yasadışı hem de ‘zararlı’ materyallerin çevrimiçi ortamda yaygın olarak bulunmasına -bunların çevrimdışı ortamdaki trajik etkileri de dahil olmak üzere-[88] ve sosyal medya platformlarının içerik kaldırma yaklaşımındaki tutarlılık ve şeffaflık eksikliğine yönelmektedir.

Kabahatin büyük bir kısmı, platformlara ‘hapisten çıkış kartı’ verdiği düşünülen, sorumluluktan şartlı muafiyet modeline yüklenmiştir. Platformlar, kamuya hesap verme sorumluluğundan muaf şekilde, vesile oldukları sosyal kötülüklerin sırtından kazanç sağlıyor gibi görülmektedirler. Hal böyleyken, büyük sosyal medya platformlarının kendi iradeleriyle[89] veya ‘öz düzenleyici’ uygulama kuralları[90] çerçevesinde  benimsedikleri çeşitli girişimlerin bu sorunların üstesinden gelmede ve hesap verebilirlik açığını kapatmada yetersiz olduğu düşünülmektedir.[91]

Hukuki kesinlik ve gerçek şeffaflık ihtiyacı

Yukarıda özetlenen zorluklarla ve bunlarla başa çıkmak için sayısız farklı yasayla karşı karşıya kalan bazı hükümetler, kapsayıcı bir düzenleyici çerçevenin daha fazla netlik ve hukuki kesinlik getireceğini savunmaktadır.[92]

Dahası, bu çerçevelerin sosyal medya şirketlerini içerik moderasyon faaliyetleri ve algoritmalarının nasıl çalıştığı konusunda daha şeffaf olmaya zorlamak için gerekli olduğu düşünülmektedir. İstatistikler dışında, hangi içeriğin hangi nedenlerle kaldırıldığı ve kullanıcıların neden belirli içerik türlerini görebildiği oldukça belirsizdir. Bu yeni çerçeveler kapsamında, şirketlerin haksız içerik kaldırımlarına yönelik telafi mekanizmaları oluşturmaları da gerekecektir. Bu yeni yükümlülükler, içerikle ilgili karar alma süreçlerine dahil olmayacak bir düzenleyici kurum tarafından denetlenecektir.[93]

Medya çeşitliliğinin eksikliği

Son olarak, düzenleyicilerin devreye girmesi için bir başka potansiyel neden de dijital ekosistemde medya çoğulculuğunun ve çeşitliliğinin korunmasıdır. Bazı yasa koyucular, sosyal medya platformlarının bu alandaki başarısızlığı olarak gördükleri durumu düzeltmek için halihazırda teklifler sunmuşlardır.[94] Bu durum, üç ana nedenden ötürü endişe yaratmaktadır:

  • Sosyal medya pazarında aşırı yoğunlaşma ve darboğazlar: Çok sınırlı sayıda büyük platform, kendi platformlarında haberlerin nasıl dağıtılacağına ve bu dağıtımın hangi kriterlere göre yapılacağına karar verebilmektedir. En büyük platformların bunu yapabilmesinin nedeni çok fazla sayıda kullanıcıyı bir araya getirmeleridir. Bu nedenle medya şirketlerinin, kullanıcıların dikkatini çekmek için büyük ölçüde platformların koşullarına göre onlarla etkileşime girmekten başka seçeneği bulunmamaktadır.[95]
  • Kişiselleştirilmiş içerik: Sosyal medya platformlarının modeli, kullanıcılarının bakış açılarının çeşitliliğinden ziyade yalnızca son derece kişiselleştirilmiş içeriğe maruz kaldıklarını düşündürmektedir.[96] Bu durum, filtre balonları[97] korkusuna ve bazı siyasi partilerin önyargı suçlamalarına yol açmıştır.[98]
  • Çevrimiçi reklamcılığın tahakkümü: Çevrimiçi reklamcılık sayesinde geleneksel medya, yalnızca izleyicilerini ‘ücretsiz’ çevrimiçi kaynaklara ve sosyal medyaya kaptırmakla kalmamış, aynı zamanda reklam gelirlerinde de kayıplar yaşamıştır. Medyanın sürdürülebilirliği sorunu aynı zamanda medya çoğulculuğu ve çeşitliliği için de bir tehdit teşkil etmektedir.

 

ARTICLE 19’in platform düzenlemesine yönelik argümanlara ilişkin pozisyonu

ARTICLE 19, platformların pratiklerinin daha fazla düzenlenmesine yönelik çabaların arkasındaki endişelerin tamamen yerinde olduğunu kabul etmekte ve hatta bu endişeleri paylaşmaktadır. Bununla birlikte, önerilen çözümlerin birçoğunun hedefi ıskalayacağına, en büyük oyuncuların ‘hakimiyetini’ güçlendireceğine ve hükümetlere platformlar ve içerik üzerinde daha fazla kontrol sağlayarak istismara yol açacağına inanıyoruz. Bunun yerine, ifade özgürlüğünü daha etkin bir şekilde koruyacağına inandığımız bazı çözümleri aşağıda özetliyoruz.

Gücün birkaç büyük platformun elinde toplanması sorunu, öncelikli olarak rekabet yanlısı araçlarla ele alınmalıdır

ARTICLE 19’in görüşüne göre, ‘platform düzenlemesi’ alanındaki son gelişmeler, büyük dijital platformların ortaya çıkardığı zorlukların karmaşıklığına ve çevrimiçi içerik düzenlemesinden rekabete, tüketicinin korunmasına ve verilerilerin korumasına kadar çeşitli disiplinlerin birbiriyle ilişkili olduğuna işaret etmektedir. Bu, aynı zamanda herhangi bir düzenleyici müdahalenin, hedefleri ve gidermek istediği ‘zararlar’ konusunda net olması gerektiğini de göstermektedir. ARTICLE 19, özellikle sosyal medya şirketlerinin büyüklüğü, gücü veya ‘hakimiyeti’ ile ilgili endişelerin, çevrimiçi içerik düzenlemesinden ziyade öncelikle rekabet araçları ve rekabet yanlısı ekonomik çerçeveler ile ele alınması gerektiğine inanmaktadır.

Bununla birlikte, bazı sosyal medya şirketlerinin çok baskın hale geldiğinin ve bu nedenle kademeli yaklaşımların benimsenmesinin uygun olabileceğinin de farkındayız. En büyük oyuncular genellikle yeni yasal yükümlülükleri (örneğin şeffaflık, yasal süreç ve hatta içerik kaldırma hedefleri) karşılayabilecekken, küçük oyuncular bunları karşılamaya çalışırken iflas edecektir. Başka bir deyişle, küçük şirketlerin ağır düzenleyici yükümlülükler altında ezilmemesi hayati önem taşımaktadır; aksi takdirde bu şirketler, büyük şirketlerle rekabet edemeyeceklerdir.

Bu hususun nasıl ele alınması gerektiğine ilişkin tavsiyelerimiz bu politika belgesinin ilerleyen bölümlerinde yer almaktadır.

Kademeli yaklaşımların, yeni düzenlemelerin getirdiği, hizmetlerini kullanıcılar için daha cazip hale getirebilecek gerekliliklerle (örn. güvenlik ve güvenilirlik) başa çıkabilecekleri için, yerleşik aktörlerin konumunu sağlamlaştırmak gibi istenmeyen etkilerden kaçınacak şekilde tasarlanması gerektiğine dikkat çekiyoruz.[99] Ayrıca, kademeli yaklaşımların, ‘kötü aktörleri’ daha az denetlenen platformlara[100] yönlendirmek gibi istenmeyen bir etkisi olabileceğini de dikkat çekiyoruz ki bu şekilde, ‘kötü aktörler’ kamuoyu nezdinde daha az, ancak kendi aralarında daha fazla görünürlükle çeperlerde faaliyet göstermeye devam edeceklerdir.

Daha katı düzenleyici yaklaşımların etkinliği henüz kanıtlanmamıştır

ARTICLE 19, platformların içerik moderasyonuna ilişkin yeni devlet düzenlemelerinin, çevrimiçi ortamda ‘nefret söylemi’ veya terörizm gibi sorunlu içeriklerle mücadele etmek için gerekli olup olmadığının net olmadığı kanaatindedir.

Endişemiz, yeni mevzuatın genellikle uluslararası insan hakları hukukuna uygun olmamasından kaynaklanmaktadır.[101] Çoğunlukla, önerilen tedbirlerin sorunlarla (‘ekstremizm’ veya ‘nefret söylemi’ gibi)[102] mücadele açısından ne kadar etkili olacağı, veya ifade özgürlüğüne hangi ikincil zararları[103] getireceği konusunda yeterli kant bulunmamaktadır. Kanun koyucular çoğu zaman, kaynakları, daha az görünür ancak daha etkili uzun vadeli çözümlere tahsis etmek yerine, sorunun ele alındığı ve ‘bir şeyler yapıldığı’ siyasi mesajını kamuoyuna veren yasaları kabul etmeye meyillidirler.

Tüm bu nedenlerden ötürü ARTICLE 19, öne sürülen yeni yasa türlerinin sorunlu içeriğe karşı çözüm sunabileceğine dair derin bir şüphe duymaktadır; bu yasaların ters etki yaratması, yanlış hedefe yönelmesi ve ifade özgürlüğüne zarar vermesi daha olasıdır.[104]

Bağımsız veya çok paydaşlı yönetişim modelleri oluşturulmalıdır

ARTICLE 19, sosyal medya şirketlerinin platformlarında ‘nefret söylemi’, ‘dezenformasyon’ ve çocukların korunmasına ilişkin endişeler gibi bir dizi meşru endişeye tepki vermekte genellikle yavaş davrandıklarını kabul etmektedir. Bu durum zamanla kamuoyunun bu şirketlere olan güvenini önemli ölçüde sarsmış ve şirketlerin kamuya karşı hesap verebilir olmadıklarına dair haklı kuşkulara yol açmıştır.

Bize göre, şirketlerin bu sorunların üstesinden gelmek için benimsedikleri tedbir ve girişimlerin etkisiz olduğunu söylemek için henüz çok erkendir. Daha kat etmeleri gereken uzun bir yol olmasına rağmen, sosyal medya şirketleri zaman içinde daha sofistike hale gelen bir dizi tedbir benimseyerek bu duruma karşılık vermişlerdir. Bunlar arasında politikalarını düzenli olarak güncellemek ve açıklığa kavuşturmak,[105] daha geniş bir dil yelpazesinde sorunlu içeriği tespit etmelerine yardımcı olmak için sistemlerinin iyileştirilmesine yatırım yapmak,[106] ulusal özgünlükleri daha iyi anlayabilmek için doğruluk kontrolü[107] veya güvenilir işaretçi programlarını daha geniş bir ülke yelpazesine yaymak[108], ve ‘sorunlu’ içerikle başa çıkmak için daha sofistike yanıtlar geliştirmek yer almaktadır. Ayrıca sürekli olarak yenilikler yapmakta, kullanıcılara hangi içeriklerle karşılaşacaklarına dair daha fazla kontrol sağlayan yeni özellikler geliştirmekte[109] ve topluluk standartlarına dayalı olarak içeriğin haksız yere kaldırılmasına karşı itiraz mekanizmalarını uygulamaya koymaktadırlar.[110] Bazı şirketler insan hakları değerlendirmeleri yapmaya başlamış[111] ve belirli krizlere veya beklenen mevzuat değişikliklerine cevaben platformlarındaki insan moderatörlerin sayısını artırmaya devam etmişlerdir.[112]

Dahası, platform düzenlemesine yönelik baskıların ardındaki sorunlu içerikler karmaşık ve tanımlanması zor olarak karşımıza çıkmaktadır. Örneğin, gerçek ve fikir arasındaki çizgiyi çizmek çoğu zaman zor olduğu için ‘dezenformasyon’ karmaşık bir sorundur. Bu nedenle, doğru olmayan bilgilerin paylaşılmasına yönelik yasaklar ve diğer yasal kısıtlamalar istismara açıktır ve siyasi tartışmalar üzerinde yıkıcı bir etkiye sahip olabilirler. ARTICLE 19, sosyal medya şirketlerinin bu alandaki politikalarının etkisinin büyük ölçüde bilinmediğine dikkat çekmektedir.[113] Genel olarak, mevcut girişimlerin ‘dezenformasyonun’ yayılmasına ilişkin endişeleri gidermede başarılı ya da başarısız olduğuna dair çok az kanıt olduğuna inanıyoruz. Dahası, kimi akademik çalışmalar dezenformasyonun demokrasiye ne ölçüde ‘zararlı’ olduğunun oldukça spekülatif olduğuna işaret etmektedir.[114] Tüm bu nedenlerden dolayı, bu alanda daha fazla düzenleme yapılmasına yönelik bir gerekliliğin kanıtlanmamış olduğuna inanıyoruz.[115] Öte yandan, sosyal medya platformlarının ‘dezenformasyonla’ nasıl mücadele ettiklerine dair iddialarının bağımsız kamu gözetimi veya denetimine tabi tutulmasının gerekebileceğini de kabul ediyoruz.[116]

Bununla birlikte, birçok sorunlu içerik türü, kolay çözümleri olmayan zor ve karmaşık konulardır. Örneğin, ‘nefret söyleminin’ yarattığı bir dizi sorun, bu tür içeriklerin internette bir virüs gibi yayılmaya elverişli olması nedeniyle şüphesiz daha da kötüleşmiştir. Hükümetlerin ve şirketlerin bu sorunlarla mücadele etmek için harekete geçmesi hem beklenen hem de gerekli bir durumdur. Asıl soru, sosyal medya şirketlerinin bugüne kadar benimsediği tedbirlerin yeterli olup olmadığı ve eğer bunlar yeterli değilse, çevrimiçi ‘nefret söylemi’ ile mücadele eden yeni bir mevzuatın mevcut soruna uygun bir çözüm sunup sunamayacağıdır. Kaldı ki, sosyal medya şirketlerinin ‘nefret söylemi’ ile mücadele etmek için attıkları adımlar da bir kenara atılmamalıdır.[117]

Dolayısıyla, öz düzenleme inisiyatiflerinin tamamen başarısız olduğu sonucuna varmak zordur. Bu, sosyal medya şirketlerinin rehavete kapılabilecekleri anlamına gelmemektedir: ‘nefret söylemi’ ile mücadele etmek için daha fazlasını yapmaya devam etmeli ve bu konuda daha şeffaf olmalıdırlar. Hükümetler, şirketler ve sivil toplum dahil olmak üzere bu tartışmadaki çeşitli paydaşların, eşitlik ve ifade özgürlüğü haklarının korunması arasında doğru dengeyi sağlamak için diyalog kurmaya devam etmeleri özellikle önemlidir.

Bu bağlamda ARTICLE 19, Sosyal Medya Konseyleri gibi yeni çok paydaşlı veya bağımsız öz düzenleme modellerinin çözümün bir parçası olabileceğine inanmaktadır.[118] Bu, özellikle söz konusu içeriğin yasadışı olmadığı durumlar için geçerlidir. Bağımsız öz düzenleme biçimleri aşağıdaki temel nedenlerden dolayı gerekli olmaya devam etmektedir:

Kapsayıcı bir düzenlemeye yönelik argümanlar sorunludur

ARTICLE 19, kapsayıcı bir çevrimiçi içerik düzenleme çerçevesi lehine öne sürülen diğer argümanların oldukça tartışmalı olduğunu düşünmektedir:

  • Yasal kesinlik ihtiyacı: Bu, daha bütüncül bir düzenlemeyi destekleyen güçlü bir argümandır. Örneğin AB’de durum böyledir.[119] Aynı zamanda ARTICLE 19, AB özelinde, AB’nin bugüne kadarki yaklaşımıyla, yani telif hakkı veya çevrimiçi terörizmle başa çıkmak için ayrı yasal araçların kabul edilmesi ve “nefret söylemi” ve çocuklara zararlı çevrimiçi içerikle başa çıkmak için Görsel-İşitsel Medya Hizmetleri Direktifi’nin revize edilmesi ile uzlaşmanın oldukça zor olduğunu belirtmektedir.[120] Birçok açıdan AB’nin son birkaç yılda kabul ettiği tedbirler henüz uygulanmamıştır. Bu nedenle etkili olup olmadıkları belirsizdir. Genel olarak, bir Dijital Hizmetler Yasası’nın eşzamanlı olarak kabul edilmesinin, daha fazla yasal netlik sağlamayabileceğini düşünüyoruz. Ayrıca, ister ulusal düzeyde ister Avrupa düzeyinde olsun, ‘dezenformasyon’, ‘nefret söylemi’, çocuk istismarı görüntüleri ve terörist içerikler gibi çok çeşitli endişelerle başa çıkmak için tek bir düzenleyicinin uygun olup olmayacağı da oldukça şüphelidir.
  • Geniş bir hizmet yelpazesinin düzenlenmesi: Aşağıda daha ayrıntılı olarak açıkladığımız üzere, bu alanda bir reformun, özel hayatın gizliliği ve ifade özgürlüğüne oluşturacağı tehditler nedeniyle kapsam dışında tutulması gereken özel mesajlaşma uygulamaları veya basın gibi hizmet ve aktörleri de düzenleyeceğinden endişe duymaktayız.
  • Tek-durak şeklinde bir düzenleyici kurumun oluşturulması: Son olarak, bir düzenleyici kurumun şeffaflık ve yasal süreç yükümlülüklerinin uygulanmasına katkıda bulunabileceğini kabul etmekle birlikte, bu usullerle ilgili meselelerin zararlı veya yasadışı içeriği tespit etmek için filtrelerin benimsenmesi gibi içerikle ilgili meselelerle karıştırılmasından endişe duyuyoruz. Özellikle düzenleyici kurumun bağımsız olmadığı ülkelerde, düzenleyici kurumlar, hükümetlerin bilgi akışları üzerinde hakimiyet kurmaları için güçlü bir araç olmaya devam etmektedir. Düzenleyicilere sosyal medya hizmetlerinin sağlanması konusunda yetki verilmesi, nihayetinde kullanıcıların ifade özgürlüğü üzerinde caydırıcı bir etki yaratabilir.

Bu nedenle ARTICLE 19, özellikle “zararlı ama yasal” kategorisine giren içerikler için, çevrimiçi içeriği denetleyen bir düzenleyici kurumun oluşturulması ve sorumluluktan muafiyetin kaldırılması konusunda ikna olmuş değildir. Bağımsız çok paydaşlı organlar (Sosyal Medya Konseyleri) gibi diğer mekanizmaların, sosyal medya şirketlerinin insan hakları standartlarından türetilen bir dizi ilkeye uygunluğunu denetlemek için daha uygun olabileceğine inanıyoruz.

Medyada çeşitlilik eksikliğinin ele alınması gerekmektedir

Bir ifade özgürlüğü kuruluşu olarak ARTICLE 19, medya çoğulculuğu ve çeşitliliği konusundaki endişeleri ciddiye almaktadır. Filtre balonlarına ilişkin endişeler abartılmış olsa da,[121] içerik kürasyonu için kullanılan algoritmaların çeşitlilik karşısında tarafsız olmadığı ve bunlarda yapılan değişikliklerin haber tüketimi üzerinde bir etkiye sahip olma olasılığının yüksek olduğu açıktır. Çevrimiçi kullanıcı topluluğunun daha kutuplaşmış olduğunu ve bunun da daha tarafgir içerik üretimini teşvik edebileceğini gösteren bazı kanıtlar da mevcuttur.[122] Son tahlilde, büyüklükleri, pazar payları ve kullanıcı tabanları nedeniyle belirli platformların veya arama hizmetlerinin haberlerin dağıtım koşulları -ve nihayetinde gazeteciliğin hayatta kalması- üzerinde çok fazla güce sahip olduğu yönündeki endişe devam etmektedir. ARTICLE 19, bu endişelerden bazılarının, Sosyal Medya Konseyleri (platformlar ve haber kuruluşları arasında diyaloğu teşvik edecek) ve barındırma ve içerik kürasyonu hizmetlerinin ayrıştırılması (içerik küratörlüğüne daha fazla rekabet ve dolayısıyla çeşitlilik ve kullanıcı seçimi getirecek şekilde) dahil olmak üzere bir dizi önlemle giderilebileceğine inanmaktadır. Bu önerilerin neye benzeyebileceğini aşağıda daha ayrıntılı şekilde özetliyoruz.

Platformların iş modelleri veri koruma mevzuatına uyum sağlayacak şekilde reforme edilmelidir

ARTICLE 19, büyük sosyal medya platformlarının ve diğer şirketlerin iş modellerinin özel hayatın gizliliğine önemli ölçüde müdahale ettiğini ve ifade özgürlüğü üzerinde caydırıcı bir etkiye sahip olabileceğini düşünmektedir. Sosyal medya şirketlerinin, kullanıcılar hakkında topladıkları kişisel verileri kısıtlamak için en azından veri koruma mevzuatına uymaları gerektiği açıktır. ARTICLE 19 ayrıca, son gelişmeler ışığında (özellikle seçimlerle ilgili olarak), mevcut siyasi reklam uygulamalarının ifade özgürlüğü üzerindeki etkileri açısından gözden geçirilmesi gerektiğini ve bu alanda bazı düzenlemelere ihtiyaç duyulabileceğini belirtmektedir. ARTICLE 19, bu konuyu ayrı bir politika belgesinde ele almaktadır.[123]

İçerik-moderasyon düzenlemesinin temel kavramları ve özellikleri

Batılı ülkelerde, sorumluluktan şartlı muafiyetin teknik yenilik ve internet özgürlüğü için bir ön koşul olduğu yönündeki geniş mutabakat, son yıllarda giderek daha fazla sorgulanır hale gelmiştir. Sosyal medya platformlarındaki içeriğin genel olarak izlenmesine ilişkin yasak da aynı şekilde sorgulanmaya başlamıştır. Çok sayıda devlet, daha önce de belirtildiği üzere, internet ortamında ifade özgürlüğünün korunmasının bu önemli temellerini aşındıran bir dizi tedbiri kademeli olarak kabul etmiş veya teklif etmiştir.[124] Bu bölümde, bu alandaki yasa tekliflerinde öne sürülen bazı temel kavramları inceleyeceğiz.

ARTICLE 19, öncelikle, çevrimiçi içeriğin düzenlenmesi ile ilgili tartışmalarda tekrarlanan bir dizi yanlışa dikkat çekmektedir:

  • Sorumluluk/düzenleme: Sorumluluk kuralları, bireylerin mevcut hukuki sebeplere dayanarak kendilerine zarar veren gerçek veya tüzel kişilere dava açabilmelerine olanak tanımaktadır. Dijital sektörde sorumluluktan muafiyet, dijital şirketlerin hukuka aykırılığın varlığını öğrendikten sonra bu konuda harekete geçtikleri sürece davalardan korundukları anlamına gelmektedir. Her dakika yayınlanan milyonlarca içerik ve bu içeriklerin yasadışı olma potansiyeli göz önüne alındığında, sorumluluktan muafiyet, şirketler ve daha genel anlamda ifade özgürlüğü için çok önemli bir güvencedir. Bu güvencenin ortadan kalkması halinde, içeriğin kendi hizmetlerinde yayınlanmasına izin vermenin yaratacağı yasal risk göz önünde bulundurulduğunda, bu şirketler muhtemelen tümüyle ortadan kalkacaktır. Bu, aynı zamanda ifade özgürlüğüne de zarar verecektir. Buna karşın ‘düzenleme’ terimi, şirketlerin uyması gereken, kanunla belirlenmiş bir dizi yükümlülüğe işaret etmektedir. Bu yükümlülüklere uymamaları halinde para cezası gibi yaptırımlarla karşılaşabileceklerdir. Sorumluluktan muafiyetin, düzenlemeler ile bir arada var olması mümkündür.
  • İçerik düzenlemesi/ platform düzenlemesi: Dijital şirketlerin düzenlenmesi konusundaki tartışma, “içerik düzenlemesi” ve “platform düzenlemesi” kavramlarını içermektedir. İçeriğin, hakaret yasası veya şiddete teşvikin suç sayılması gibi doğrudan bireylere uygulanan yasalarla düzenlendiğini hatırlamak önemlidir. Şirketlerin durumu farklıdır, çünkü üçüncü tarafların (yani kullanıcıların) önceden inceleme yapmadan içerik yayınlamasına izin verirler (ancak filtreleme teknolojisinin kullanılmasıyla bu durum giderek değişmektedir). Mevcut yasa teklifleri platformları düzenliyor gibi sunulsa da, kullanıcıların söylemlerini düzenleme sorumluluğunu büyük ölçüde, genellikle yasanın gerekliliklerinin de ötesinde, platformlara devretmektedir (aşağıda bu konuda daha fazla bilgi bulunmaktadır). Dahası, uygulamada düzenlemelerin bizzat şirketlerden ziyade şirketlerin faaliyetlerini, davranışlarını ve hizmetlerini hedeflediğini akılda tutmak önemlidir.
  • Yayıncılar sorumluluğu/ aracı sorumluluğu: Dijital şirketler, giderek daha fazla “medya şirketleri” olarak tanımlanmaktadırlar. Günümüzde, yayıncılar için geçerli olan mesuliyetin Facebook, Twitter ve YouTube gibi başat sosyal medya platformları için de geçerli olması gerektiğini savunan düşünceler mevcuttur. Her ne kadar bazı sosyal medya platformlarının giderek geleneksel medya şirketleri gibi davrandığı söylenebilecek olsa da, platformlar ve medya şirketleri arasında bazı temel farklılıklar bulunmaktadır. Platformlar, platformlarında içerik yayınlayan milyonlarca kullanıcıya sahiptirler ve kullanıcılar içeriğin birincil yayıncılarıdır. Sosyal medya platformları, içeriği seçer ve düzenlerler. Bu nedenle, “içerik kürasyonu” olarak adlandırılan bir tür editoryal sorumluluk ifa ederler. Ancak, içeriği kendilerine ait olduğu söylenebilecek kadar değiştirmedikleri sürece içeriğin kendisinden sorumlu değildirler. Burada kilit soru, algoritma ve filtre kullanımının teknoloji şirketlerinin platformlarındaki yasadışı içerikler hakkında fiili bilgi sahibi olmaları ve dolayısıyla bu içerikler için sorumluluktan muafiyelerini kaybetmeleri için yeterli olup olmadığıdır. Bu soruya bir sonraki bölümde yanıt vereceğiz.

İçerik moderasyonu düzenlemesine ilişkin yasa tekliflerinin olumlu özellikleri

ARTICLE 19, bu alandaki bazı düzenleme önerilerinin ifade özgürlüğü hakkının korunması açısından bazı olumlu yönler içerdiğini belirtmektedir:

  • Sosyal medya platformları ve diğer şirketlerin, kullanıcıların içeriklerinin kaldırılması veya kullanıcılarından gelen şikayetlerin ele alınması konusunda şeffaflık da dahil olmak üzere, içerik moderasyonunu nasıl ele aldıklarına ilişkin şeffaflıklarının artırılması,[125] bunlardan biridir.
  • Düzenleme önerilerinin içerdiği olumlu yönlerden bir diğeri, içeriği kaldırılan kullanıcılara içeriğin kaldırıldığının bildirilmesi ve kullanıcıların şirketlerin kararlarına mahkemeler nezdinde itiraz edebilmesi gibi telafi mekanizmalarının ve çeşitli diğer prosedürel güvencelerin uygulamaya konulmasıdır.[126]
  • Sorumluluktan muafiyet: Tekliflerin çoğu[127] sorumluluktan muafiyeti açıkça reddetmemektedir. Ancak, yasadışı veya zararlı içeriği tespit etmeye yönelik ‘proaktif tedbirleri’ zorunlu kılarak bunu riske atmaktadırlar. Burada şu soru ortaya çıkmaktadır: Şirketlerin, filtreler ve diğer önlemleri uygulamaya koyduklarında da dahil olmak üzere, bir ‘iyi niyet maddesi’[128] aracılığıyla sorumluluktan muafiyetleri garanti edilirse, ifade özgürlüğünü korumak için yeterince teşvikleri olur mu? Aşağıda daha ayrıntılı olarak açıkladığımız nedenlerden dolayı, bu sorunun cevabının ‘evet’ olduğuna inanıyoruz.
  • Sistemik yaklaşımlar: Bireyler ‘yasadışı’ içerikleri kaldırmadıkları için şirketlere dava açma imkanını korurken, mevcut düzenleme önerileri içeriğin kaldırılmasındaki tekil başarısızlıklara yaptırım uygulanmasını önermemekte ve bunun yerine içerik denetimine daha ‘makro’ bir yaklaşım benimseyerek şirketlerin sistem ve süreçlerine odaklanmaktadır.[129]
  • Kademeli yaklaşımlar: Bu tür bir düzenlemenin gerekli olduğu düşünüldüğü ölçüde – ki biz böyle düşünmüyoruz – birçok teklifin olumlu özelliği, en azından kullanıcı sayısına atıfta bulunarak, söz konusu şirketin büyüklüğüne bağlı olarak kademeli yaklaşımlar öngörme eğiliminde olmalarıdır.[130]

 

İçerik moderasyonuna ilişkin düzenleyici önerilerin eksiklikleri

Bazı olumlu özelliklerine rağmen, içerik moderasyonu düzenlemesine ilişkin mevcut önerilerin çoğu, ifade özgürlüğünün korunmasına ilişkin uluslararası standartlar bakımından önemli sorunlar yaratmaktadır. Daha önce de vurgulandığı üzere, ifade özgürlüğü hakkına yönelik bir müdahalenin uluslararası hukuk kapsamında meşru görülebilmesi için, bu müdahalenin kanunla öngörülmüş olması; insan hakları anlaşmalarında sınırlı sayılan meşru amaçlardan birini gütmesi; ve bu amacın gerçekleştirilebilmesi için gerekli, ve amaçla orantılı olması gerekmektedir. Mevcut tekliflerin büyük çoğunluğu, kanunilik ve orantılılık şartlarını karşılamamaktadır.

‘Yasal ancak zararlı’ içerik odağı

Düzenleme tekliflerinin çoğu, yalnızca yasadışı içeriği değil, aynı zamanda yasadışı olmayıp yalnızca zararlı olan içeriği de kapsamaktadır.[131] Bu, şirketlerin yasadışı olmayan içeriğe karşı önlem almaları gerekebileceği anlamına geldiğinden, son derece endişe vericidir. Bireyler, sokakta söylemelerine izin verilen şeyleri sosyal medyada söyleyemeyecektir. Dahası, “zararlı” içeriğin büyük çoğunluğunun tanımlanması doğası gereği zordur ve bu nedenle böyle bir düzenlemenin, -bazıları için rahatsız edici olsa da- yayında kalması gereken içeriğin sansürlenmesine yol açması muhtemeldir. Örneğin, bir kişiyi küçük düşürme “ihtimali”[132] olan materyaller veya “tanımı muğlak olan” “ekstremist”[133] materyaller için bu durum söz konusudur. Bazı teklifler, (yasadışı materyallere yöneldikleri için) daha fazla hukuki belirlilik sağlasa da atıfta bulundukları kanunlar ifade özgürlüğü açısından endişe uyandırmaktadır.[134]

Dahil edilen şirket yelpazesinin aşırı geniş kapsamı

Bir başka önemli endişe kaynağı ise, özel mesajlaşma veya haber siteleri gibi geniş bir yelpazedeki hizmetlerin, aslında kapsam dışında kalmaları gerekirken mevcut tekliflerin[135] kapsamına girme olasılığıdır. Bu alandaki düzenlemelerin, kapsam dahilindeki şirketlerin içeriği filtrelemesini gerektirebileceği ve bunun da uçtan uca şifrelemeyi ve dolayısıyla kullanıcıların iletişimlerinin gizliliğini önemli ölçüde zayıflatacağı konusunda ARTICLE 19 özellikle endişe duymaktadır. Haber siteleri açısından endişemiz, özellikle siyasetçileri eleştiren haberleri susturmak için kullanılabilecek bir düzenlemeye tabi tutulabilecek olmalarıdır. Ayrıca, mevcut tekliflerde, farklı hizmet sağlayıcıların düzenlemelerden farklı şekillerde etkilenebileceği düşünülmemiş gibi görünmektedir; örneğin, bir altyapı sağlayıcısı (örneğin Cloudflare) bir sosyal medya platformu (örneğin Facebook) ile aynı yükümlülüklere tabi tutulmamalıdır.

Her ne kadar bazı teklifler, kapsam dahilindeki şirketlere getirilen yükümlülükler konusunda kullanıcı sayısına veya ciroya göre kademeli bir yaklaşım benimseme eğiliminde olsa da, durum her zaman böyle değildir.[136] Ayrıca, kullanılan kriterlerde çok az tutarlılık vardır; kar amacı gütmeyen kuruluşlar (örneğin Wikipedia) için her zaman istisnalar sağlanmamakta ve büyük bir kullanıcı tabanına sahip ancak cirosu düşük olan daha küçük sağlayıcılar yine de ağır yükümlülüklere tabi tutulabilmektedir.[137]

Muğlak ve sorunlu yükümlülükler

Önerilen bazı yükümlülükler olumlu olsa da (örneğin şeffaflık ve prosedürel güvenceler konusundaki yükümlülükler), diğerleri ya çok muğlaktır ya da ifade özgürlüğü ve özel hayatın gizliliği haklarıyla ters düşmektedir:

  • Özen yükümlülüğü: Bazı teklifler, içerdiği yükümlülük türlerini[138] veya aracı sorumluluğu ile ilişkisini açıkça tanımlamadan genel bir “özen yükümlülüğü”ne atıfta bulunmaktadır. ‘Özen yükümlülüğü’ yaklaşımı genel olarak kullanıcılara yönelik bir ‘zarar’ riskinin değerlendirilmesine dayanmaktadır. ‘Özen yükümlülüğü’, şirketlerin sistemlerinden[139] kaynaklanan ‘zarar’ risklerinin değerlendirilmesini gerektirse bile ‘zarar’ terimini tanımlamak zordur ve ‘kabul edilemez’ riskleri neyin oluşturduğunu tanımlamak düzenleyicinin takdirine kalacaktır.[140] Netleştirilmemiş bir ‘özen yükümlülüğü’, aşırı kısa zaman dilimleri içinde içerik kaldırma, proaktif önlemler veya şifrelemeyi kaldırma gibi aşağıda ayrıntılı olarak açıklanan durumlara yol açabilecektir.[141]ARTICLE 19, zorunlu ‘özen yükümlülüğü’ savunucularının, önerilerinin Kılavuz İlkeler tarafından teşvik edilen insan hakları etki değerlendirmeleri ile uyumlu olduğunu öne sürdüklerini gözlemlemektedir.[142] Bu çözümlemede, olası insan hakları etkileriyle ilgili risk değerlendirmelerinin, potansiyel ‘zarar’ riski değerlendirmeleri ile aynı olduğu öne sürülmektedir. ARTICLE 19, bu yaklaşımın esasen hatalı olduğu kanaatindedir. İnsan hakları, ulusal yasalarda, anayasalarda ve uluslararası belgelerde yer alan hukuki kavramlardır. Tipik olarak geniş terimlerle ifade edilseler de, mahkemeler ve yargı organları tarafından verilen çok sayıda kararla daha ayrıntılı olarak tanımlanırlar. Sonuç olarak, çok geniş gibi görünmelerine rağmen, aslında dikkatli bir şekilde tanımlanmışlardır. Buna karşın ‘zarar’ kavramının genel bir yasal tanımı yoktur. Hukuki terminolojide ‘zarar’, fiili bedensel zarara sebebiyet verme suçunda olduğu gibi dikkatlice tanımlanmış ve bağlama özgü olma eğilimindedir. Kılavuz İlkeler “zararı” önlemek için değil, insan hakları ihlallerini önlemek için tasarlanmıştır. Dahası, ‘zararı önleme yükümlülüğü’ aksine, Kılavuz İlkeler şirketlerin başkaları tarafından gerçekleştirilen insan hakları ihlallerini önlemesini gerekli kılmaz.[143] Bu ilkeler en fazla, şirketlerin bizzat insan hakları ihlallerine karışmalarını önlemeyi veya bu ihtimali en aza indirmeyi amaçlayan prosedürleri benimsemelerini gerektirir.
  • Belirli içerikleri kaldırma yükümlülüğü: Tekliflerin büyük çoğunluğu, yasadışı veya zararlı içeriğin kaldırılması için özel şirketlere etkin bir şekilde sansür yetkisi vermektedir. Bunu yapmadıkları takdirde, düzenleyici kurum bu hizmetlerin engellenmesini emredebilir.[144] Bazı tekliflerin gözetim organının şirketlerin içerik kaldırmada aşırıya kaçmasını önleyeceği[145] tedbirler içermesine rağmen, tekliflerde genellikle haksız bir şekilde kaldırılan içerik konusunda bir şeffaflık yükümlülüğü bulunmamaktadır. Bir şikayet yapılmadığı sürece, haksız yere kaldırılan içeriklerin sayısı hiçbir zaman bilinemeyebilir. Dahası, bu sayı kısmen hem iç şikayet mekanizmalarının hem de diğer adli yöntemlerinin etkinliğine bağlıdır. Tekliflerin çoğu bu mekanizmaların nasıl finanse edileceği konusunda sessizdir.
  • Kısa zaman dilimlerinde içerik kaldırma zorunluluğu: Tekliflerin çoğu, ‘nefret söylemi’ niteliğindeki veya ‘açıkça hukuka aykırı’ içeriğin 24 saat içinde, terörist içeriğin ise bir saat içinde kaldırılmasını zorunlu kılma eğilimindedir.[146] Bu zaman dilimleri, ortaya atılan iddiaların yasal olarak değerlendirilmesi bir yana, değlendirilmesi için dahi çok kısadır.
  • Proaktif önlemler alma yükümlülüğü: Bazı teklifler, şirketlerin yasadışı veya zararlı içeriğe karşı ‘proaktif’ önlemler alması veya ‘en iyi çabayı’ göstermesi gerekliliğini içermektedir. Bu yükümlülük bazen düzenleyici kurumun ‘tavsiyesi’ olarak sunulsa da bu tavsiyelere uyulmasının beklendiği yasada açıkça belirtilmektedir.[147] ‘Proaktif tedbirler’ ve ilgili terimler, uygulamada, ‘sorunlu’ içeriğin platforma yüklendiği sırada tespit edilmesi veya yüklenmesinin önlenmesi için filtrelerin ve diğer teknolojilerin kullanılması anlamına gelmektedir. Filtreler elbette içeriğin yasallığını değerlendiremez, ve ‘terörist’ veya ‘nefret söylemi niteliğindeki’ içeriğin tespiti gibi bağlam analizi gerektiren durumlarda hata yapmaya meyillidir. Bunun bir sonucu olarak meşru içerikler haksız bir şekilde kaldırılabilecektir.

Düzenleyici

Sosyal medya platformlarını düzenlemeye yönelik tekliflerin çoğu, bu platformları bir ‘yayıncılık’ düzenleyicisinin yetki alanına sokarak, bu düzenleyicinin görev alanını ve yetkilerini önemli ölçüde genişletecektir. ARTICLE 19 için bu durum çeşitli endişeleri beraberinde getirmektedir:

  • Gereklilik ve meşruiyet: En başta, bu tekliflerle ilgili temel kaygının, kullanıcıların ifadelerini neyin ‘zararlı’ içerik olduğu konusunda geniş takdir yetkisine sahip bir kamu otoritesinin kontrolü altına sokacak olmaları olduğunu belirtmeliyiz. Böyle bir adımın gerekli olup olmadığı ve internet kullanıcılarının ifade özgürlüğü üzerindeki muhtemel etkisi belirsizliğini korumaktadır. Her halükarda, özel bir şirket ya da düzenleyici kurumun içeriğin yasallığını belirlemesi büyük ölçüde uygunsuzdur; bu, mahkemelerin meselesidir.
  • Bağımsızlık: ARTICLE 19 gibi küresel bir kuruluş için bir diğer önemli endişe de düzenleyici kurumun gerek hukuken gerekse uygulamada bağımsız olmayabileceği endişesidir. Bu, yerleşik demokrasilerde[148] bile teorik bir endişe değildir, hukukun üstünlüğünün zayıf veya tehdit altında olduğu dünyanın birçok ülkesinde geçerlidir.
  • Tek-durak düzenleyici kurum: Son olarak, mevcut tekliflerin, çok çeşitli içerik türlerini bu sorunlarla başa çıkmak için yeterli donanıma sahip olmayabilecek bir düzenleyicinin yetki alanına bırakacağından endişe ediyoruz. Örneğin, çocuk istismarı materyallerinin kaldırılması, bu konuya odaklanmış bir kurumun en iyi şekilde hizmet verebileceği özel prosedürler ve değerlendirmeler gerektiren, uzmanlık isteyen bir alandır. Tüm yasadışı ya da “zararlı” içerikler için “tek durak hizmet noktası” olacak bir düzenleyicinin etkili olamayacağı görüşündeyiz.

Orantısız yaptırımlar

ARTICLE 19, Fransa ve Birleşik Krallık gibi çeşitli ülkelerde halihazırda yasalaştırılması düşünülen, şirketlerin küresel cirolarının yüzde dördüne varan oranlarda yaptırımların aşırılığına dikkat çekmektedir. Muğlak yükümlülüklerle birleşince, bu yaptırımların yasalaşmasının şirketleri çevrimiçi ifade özgürlüğüne zarar verecek şekilde daha fazla içeriği kaldırmaya teşvik edeceğinden endişe ediyoruz. Ayrıca, yaptırımların uygulanmasının muhtemel hale geldiği eşik genellikle belirsiz,[149] tedbirler ise orantısızdır.

Diğer endişeler

ARTICLE 19, platform düzenleme yasalarının veya yasa taslaklarının giderek artan bir şekilde şirketlerin ‘ülke içinde’ irtibat noktaları veya temsilciler atamasına yönelik gereklilikler içermesinden endişe duymaktadır. Bu durum uygulamada yetkililerin, yasal dayanağı çok az veya hiç olmasa ve açıkça hükümetleri eleştirenleri susturmayı amaçlasa bile, taleplerine uymaları için şirketler üzerinde önemli bir baskı oluşturmalarını sağlamaktadır.[150]

Ayrıca, küresel çapta faaliyet gösteren şirketlerin dünya genelinde farklı -ve potansiyel olarak birbiriyle çelişen- rejimlere ne ölçüde uyum sağlayabileceklerini de sorgulamaktayız. Bize göre bu durum, internetin daha da parçalanmasına, ve tartışmalı içeriklerin şirketlerin hizmet koşulları kapsamında giderek daha fazla kaldırılmasıyla birlikte aşağı yönde bir rekabete yol açabilir.

Son olarak, bu alandaki yasaların sıklıkla, küçük ve yerel dijital platformlar da dahil olmak üzere tüm sektörlerin dahil edildiği uygun bir katılımcı süreç olmaksızın kabul edildiğini görüyoruz.

 

ARTICLE 19’in önerileri

Öneri 1

Devletler, çevrimiçi içerik moderasyonuna ilişkin gereksiz düzenlemelerden kaçınmalıdır

ARTICLE 19 olarak Batı Avrupa ve Latin Amerika’da ortaya çıktığını gördüğümüz düzenleme modellerini desteklemediğimizi açıkça ifade ediyoruz. Teklif edilen kuralların çoğunlukla aşırı muğlak olması ve bağımsız bir düzenleyicinin iyi niyetine bel bağlaması endişe vericidir. Dünyanın pek çok yerinde koşullar farklıdır. Düzenleme tekliflerinin nerede ve hangi bağlam içinde yapıldığı önemlidir.[151] Ayrıca, ifade özgürlüğünün sınırlandırılmasına yönelik üç aşamalı test kapsamında, devletler, teklif ettikleri düzenlemelerin gerekli olduğu yönünde yeterli kanıtı kapsamlı bir şekilde ortaya koymalıdır. Büyük platformları düzenleme dürtüsü anlaşılabilir olsa da, bu platformlar düzemelerin getirdiği gerekliliklere uyum sağlayabilecek ve bunları karşılayabilecekken bu durumun küçük veya orta ölçekli platformlar için geçerli olması pek olası değildir. Daha fazla çevrimiçi düzenleme büyük olasılıkla çok büyük şirketlerin işine yarayacak ve bu şirketlerin hakim konumlarını pekiştirecektir.

Kanun koyucuları bu nedenle gereksiz düzenlemelerin cazibesine kapılmamaya davet ediyoruz. Eğer toplumların endişeleri az sayıda platformun gücü ve hakimiyetinden ileri geliyorsa, bize göre kanun koyucular, bu endişeleri rekabet hukuku ve rekabet yanlısı ekonomik düzenlemeler kapsamında mevcut olan çözümleri kullanarak gidermelidir. Tam da bu nedenle, aracı sorumluluğu ve sosyal medya platformlarının içerik düzenleme kurallarına ilişkin görüş ve önerilerimizin halen geçerliliğini koruduğuna inanıyoruz.[152]

Ayrıca ARTICLE 19, sosyal medya şirketlerinin Sosyal Medya Konseyleri gibi bağımsız ve çok paydaşlı bir kurum tarafından denetlenmesini savunmaktadır. Bir kurumun tabandan yukarıya doğru oluşturulmasının, aşırı sert yaptırımların önüne geçerek ifade özgürlüğü açısından daha iyi sonuçlar doğuracağına inanmaya devam ediyoruz. Ayrıca, paydaşları kuruluşun başarısını sahipleneceği için bu yaklaşım daha etkili bir hesap verebilirliği de teşvik edecektir. Sosyal Medya Konseyleri ve büyük platformların rekabet hukuku yoluyla düzenlenmesi birbirini tamamlayarak bütüncül bir çözüm sağlayacaktır.

 

Öneri 2

Düzenlemelerin temel ilkeleri şeffaflık, hesap verebilirlik ve insan haklarının korunması olmalıdır

Yukarıda belirtilenlerden bağımsız olarak ARTICLE 19, dijital sektörün ve özellikle de sosyal medya şirketlerinin daha fazla düzenlemeye tabi tutulmasının kaçınılmaz olduğunu kabul etmektedir.[153] Herhangi bir yeni düzenlemenin hedefi yalnızca “yasadışılıkla mücadele” olmamalıdır. ‘Zararın önlenmesi’ ise ifade özgürlüğüne getirilen böyle bir kısıtlamanın meşru amacı olmak bir yana, anlamlı bile olamayacak kadar geniş bir kavramdır.

Biz daha ziyade, düzenlemelerin kapsayıcı ilkelerinin şeffaflık, hesap verebilirlik ve insan haklarının korunması olması gerektiğine inanıyoruz. İnsan haklarının korunması ilkesi, yasallık ve orantılılık ilkelerinin her aşamada gözetilmesi gerektiği anlamına gelmektedir. Ayrıca, bu tür bir düzenlemede benimsenecek çözümlerin en uygun çözümler olduğu sağlam kanıtlara dayanmalıdır.

 

Öneri 3

Üçüncü taraf içeriği için sorumluluktan şartlı muafiyet korunmalıdır – ancak kapsamı, bildirim ve eylem prosedürleri açıklığa kavuşturulmalıdır

ARTICLE 19, sorumluluktan muafiyetin kaldırılmasının -ya da gereğinden fazla sınırlandırılmasının- dijital şirketlere ya kullanıcıların içeriklerini mümkün olduğunca filtreleme ve kaldırmaları ya da tamamen tarafsız olma ve hiçbir içeriği kaldırmamaları yönünde bir teşvik sağlayacağını düşünmektedir. Diğer bir deyişle bu, ya sansürün artmasına yol açacak ya da şirketleri içerik denetimi yapmaya teşvik edecek bir durumun kalmaması sonucunu doğuracaktır. Bizce her iki sonuç da çevrimiçi ifade özgürlüğü açısından istenmeyen sonuçlardır.

Bu nedenle, dijital ve sosyal medya şirketlerinin geniş veya en azından şartlı bir sorumluluk muafiyetinden yararlanmaya devam etmeleri gerektiğine inanıyoruz. Bu bağlamda, tanım gereği, sorumluluğun ‘zararlı’ içerikten ziyade yalnızca yasadışı içeriğe bağlanabileceğini düşünüyoruz. Bu ise uygulamada, şirketlerin ‘zararlı’ içeriğe yönelik tanımlanmamış ‘makul adımları’ atmamalarından dolayı sorumlu tutulmamaları gerektiği anlamına gelmektedir.

Sorumluluk, farklı faaliyet ve hizmet türleri için aşağıdaki şekilde farklılık göstermelidir:

“Sadece kanal” ve tarafsız “barındırma” da dahil olmak üzere, temel altyapı hizmetlerini sağlayanlar için sorumluluktan geniş muafiyet korunmalıdır

ARTICLE 19, içerik dağıtım ağları gibi internetin işleyişi için temel altyapı hizmetleri sağlayan şirketlerin, uygulama katmanında içerik moderasyonu yapan hizmetlere göre daha geniş bir sorumluluk muafiyetinden yararlanması gerektiğine inanmaktadır. Bu şirketlerin içeriği yalnızca mahkeme kararıyla kaldırmaları zorunlu kılınmalıdır. Bu, uygulamada, altyapı sağlayıcılarının, yasadışı olduğu için belirli web sitelerine verdikleri hizmetleri durdurmalarını gerektiren geçerli bir mahkeme kararına uymadıkları sürece, belirli web sitelerini barındırdıkları için cezalandırılmamaları gerektiği anlamına gelmektedir.[154] Aynı şekilde, istemedikleri takdirde bir web sitesine ev sahipliği yapmaları da zorunlu kılınmamalıdır. Başka bir deyişle, temel altyapı sağlayıcılarına içerik taşıma zorunluluğu getirilmemelidir.

Bununla birlikte, temel hizmet sağlayan kuruluşlar, belirli aktörlere hizmet sağlamayı durdurmaya hangi koşullarda karar verebileceklerini açık bir şekilde belirtmek durumundadır.

İçerik moderasyonu ile birlikte barındırma hizmetleri sağlayanlar için bildirim ve eylem prosedürleri

ARTICLE 19 ayrıca, sorumluluktan muafiyetten yararlanmak için gerekli olan mevcut bilgi standardının korunması gerektiğine inanmaktadır, yani şirketlerin içeriğin yasadışı olduğu konusunda’varsayılan’ bilgiye değil ‘gerçek’ bilgiye sahip olması aranmalıdır. ARTICLE 19, yasadışılığa ilişkin gerçek bilginin ancak bir mahkeme kararıyla elde edilebileceğine inanmaktadır. Aksini savunmak, sadece telif hakkı sahibi gibi üçüncü bir taraf öyle dediği için içeriğin yasadışı olduğunu kabul etmek anlamına gelecektir.

Aynı zamanda, bir düzenleme ile, yasallığın belirlenmesine halel getirmeksizin, farklı içerik türleri için geçerli olan farklı bildirim ve eylem prosedürlerini netleştirebileceğini kabul ediyoruz. Başka bir deyişle, yasa, şirketlerin iddia edilen yasadışılıkla ilgili “gerçek bilgiyi” nasıl elde ettiklerini ve elde ettikten sonra bu konuda ne yapmaları gerektiğini açıklığa kavuşturmalıdır.

ARTICLE 19, bunun pratikte nasıl işleyebileceğini daha önce ortaya koymuştur.[155] Önerdiğimiz süreçlerin geçerliliğini koruduğuna ve ifade özgürlüğü hakkını korumak için en iyi yolu sağladığına inanıyoruz. Özet olarak:

Telif hakkı veya hakaret gibi özel ihtilaflar için ‘ihbar bildirimi’

Bu prosedür kapsamında, şikayetçinin veya “güvenilir işaretçinin” adını vermesi ve haklarının ihlal edildiği konusundaki iddialarını, iddialarının yasal dayanağını, haklarını ihlal ettiğini iddia ettikleri materyalin yerini ve iddia edilen ihlalin zamanını ve tarihini bir bildirimde belirtmesi gerekecektir. Yer sağlayıcının bildirimi mümkün olan en kısa sürede, ancak azami bir süre içinde (örneğin 72 saat) ihlalde bulunduğu iddia edilen kişiye (yani içerik sağlayıcıya) iletmesi gerekecektir. İçerik sağlayıcı, makul bir süre içinde (örneğin 14 gün) içeriği kaldırma veya karşı bildirimde bulunma seçeneğine sahip olacaktır.

Aynı şekilde, yer sağlayıcının karşı bildirimi mümkün olan en kısa sürede, ancak azami bir süre içinde (örneğin 72 saat) iletmesi gerekecektir. Daha sonra şikayetçiye konuyu mahkemeye taşıyıp taşımayacağına karar vermesi için bir süre (örneğin 14 gün) verilecektir. İçerik, mahkeme kararının ardından kaldırılacaktır. Bir yer sağlayıcı, ‘bildirimde bulunma’ yükümlülüklerine uymadığı veya bir mahkeme kararını takiben içeriği kaldırmadığı takdirde tazminat yükümlülüğü altına girebilir. Buna karşılık, içerik sağlayıcının belirli bir süre içinde yanıt vermemesi veya karşı bildirimde bulunmaması halinde, yer sağlayıcı sorumluluktan muafiyetini kaybedecektir. Şikayetçinin konuyu mahkemeye veya başka bir bağımsız yargı organına taşımaya karar vermesi halinde, söz konusu kuruluşlar ya hukuka aykırı olduğu iddia edilen içeriği kaldırabilir ya da söz konusu içerikten sorumlu tutulabilir. İfade özgürlüğünün korunması için, yeni bir ‘ihbar bildirimi’ çerçevesi, kötüye kullanılan ihbarlar için de cezalar öngörmelidir.

Ciddi suç iddiaları için ‘bildirim ve eylem’

Bu prosedür kapsamında, bir yer sağlayıcının, bu yönde bir mahkeme kararı aldığında içeriği kaldırması gerekecektir. Başka bir deyişle, böyle bir emre uymamaları halinde bundan sorumlu olacaklardır. Pratikte, kolluk kuvvetleri bir içeriğin kaldırılması gerektiği düşüncesinde ise ve durum acil değil ise bunun için bir mahkeme kararı almaları gerekecektir. Ancak durum acilse (örneğin birinin hayatı risk altındaysa), kolluk kuvvetlerine söz konusu içeriğin derhal kaldırılması veya erişimin engellenmesi için yasal yetkiler verilmelidir. Ancak, bu tür bir emir belirli bir süre içinde (örneğin 48 saat) mahkeme tarafından onaylanmalıdır. Bu usulün izlenmesinde gayri resmi mekanizmaların kullanımına -telefon görüşmeleri veya yer sağlayıcıdan içeriği kaldırmasını talep eden e-postalar gibi- izin verilmemelidir.

Buna karşılık, yer sağlayıcılar herhangi bir kullanıcıdan suç teşkil ettiğinden şüphelenilen içerikle ilgili bildirim alırsa, yer sağlayıcı veya platform da, şikayetin sağlam temellere dayandığına ve daha fazla araştırma yapılması gerektiğine inanmak için nedenleri varsa, kolluk kuvvetlerini bilgilendirmelidir. Yer sağlayıcı veya platform, geçici bir tedbir olarak, hizmet şartlarına uygun şekilde söz konusu içeriği kaldırmaya da karar verebilir. Ancak, bunu yapmakla yükümlü olmadıkları gibi söz konusu içeriği kaldırmamaları herhangi bir sorumluluk doğurmayacaktır.

Aynı süreç, kolluk kuvvetleriyle birlikte çalışan ve bireysel internet kullanıcılarının internette suç teşkil eden içerik yayınlandığından şüphelenmeleri halinde arayabilecekleri yardım hatlarını işleten özel kuruluşlar için de geçerli olacaktır.[156] Başka bir deyişle, yardım hattı söz konusu içeriği hem yer sağlayıcılığa hem de kolluk kuvvetlerine bildirecektir. Yer sağlayıcı, herhangi bir kullanıcıdan gelen şikayetler için kullandığı süreci kullanacak, yani hizmet şartlarına dayanarak içeriği kaldırıp kaldırmamak konusunda hür olacaktır. Aynı model, ister kamu ister özel olsun, çevrimiçi ortamda suç teşkil edebilecek içerikle ilgili olarak yurttaşlardan şikayet alan diğer kurumlara ya da “güvenilir işaretçiler” (güvenilir işaretçiler programları hakkında daha fazla bilgi için aşağıya bakınız) tarafından bildirilen sorunlara da uygulanabilir. Hangi seçenek uygulanırsa uygulansın, ciddi bir suç teşkil eden davranış iddiasının, ceza adalet sisteminin yerleşik usulüne uygun şekilde soruşturulabilmesi için yetkililere bildirilmesi önemlidir.

Aracı Sorumluluğuna İlişkin Manila İlkeleri, “ihbar ve eylem” prosedürlerinin nasıl işlemesi gerektiğine dair daha faydalı rehberlik sağlamaktadır.[157] Bu ilkelerde belirlenen usulün, özellikle küçük şirketlere karşı “ihbar ve eylem” prosedürlerinin işletilebileceği en orantılı ve haklara saygılı yol olduğuna inanıyoruz.

Şirketlerin kendi iradeleriyle içerik moderasyonu uygulaması durumunda sorumluluktan kurtulma

ARTICLE 19, sosyal medya platformlarının ve diğer dijital şirketlerin, sırf topluluk standartları benimsedikleri ve bunları uygulamak için insan moderatörler veya diğer araçları kullandıkları için sorumlu tutulmamaları gerektiğine inanmaktadır.[158] Bu anlamda, iyi niyetle yapılan içerik moderasyon çabalarını teşvik edecek ‘iyi niyet maddesi’nin kabul edilmesini destekliyoruz. Bizim görüşümüze göre, bunun yapılmaması, ifade özgürlüğünün korunması ile yasadışı -hatta ‘zararlı’- içerikle mücadele arasında daha orantılı bir denge kuracak olan, içerikten maddi gelir elde edilmesini engelleme veya belirli platform özelliklerinin kaldırılması gibi yenilikçi teknik çözümlerin ve araçların benimsenmesini engelleyecektir. Bununla birlikte, bu araçları kullanan şirketler, bunları nasıl kullandıkları konusunda şeffaf olmalı ve sıkı bir prosedür izlemelidirler.

Benzer şekilde şirketler, algoritmalarının kullanıcıların görüntülediği içeriğe karşılık olarak yasadışı içerik önerdiği durumlarda, algoritmalarının yaptığı öneriler için geniş bir sorumluluktan muafiyetten yararlanmalıdır. Sistem geliştiriciler ve kodlayıcılar, algoritmaların çalıştığı parametreleri tanımlamakla birlikte, bu otomatik süreçlerin sonucunu kontrol edemez ve belirleyemezler. Algoritmalar, veri kümelerinden hem karmaşık hem de öngörülemeyen şekillerde sonuçlar üretir. Ayrıca hem genel olarak hata yapmaya meyillidirler hem de yasal ve yasadışı içerik arasında ayrım yapamazlar. Bu nedenle, şirketleri sistemlerinin yaptığı her olası “hata” için sorumlu tutmak hem uygulanamaz hem de orantısız olacaktır. Sorumluluk, belirli yasadışı içeriklerle mücadele için olduğu gibi, algoritmaların ortaya çıkardığı sistemik zorluklarla mücadele için de zayıf bir araçtır.

Bunun yerine, şirketler -özellikle de önemli pazar gücüne sahip olanlar- daha fazla şeffaflık yükümlülüğüne tabi olmalı ve aşağıda özetlendiği gibi insan hakları etki değerlendirmeleri yapmalıdır. Bizim görüşümüze göre, aynı mantık, gezinme veya “bulunabilirlik” hizmetleri için de geçerli olmalıdır, yani arama motorları algoritmaları yasadışı içerik listelediğinde cezalandırılmamalı, ancak şeffaf olmalı ve algoritmalarının arama sonuçlarını listelemede nasıl çalıştığını kamuoyuna açıklamalıdırlar.

Buna karşın, şirketlerin ticari anlaşmalar neticesinde platformlarının reklam bölümünde yasa dışı içeriği “teşvik etmeleri” veya sunumunu “optimize etmeleri” halinde sorumluluktan muaf olmamaları gerektiğini kabul ediyoruz.[159]

 

Öneri 4

İçeriğin genel olarak izlenmesi yasak olmaya devam etmelidir

ARTICLE 19, devletlerin şirketlere genel bir içerik izleme yükümlülüğü getirmekten kaçınması gerektiğine inanmaktadır.

Her ne kadar izlemenin sadece şirketlerin potansiyel olarak yasadışı veya diğer sorunlu içerikleri tespit etmesini sağladığı iddia edilse de, uygulamada, salt tespit neredeyse her zaman içerik kaldırma veya bu tür içeriğin mevcudiyetini azaltan diğer eylem türleriyle el eledir. İçerik izleme teknolojilerinin iddia edildiği kadar gelişmiş olmadığı düşünüldüğünde, bu son derece sıkıntılı bir durumdur. Bilhassa, karma eşleştirme (hash-matching) algoritmaları ve doğal dil işleme araçları, habercilik veya parodi gibi yasallığı bağlama göre değişebilen içerikleri ayırt etmekte şimdilik yetersiz kalmaktadır.[160] Bu durum çok sayıda meşru içeriğin kaldırılması sonucunu doğurabilecektir. Dahası, bu teknolojiler bireylerin iletişimlerinin analiz edilmesini gerektirdiğinden kullanıcıların gizlilik haklarını ihlal etmektedir.

Bunun yanı sıra, bir yasa sorumluluktan muafiyeti ‘genel izleme’ veya yasadışı içerikle mücadele için ‘proaktif önlemler’ veya ‘en iyi çabaların’[161] benimsenmesi koşuluna bağlarsa, şirketler kaçınılmaz olarak ihtiyatlı davranacak ve yasal risklerden ve icra masraflarından kaçınmak için içeriği kaldıracaktır. Bu durum, platformların yalnızca önceden denetlenmiş konuşmacılara müsaade etmesine veya tartışmalı içerikleri[162] yasaklamak için hizmet şartlarını kullanmasına yol açabilir, ve pazara yeni girenleri halihazırda yerleşmiş olanlara rakip olmaktan caydırabilir.[163]

ARTICLE 19, aynı zamanda, tartışmasız bir şekilde hukuka aykırı çocuk cinsel istismarı görüntülerinin, yani bir çocuk ile bir yetişkin arasındaki cinsel faaliyetin (örneğin penetrasyon) tasvirini içeren videolar ve diğer görüntülerin tespit edilerek kaldırılmasının ifade özgürlüğü ve özel hayatın gizliliği haklarıyla uyumlu olabileceğini kabul etmektedir.[164] Bu görüşümüz söz konusu davranışın ciddiyetine, ve bu tür içeriğin bağlamdan bağımsız olarak hukuka aykırı kabul edilebileceği gerçeğine dayanmaktadır. Bununla birlikte, bu tür izleme yükümlülüklerinin başka herhangi bir içerik türüne uygulanması gerektiği görüşüne katılmıyoruz.[165]

Öneri 5

Düzenlemelerin kapsamı sınırlı olmalıdır

Daha önce de belirtildiği üzere ARTICLE 19, platformların içerik düzenleme faaliyetleri hakkındaki düzenlemelerin, konu, kapsam ve etkili olduğu coğrafi alan bakımından sınırlı olmasını savunmaktadır. Bu çerçevede özellikle:

Düzenlemeler “yasal ama zararlı” içerikten ziyade yasa dışı içeriğe odaklanmalıdır

ARTICLE 19, böyle bir düzenlemenin doğası gereği muğlak bir kavram olan “zararlı” içerikten ziyade ‘yasadışı’ içerikle sınırlı olması gerektiğine inanmaktadır. ‘Zararlı’ içeriğin düzenlenmesi, düzenlemenin uygulanmasını zorlaştıracak, düzenlemeyi istismara ve kanunilik zemininde itirazlara açık hale getirecektir. Bizim görüşümüze göre, şirketlerin topluluk standartları kapsamında yasaklanmış olan yasal içerikler, ARTICLE 19’in önerdiği Sosyal Medya Konseyleri gibi bağımsız ve çok paydaşlı kuruluşların denetimine tabi olmalıdır.

Tavsiyelerimizin aksine ‘yasal ancak zararlı’ içeriğin mevzuat kapsamına dahil edilmesi halinde, mevzuat yalnızca şirketin topluluk standartlarının uygulanması için şeffaflık ve yasal süreç gereklilikleri getirmelidir. Dolayısıyla düzenleyici kurumun rolü, şirketlerin içerik moderasyon sistemlerinin yeterince şeffaf olmasını ve kullanıcıların açık ve etkili telafi mekanizmalarına ulaşabilmelerini sağlamakla sınırlı olacaktır.

Özel mesajlaşma hizmetleri ve haber kuruluşları kapsam dışında tutulmalıdır

Düzenlemelerin kapsamının, gazete web siteleri ve bloglardaki satır altı yorumları hariç tutacak şekilde sınırlandırılması gerektiğine inanıyoruz. Benzer şekilde, gazeteciliğe ilişkin içerikler de, sosyal medya platformları veya diğer hizmetler (örneğin arama motorları) tarafından barındırıldıkları durumlar da dahil olmak üzere, ilke olarak kapsam dışında tutulmalıdır. Büyük sosyal medya platformlarının uygulamalarını düzenlemeyi amaçlayan tedbirlerin gazetecilik içeriğini düzenlemek için bir arka kapı olarak kullanılması büyük bir yanlış olacaktır.

Aynı şekilde, mesajlaşma uygulamaları ve diğer özel iletişim kanalları da kapsam dışında tutulmalıdır. Düzenleyiciler, özellikle, sağlayıcılara uçtan uca şifrelemenin zayıflatılması veya zorunlu filtreler gibi, kullanıcıların özel hayatın gizliliğine haksız bir müdahaleyi gerektirecek yükümlülükler getirme yetkisine sahip olmamalıdır.

Tedbirlerin sınırlar ötesi uygulanabilirliği olmamalıdır

Son olarak, bu tür yeni bir düzenleme kapsamındaki tedbirlerin uygulanmasının, uluslararası insan hakları hukuku kapsamındaki mücamele ve orantılılık ilkeleri ile tutarlı olarak, coğrafi açıdan bu tedbirleri zorunlu kılan ülke ile sınırlı olması gerektiğine inanıyoruz. Başka bir deyişle, hiçbir ülke kendi sınırları dışında yasal olabilecek bir içeriği kaldırmak veya başka bir şekilde kısıtlamak için emir verememelidir.

 

Öneri 6

Düzenlemelerin kapsadığı yükümlülükler açıkça tanımlanmalıdır

ARTICLE 19, platformların ve diğer teknoloji şirketlerinin faaliyetlerini idare edecek yeni düzenlemeler kapsamındaki yükümlülüklerin açıkça tanımlanması gerektiğine inanmaktadır. Aşağıda, böyle bir çerçeveye dahil edilebilecek ve edilmemesi gereken tedbir türlerini özetliyoruz. Yeni düzenlemelerin özellikle aşağıdakileri zorunlu kılabileceğine inanıyoruz:

Şeffaflık yükümlülükleri

Bize göre şeffaflık, şirketlerin her hareketini kapsayan temel bir gereklilik olmalıdır. Bu, özellikle aşağıdaki konularda önemlidir:

  • İçerik dağıtımı: Sosyal medya platformları ve dijital şirketler algoritmalarının içeriği sunmak, sıralamak, öne çıkarmak veya geri planda tutmak için nasıl kullanıldığını kamuoyuna açıklamalı ve bu konudaki temel bilgileri erişilebilir kılmalıdır. Öne çıkarılan içerik, ister şirket tarafından ister üçüncü bir tarafça ücret karşılığında öne çıkarılmış olsun, açıkça bu şekilde işaretlenmelidir.[166] Şirketler ayrıca, ister kendi inisiyatifleriyle ister ücretli bir hizmet olarak üçüncü taraflar adına olsun, kullanıcıları (istenmeyen) öne çıkarılmış içerikle nasıl hedef aldıklarını da açıklamalıdır.[167]
  • Şirketlerin hizmet şartları ve topluluk standartları: Şirketler, anlaşılması kolay topluluk standartları/hizmet şartları yayınlamalı ve bunların nasıl uygulandığına dair “içtihat” örnekleri vermelidir. Şirketler, topluluk kurallarının hazırlanmasına yönelik yöntemler ve iç süreçler hakkında bilgi yayınlamalı ve bu süreçler, sivil toplum da dahil olmak üzere geniş bir yelpazeden aktörlerle istişareleri içermeye devam etmelidir.[168]
  • Uyumluluğu sağlamak için kullanılan insan kaynakları ve teknolojik kaynaklar: Şirketler, güvenilir işaretçiler listesinde kimlerin yer aldığı, bu kişilerin nasıl seçildiği ve bu statüye bağlı her türlü “ayrıcalık” dahil olmak üzere güvenilir işaretçi programları hakkında ayrıntılı bilgiyi erişilebilir kılmalıdır. Ayrıca, topluluk standartları bağlamında yasadışı veya “zararlı” olduğu iddia edilen içeriği tespit etmek için algoritmalarının nasıl çalıştığına dair bilgiler de yayınlamalıdırlar. Bu özellikle, yanlış negatif/yanlış pozitif oranları ve varsa viral olma ihtimali olan, örneğin geniş bir kitleye gösterilen içeriği değerlendirmek için kullanılan göstergeler hakkında bilgi içermelidir. [169]
  • Karar alma: Şirketler kararlarını, aldıkları kararlardan etkilenen taraflara bildirmeli ve belirli içerik veya hesaplara karşı aldıkları önlemler için yeterince ayrıntılı gerekçeler sunmalıdır. Şirketler ayrıca, mevcut dahili şikayet mekanizmaları hakkında net bilgi vermelidirler.
  • Şeffaflık raporları: Şirketler, Santa Clara İlkeleri ile tutarlı şekilde detaylı bilgiler yayınlamalıdır.[170] İstatistiki bilgilerin içeriğin kaldırılması ile sınırlandırılmamasının, aynı zamanda işleme alınan itirazların sayısı ve sonuçları ile ilgili verilerin de buna dahil edilmesinin özellikle önemli olduğunu düşünüyoruz. Şeffaflık raporlaması, üçüncü taraflarca işaretlenen içerikler (bunların kamu kurumu veya özel kişi/kuruluş olup olmadıkları da dahil olmak üzere), güvenilir işaretçiler tarafından işaretlenen içerikler (bunların kamu kurumu veya özel kuruluş olup olmadıkları da dahil olmak üzere) ile algoritmalar tarafından işaretlenen içerikler arasında da ayrım yapmalıdır. İçerik moderasyon süreçlerinin bir parçası olarak içeriğe uygulanan içerikten maddi kazanç elde edilmesini engelleme ve içeriği geri planda tutma gibi farklı kısıtlama türleri hakkında da daha fazla bilgi verilmelidir; her kısıtlama için kararın dayandığı kurallar, ve varsa itirazların sonucu hakkında bilgi verilmelidir. Dahası, şeffaflık raporlama yükümlülüklerinin içerik moderasyon kararlarının daha niteliksel bir şekilde analiz edilmesini sağlamayı amaçlaması gerektiğini düşünüyoruz. Yasadışı içerikle mücadelede başarı ölçütü, aşırı kaldırmayı teşvik edeceğinden, içerik kaldırma oranları olmamalıdır. Aynı şekilde, şeffaflık raporlaması şirketler tarafından sunulan bilgilerle sınırlı kalmamalı, ilgili devlet kurumları tarafından sunulan bilgileri de içermelidir. Yukarıda belirtilenler, tüketici hukuku kapsamında uygulanabilecek tedbirlere halel getirmez.[171]
  • Şeffaflık denetimleri: Şirketler, şirketin sistem ve algoritmalarının söyledikleri gibi çalıştığının doğrulanabilmesi için düzenleyiciler ve akademisyen, gazeteci ya da diğer bağımsız araştırmacılar için veri kümelerine daha fazla erişim sağlamalıdır. Denetçilere özellikle: (1) şirketlerin içerik moderasyon programları; (2) şirketlerin içeriği nasıl sıraladığı, önceliklendirdiği, önerdiği veya başka bir şekilde kişiselleştirdiği; ve (3) bunun siyasi reklamlara nasıl uygulandığı hakkındaki verilere erişim hakkı verilmelidir.[172] Düzenleyicilere hassas ve ticari verilere erişim izni verilebilecekken, onaylanmış üçüncü taraflara anonimleştirilmiş veri kümelerine erişim izni verilebilir. Platformların faaliyetlerine yönelik bu denetimler düzenli olarak gerçekleştirilmelidir.
  • Dijital ve siyasi reklam arşivleri: Yeni kurallar, siyasi reklamlar için “veri bulanıklığını” yasaklamalı ve platformlardan politikalarının ihlali durumunda devreye konacak net yaptırım mekanizmaları talep etmelidir. Platformlara, saldırgan siyasi söylem ve ‘dezenformasyon’ konusunda herhangi bir hakemlik ya da hafifleticilik rolü verilmemelidir. Buna ek olarak, siyasi partiler, teknoloji şirketleri ve üçüncü taraf reklamverenler de dahil olmak üzere ilgili paydaşlara, tüm siyasi reklam harcamalarına ilişkin daha fazla şeffaflık çağrısında bulunuyoruz. Siyasi reklamlar, hangi şekilde olursa olsun, haberler de dahil olmak üzere editoryal içerikten açıkça ayırt edilebilmeli ve kimin tarafından finanse edildiğine dair bilgilerle birlikte açıkça etiketlenmelidir. Ayrıca, denetlenmiş tüm reklamları, reklam için harcanan para miktarını ve reklama izin veren kişinin adını muhafaza etmek ve yayınlamak için dijital reklam veritabanlarının oluşturulmasını, ve bu veritabanlarının araştırmacılar ve politika yapıcıların verilere toplu olarak erişebileceği bir formatta tutulmasını destekliyoruz.

Dahili yasal süreç yükümlülükleri

Öneri 9’a halel getirmeksizin ARTICLE 19, başat platformların faaliyetlerini düzenleyen herhangi bir düzenlemenin aşağıdakileri hayata geçirme zorunluluğu içermesi gerektiğine inanmaktadır:

  • Aracı Sorumluluğuna ilişkin Manila İlkeleri doğrultusunda net bildirim ve eylem kuralları.
  • İçeriğin haksız yere kaldırılması veya bir haber kaynağının güvenilmez olduğunu düşündürecek etiketlerin haksız yere uygulanması gibi ifade özgürlüğü hakkının kullanılmasına yönelik kısıtlamalarla ilgili şikayetleri ele alacak dahili telafi mekanizmaları. Buna karşılık, itiraz mekanizmaları, aynı zamanda bir şirketin, şirketin topluluk standartlarını tartışmalı bir şekilde ihlal eden içeriği kaldırmayı reddetmesine de çözüm getirebilmelidir. Her durumda, dahili şikayet mekanizmaları, yasal süreç güvencelerine saygı göstermelidir.[173]
  • Medya çeşitliliğini teşvik etme yükümlülüğü: Sosyal medya platformlarında aşırı kişiselleştirilmiş içeriğin taşıdığı riskler göz önünde bulundurulduğunda, çok büyük sosyal medya şirketlerinin, hizmetlerinde yeterli derecede medya çeşitliliğinin[174] yanı sıra seçimler sırasında dengeli yayın yapılmasını sağlamak için adımlar atmaları zorunlu kılınmalıdır.[175] Özellikle, haber akışlarının ve öne çıkardıkları materyallerin nasıl belirlendiği konusunda yeterli bilgi sağlamalıdırlar. Ayrıca kullanıcılara, profillemeye dayanmayan, aralarından seçim yapabilecekleri uygun alternatifler sunmalıdırlar. Seçimler gibi belirli sınırlı durumlarda, nüfusun mümkün olan en geniş kesiminin seçimlere anlamlı bir şekilde katılmak için ihtiyaç duydukları temel bilgilere sahip olmalarını sağlamak için kamu hizmeti gören medyadan mesajlar taşımaları istenebilir.

Belirli yükümlülükleri getirmekten kaçınılmalıdır

Buna karşılık ARTICLE 19, bu tür düzenlemelerin, -bunlarla sınırlı olmamakla birlikte- aşağıda belirtilen yükümlülük türlerini içermemesi gerektiğine inanmaktadır:

  • Tanımlanmamış bir “zararı” önlemek için geniş ve aynı şekilde tanımlanmamış bir “özen” yükümlülüğü: Bizim görüşümüze göre, bu tür kavramların uluslararası insan hakları hukuku kapsamında kanunilik testini geçmesi mümkün değildir. Uygulamada hem yasal belirsizlik yaratacak hem de düzenleyici makamlara sınırsız yetkiler vereceklerdir ki bu da ifade özgürlüğü açısından son derece sorunlu olacaktır.
  • İçeriği izlemeye yönelik genel bir yükümlülük: Yukarıda belirtildiği üzere, içeriğin genel olarak izlenmesi ya da buna büyük ölçüde eşdeğer olan, yasadışı içerikle mücadele için ‘en iyi çabanın gösterilmesi’ ya da ‘proaktif tedbirlerin’ zorunlu kılınması gibi yükümlülükler getirilmemelidir. Aynı şekilde, böyle bir çerçeve, gerçekte bu tedbirlerin alınmaması ağır yaptırımlara yol açabilecekken, bu tedbirleri tamamen gönüllü veya basitçe “tavsiye edilen” tedbirler olarak sunarak şirketleri bu tedbirleri almaya “yönlendirmekten” kaçınmalıdır.
  • Aşırı kısa zaman dilimleri: Şirketler, özellikle de söz konusu içerik ‘nefret söylemi’ veya ‘terörist’ içerik gibi yorumlanması zor nitelikte olduğunda, gereksiz kısa zaman dilimleri içerisinde içeriği kaldırmakla yükümlü kılınmamalıdır. Kısa kaldırma süreleri, şirketleri bildirimleri yeterli dikkatle incelemeye teşvik etmemektedir. Bu nedenle, içeriğin haksız yere kaldırılmasını teşvik etmekte ve ifade özgürlüğünü korumakta başarısız olmaktadır. Dahası, şirketleri içerik kaldırmayı kısa bir zaman dilimi içinde gerçekleştirmeye zorlamak, şirketleri ciddiyetine bakılmaksızın bildirilen içeriklerin kaldırılmasına kaynak ayırmaya veya dikkati daha fazla hak eden eski içerikler yerine sadece son 24 saat içinde yayınlanmış olduğu için bu içeriklere odaklanmaya teşvik edebilecektir.[176]
  • Uyum hedeflerinin belirlenmesi: Aynı şekilde, şirketleri uyum oranlarını artırmak için platformlarında izin vermedikleri içeriklerin tanımını genişletmeye teşvik edebilecek sayısal uyum hedefleri de mevzuat veya düzenleyiciler tarafından dayatılmamalıdır.[177] Başka bir deyişle, sayısal hedefler giderek daha büyük miktarlarda meşru içeriğin kaldırılmasını teşvik edecektir. Ayrıca, kanun koyucuların, uyumluluğu sağlamak için çeşitli ölçütler ve eşikler düşünürken, toplumun çevrimdışı dünyada olduğu gibi çevrimiçi ortamda da bir ölçüde zarar riskine tahammül etmesinin beklenebileceğini göz önünde bulundurmaları gerektiğini düşünüyoruz.[178]
  • İşbirliği yapma veya yasa dışı içeriği bildirme yükümlülüğü: İşbirliğine yönelik muğlak yükümlülükler, kolluk kuvvetlerinin yeterli güvence olmaksızın kullanıcı verilerine erişimi gibi kullanıcıların haklarına ciddi müdahaleler içerebilecekleri için sorunludur. Öte yandan, bu yükümlülüklerin muğlak olması, şirketlerin daha az müdahaleci yollarla işbirliği yaptıklarını iddia etmelerini mümkün hale getirir. Kısacası, bu tür yükümlülüklerin uygulanması, ve gerekli olup olmadıklarını belirlemek zor olacaktır. Yasadışı içeriği bildirme yükümlülüğü, ciddi olup olmadığına bakılmaksızın, yasadışı olduğu iddia edilen içerikle ilgili aldıkları bildirimlere odaklanmaları ve bunları kolluk kuvvetlerine bildirmeleri için şirketlere güçlü bir teşvik sağlayacaktır. Bu yükümlülükler aynı zamanda şirketlerin sorumluluk riskini artıracağı için şirketleri içerik moderasyonu yapmaktan caydırabilir; çünkü içerik moderasyon sistemlerinin ağlarında tespit ettiği potansiyel olarak yasadışı tüm içerikleri bildikleri ancak bildirmedikleri düşünülebilecektir. Bu iki sonuç da arzu edilmeyen sonuçlar olacaktır ve büyük miktarda meşru içeriğin bildirilmesi sonucunu doğuracağından ifade özgürlüğü üzerinde olumsuz etki yaratacaktır.
  • Taşıma yükümlülükleri: “Taşıma yükümlülüklerinin” -yani platformların hizmet şartlarını ihlal eden yasal içerikleri yayınlamaya zorlanmasının- çok sınırlı durumlarda uygulanabileceğine inanmakla birlikte, genel taşıma yükümlülüklerinin uygulanmasının uygun olmayacağı görüşündeyiz. Taşıma yükümlülüğü, sosyal medya platformlarının hem ifade özgürlüğü hem de mülkiyet hakkına müdahale teşkil edecektir.[179] Platformların ifade özgürlüğü hakkı, örneğin kimi ülkelerde yasal olsa bile aşırı sağcı komplo teorilerine kendi sitelerinde yer verip vermemekte özgür oldukları anlamına gelmelidir. Orantılılık açısından, bu tür teorileri desteklemek isteyen kullanıcılar, bu görüşlerini ifade edebilecekleri başka kanallara sahip olmaya devam edeceklerdir. Ölçülülük açısından, bu tür teorileri öne sürmek isteyen kullanıcıların bu görüşlerini ifade edebilecekleri başka kanallar da mevcuttur. Uygulamada genel taşıma yükümlülükleri içerik denetimini de baltalayacaktır, bu da istenmeyen bir sonuçtur.

 

Öneri 7

Herhangi bir düzenleyici kurum hem yasada hem de uygulamada bağımsız ve hesap verebilir olmalıdır

ARTICLE 19, bir çevrimiçi içerik düzenleme planının meşru olması için, bağımsız, yani siyasi veya ticari müdahalelerden azade bir düzenleyici tarafından denetlenmesi gerektiğine inanmaktadır.

Bir düzenleyici kurumun bağımsızlığı ve kurumsal özerkliği, aşağıdaki hususları da içeren bir yasayla güvence altına alınmalı ve korunmalıdır:

  • Genel platform ve çevrimiçi içerik düzenleme politikasının açık beyanı;
  • Düzenleyicinin yetki ve sorumluluklarının açıkça belirtilmesi;
  • Üyelik kuralları; ve
  • Finansman düzenlemeleri ve çok taraflı bir organ aracılığıyla halka hesap verebilirlik. Hükümet, bu finansman düzenlemeleri ve hesap verebilirlik organlarından uzakta tutulmalı ve bunlara dahil olmamalıdır.

Daha özel olarak, ifade özgürlüğünün bir düzenleyici kurum tarafından korunabilmesi için, bu kurumu kuran yasanın aşağıdakileri içermesi gerekir:

  • Şok edebilecek, rencide edebilecek veya rahatsız edebilecek ifadeler de dahil olmak üzere ifade özgürlüğünün korunmasının önemini vurgulayan kapsayıcı hükümler;
  • Bu alandaki herhangi bir düzenleyicinin görevinin ifade özgürlüğü de dahil olmak üzere insan haklarını korumak olduğunu açıkça ortaya koyan hükümler;
  • Herhangi bir düzenleyicinin içerik kaldırma kararlarını denetlemesini ve şirketlerin talep üzerine veya kendi istekleriyle içeriği ne ölçüde aşırı kaldırdığını veya aşırı kısıtladığını dikkate almasını gerektiren hükümler; ve
  • Şirketlerin yasalara uygun içeriği kaldırmadıkları için cezalandırılmamaları gerektiğini açıkça ortaya koyan hükümler.

Çok çeşitli dijital hizmet sağlayıcılarının faaliyetlerini denetlemekle görevli herhangi bir düzenleyici kurum, veri koruma, tüketici koruma ve rekabet makamları gibi diğer ilgili düzenleyici kurumlarla işbirliği içinde olmalıdır.

Son olarak, herhangi bir düzenleyici kurum, faaliyetleri hakkında şeffaflık yükümlülükleri ve parlamentoya sunulan yıllık raporlar da dahil olmak üzere, kamuya karşı hesap verebilir olmalıdır.

 

Öneri 8

Her türlü düzenleyici çerçeve orantılı olmalıdır

ARTICLE 19, herhangi bir düzenleyici çerçevenin ifade özgürlüğüne ilişkin uluslararası standartlara uygun olması için, izlenen amaçla kesinlikle orantılı olması gerektiğine inanmaktadır:

  • Kademeli yaklaşım: Hükümetler, büyük sosyal medya şirketlerini sorumlu tutmayı amaçlayan ancak sonuçta diğer, daha küçük hizmetlere aşırı yük getirecek önlemleri benimseme konusunda son derece dikkatli olmalıdır. Bu nedenle, bu alanda kademeli bir yaklaşımın gerekli olduğuna inanıyoruz. Başka bir deyişle, büyük sosyal medya platformları, küçük olanlara kıyasla daha sıkı yükümlülüklere tabi tutulabilir. Bir platformun gücünü değerlendirmek için aşağıdaki faktörler göz önünde bulundurulabilir: (1) kullanıcı sayısı; (2) yıllık küresel cirosu; ve (3) pazar gücü. Wikipedia gibi kar amacı gütmeyen kuruluşlar muaf tutulmalı ve geniş bir sorumluluktan muafiyet çerçevesi altında faaliyet göstermeye devam etmelidir. Aynı zamanda, önerilen her türlü tedbirin, olası rekabet karşıtı sonuçlar da dahil olmak üzere, titiz etki değerlendirmelerine tabi tutulmasını şiddetle tavsiye ediyoruz. Büyük sosyal medya şirketlerinin, kendilerine yöneltilen her türlü talebe uyum sağlayabilmeleri mümkündür. Bu tür talepler, “daha güvenli” oldukları yönünde bir algıya yol açabilir ki bu da neredeyse kesin bir şekilde, büyük olanlarla aynı türden bir içerik denetleme uygulamasına girişemeyecek olan daha küçük katılımcılara karşı bir avantaj sağlayacaktır.
  • Sistemik hataların değerlendirilmesi: Bu alandaki düzenlemelerin sürdürülebilir ve orantılı olması için, şirketler tek bir içeriği kaldırmadıkları veya sadece tek bir veri kümesi yayınladıkları için değerlendirilmemelidir. Bunun yerine, bir düzenleyici kurum, şirketlerin yasa bağlamındaki yükümlülüklerine uyup uymadıklarını sistemik bir temelde değerlendirmelidir. Sistemik başarısızlıklara ilişkin eşik, salt sayısal bir değerlendirmeden ziyade bütüncül bir değerlendirmeye olanak tanıyacak açık kriterlere atıfla kanunla tanımlanmalıdır. Örneğin, yasa, yasa dışı veya zararlı olarak işaretlenen içeriğin belirli bir miktarını veya belirli bir yüzdesini kaldırmadıkları için şirketlere yaptırım uygulamamalıdır. Bunun yerine, yasa, insan haklarına yönelik riskleri azaltmak için benimsedikleri tedbirlerin genel bir değerlendirmesini içermelidir.
  • Orantılı yaptırımlar: Yukarıda özetlenen yükümlülüklere uyulmaması halinde orantılı yaptırımlar uygulanmalıdır. Bu, yüksek para cezalarını içerse de, bu cezalar ifade özgürlüğünü korumaktan caydırıcı olacak kadar yüksek olmamalıdır. Bizim görüşümüze göre, küresel cironun yüzde dördü bu açıdan çok yüksek bir cezadır. Aynı şekilde, bu yükümlülüklere uyulmaması halinde üst düzey yöneticilere uygulanacak cezai yaptırımlar da ifade özgürlüğü üzerinde caydırıcı bir etki yaratabilir. Birkaç yıl hapis cezasına çarptırılma ihtimaliyle karşı karşıya kalan şirket yöneticilerinin, içeriğin daha fazla kaldırılması veya diğer türden kısıtlamalara tabi tutulması yönünde politikalar benimseyecekleri neredeyse kesindir. Bu nedenle, hükümetler, bu tür cezai yaptırımları benimsemekten kaçınmalıdır.

Öneri 9

Herhangi bir düzenleyici çerçeve etkili yasal yollara erişimi temin etmelidir 

Dahili şikayet mekanizmalarının ötesinde ARTICLE 19, hükümetlerin, bireylerin içeriklerinin sosyal medya platformları tarafından hizmet şartlarına dayanılarak haksız bir şekilde kaldırılmasına itiraz edebilmeleri için yargı yollarına erişimlerinin temin edilmesi gerektiğine inanmaktadır. Bu tür çözüm yolları sadece mahkemelere erişimi değil, aynı zamanda e-mahkeme veya ombudsman gibi alternatif uyuşmazlık çözüm mekanizmalarını da içermelidir.[180] Uygulamada, hükümetler bu tür mekanizmaların finansmanını sağlamaya yönelik, örneğin sosyal medya platformları üzerinden alınacak bir vergi de dahil olmak üzere, öneriler geliştirmelidir.

Bu, Sosyal Medya Konseyleri gibi, (diğer hususların yanı sıra) kullanıcıların sosyal medya platformlarının içerik moderasyon kararlarına, ‘Kullanıcı Hakları Şartı’ gibi üzerinde mutabık kalınmış bir dizi ilkeye atıfla itiraz etmelerini sağlayacak öz düzenleme tasarılarına halel getirmeyecek şekilde olmalıdır.

 

Öneri 10

Büyük platformların barındırma ve içerik sağlama işlevlerini ayrıştırmaları ve diğer hizmetlerle birlikte çalışabilir olmalarını sağlamaları gerekli kılınmalıdır

 ARTICLE 19, bir avuç sosyal medya platformunun aşırı pazar gücünün önüne geçmek için içerik kürasyonunun merkezsizleştirilmesi gerektiğine inanmaktadır.

Düzenleyiciler, üçüncü tarafların platformlarına (pratikte API’lerine) erişerek kullanıcılara içerik küratörlüğü hizmetleri sunmalarına izin vermek için büyük platformların barındırma ve içerik küratörlüğü işlevlerini ayırmalarını zorunlu kılabilir.[181]

Bu tür bir işlevsel ayrım, büyük sosyal medya platformlarının kullanıcılarına içerik kürasyonu sunmasını engellemeyecektir. Ancak, tercih edip etmemeye kullanıcılar karar verecektir. Başka bir deyişle, örneğin Facebook’ta bir profil oluştururken, kullanıcıdan bir içerik düzenleme sağlayıcısı seçmesi istenmeli ve Facebook seçilebilecek seçeneklerden biri olarak yer almalıdır. İdeal olarak ve daha fazla bağlanmayı önlemek için, kullanıcılar platformun ayarları aracılığıyla istedikleri zaman seçimlerini değiştirmekte özgür olmalıdır. Bizim görüşümüze göre, kullanıcıların kontrolü geri almalarını sağlamak, sosyal medya pazarlarında sağlıklı rekabet ve inovasyonu sağlamak ve çoğulcu ve merkezi olmayan bir internet vaadine geri dönmek için bu tür çözümler daha fazla araştırılmalıdır.[182]

En azından, sosyal medya platformlarının kullanıcılara hem daha fazla görüntülemek istedikleri içerik türü hem de kronolojik sıra gibi kriterlere göre daha fazla içerik seçme seçeneği sunması gerektiğine inanıyoruz.

 

Bizi Gözetleyenleri İzlemek’ isimli bu politika belgesi, ‘Big Tech’i Dizginlemek: Herkes için İfade Özgürlüğünü Korumak’ isimli daha büyük bir çalışmanın bir parçasıdır.

 

Notlar

[1] John Perry Barlow, A Declaration of the Independence of Cyberspace, Electronic Frontier Foundation, 8 Şubat 1996.

[2] ‘Hostlar’ genellikle müşterilerinin kendi web sitelerini kurmalarını sağlamak için web sunucusu alanı kiralayanlardır. Bununla birlikte, ‘host’ terimi, üçüncü tarafların materyal yüklemesine veya yayınlamasına izin veren bir web sitesini veya web sayfasını kontrol eden herhangi bir kişi veya şirket gibi daha genel bir anlam da kazanmıştır. Bu nedenle, sosyal medya platformları ve video ve fotoğraf paylaşım hizmetleri genellikle ‘ev sahibi’ olarak adlandırılır. O halde ‘hosting’, içeriğe editoryal müdahalenin olmaması ile nitelendirilen bir roldür; Bkz. ARTICLE 19, internet intermediaries: Dilemma of liability, 2013, p.6.

[3] Son tahminlere göre, şu anda aylık 2,5 milyar aktif Facebook kullanıcısı ve 330 milyon Twitter kullanıcısı var ve YouTube’da günde 1 milyar saat video izleniyor. Örneğin bkz. Statistics Portal, Leading countries based on Facebook audience size; Statistics Portal, Number of monthly active Twitter users worldwide from 1st quarter 2010 to 1st quarter 2019; YouTube for Press, YouTube in numbers.

[4] Örneğin bkz. Twitter, Permanent suspension of @realDonaldTrump, 8 Ocak 2021; Guy Rosen Monika Bickert, Our response to the violence in Washington, Facebook, 6 Ocak 2021.

[5] K. Wagner and P. Martin, Twitter locks out Chinese Embassy in U.S. over post on Uighurs, Bloomberg, 20 January 2021.

[6] Örneğin bkz. ABD’de 1996 tarihli İletişim Ahlak Yasası’nın 230. Bölümü (47 USC. § 230) veya İç Pazarda bilgi toplumu hizmetlerinin, özellikle de elektronik ticaretin belirli yasal yönlerine ilişkin 8 Haziran 2000 tarihli ve 2000/31/EC sayılı Avrupa Parlamentosu ve Konsey Direktifi (Elektronik Ticaret Direktifi) (‘E-Ticaret Direktifi’).

[7] Örneğin bkz. Birleşik Krallık’ın Çevrimiçi Zararlar Beyaz Kitabı, 2019 ve Çevrimiçi Güvenlik Yasa Tasarısı Taslağı, 2021; AB’nin Dijital Hizmetler için Tek Pazar (Dijital Hizmetler Yasası) hakkında ve 20000/31/EC sayılı Direktifi değiştiren bir Avrupa Parlamentosu ve Konsey Tüzüğü Teklifi, 2020; İrlanda’nın Çevrimiçi Güvenlik ve Medya Düzenleme Yasa Tasarısı, 2020; Avustralya Çevrimiçi Güvenlik Yasa Tasarısı, 2021; Hindistan’ın Aracılar Kılavuz İlkeleri (Değişiklik) Kuralları Taslağı, 2018.

[8] ARTICLE 19, #MissingVoices kampanyasına bakınız.

[9] Örneğin bkz. Çevrimiçi Zararlar Beyaz Kitabı: İstişareye tam hükümet yanıtı, 15 Aralık 2020; veya Fransız Anayasa Konseyi’nin (Conseil d’État) daha sonra anayasaya aykırı ilan ettiği Fransız Çevrimiçi Nefretle Mücadele Yasa Tasarısı (Loi Avia veya Avia Yasa Tasarısı olarak adlandırılır).

[10] Bkz a.g.e Dilemma of liability.

[11] ARTICLE 19, Sidestepping rights: Regulating speech by contract, 2018.

[12] A.g.e.

[13] Bu politika ayrıca, yakın zamanda bazı ülkelerde platform yönetişimine ilişkin olarak ortaya konan çeşitli mevzuat tekliflerine de atıfta bulunmaktadır; zira bunlar başka yerlerde de benzer mevzuatın kabul edilmesi için ilham kaynağı olarak kullanılabilir; özellikle 2021 tarihli Çevrimiçi Güvenlik Yasa Tasarısı Taslağı ve AB’nin Dijital Hizmetler Yasası teklifi (bkz. Avrupa Komisyonu, Dijital Hizmetler Yasası paketi). Anladığımız kadarıyla bu teklifler arada geçen süre zarfında değiştirilmiş veya tadil edilmiş olabilir ve bu politika belgesi, yayınlandıkları tarihteki (Aralık 2021) hallerine atıfta bulunmaktadır.

[14] ARTICLE 19, Taming Big Tech: Protecting freedom of expression through the unbundling of services, open markets, competition, and users’ empowerment, 2021.

[15] ARTICLE 19, çevrimiçi medya çeşitliliği üzerine politika belgesi, yakında yayımlanacak.

[16] ARTICLE 19, taşıma yükümlülüğüne ilişkin politika belgesi, yakında yayımlanacak.

[17] Bunlar arasında örneğin reklam, hedefli reklamlar ve şirketlerin iş modelleri ile ifade ve bilgi özgürlüğü konuları yer almaktadır.

[18] Bkz a.g.e Dilemma of liability.

[19] Örneğin bkz. Lovdahl Gormsen and J.T. Llanos, Facebook’s anticompetitive lean in strategies, SSRN, 6 Haziran 2019.

[20] Örneğin bkz. Komisyon’dan Avrupa Parlamentosu, Konsey, Avrupa Ekonomik ve Sosyal Komitesi ve Bölgeler Komitesi’ne Bildirim, Çevrimiçi Platformlar ve Dijital Tek Pazar Avrupa için Fırsatlar ve Zorluklar, COM (2016) 288 final, 25 Mayıs 2016.

[21] Ayrıca bkz. Sidestepping rights, a.g.e., s. 36.

[22] Bkz a.g.e Dilemma of liability.

[23] Örneğin bkz. genel hukukta; D. Rolph, Liability in the internet age, International Forum for Responsible Media (IFFRM) Blog, 17 Şubat 2011.

[24] BM Genel Kurulu’nun bir kararıyla kabul edilen İHEB, devletler üzerinde mutlak bir bağlayıcılığa sahip değildir. Ancak, 1948 yılında kabul edilmesinden bu yana birçok hükmünün uluslararası teamül hukuku gereği yasal bağlayıcılık kazandığı kabul edilmektedir; bakınız Filartiga / Pena-Irala, 630 F. 2d 876 (1980) (ABD Temyiz Mahkemesi, 2. Daire).

[25] BM Genel Kurulu, Medeni ve Siyasi Haklara İlişkin Uluslararası Sözleşme (MSHUS), 16 Aralık 1966, BM Antlaşma Serisi, cilt 999, s.171.

[26] İnsan Hakları ve Temel Özgürlüklerin Korunmasına İlişkin Avrupa Sözleşmesi Madde 10, 4 Eylül 1950; Afrika İnsan ve Halkların Hakları Şartı (Banjul Şartı) Madde 9, 27 Haziran 1981; Amerikan İnsan Hakları Sözleşmesi Madde 13, 22 Kasım 1969.

[27] İnsan Hakları Komitesi (İH Komitesi), 19. Madde hakkında 34 sayılı Genel Yorum: Düşünce ve ifade özgürlükleri, CCPR/C/GC/34, 12 Eylül 2011, paragraf 12, 17 ve 39.

[28] Düşünce ve ifade özgürlüğü hakkının geliştirilmesi ve korunmasına ilişkin BM Özel Raportörü (İfade Özgürlüğü Özel Raportörü), AGİT Medya Özgürlüğü Temsilcisi, Amerikan Devletleri Örgütü İfade Özgürlüğü Özel Raportörü (OAS İfade Özgürlüğü Özel Raportörü) ve Afrika İnsan ve Halkların Hakları Komisyonu (ACHPR) İfade Özgürlüğü ve Bilgiye Erişim Özel Raportörü tarafından kabul edilen 2011 İfade Özgürlüğü ve İnternet Ortak Deklarasyonu, Haziran 2011.

[29] A.g.m; Ayrıca bkz. İfade Özgürlüğü Raportörü’nün Raporu, A/66/290, 10 Ağustos 2011, para 16.

[30] İnsan Hakları Komitesi, Belichkin / Belarus, Bildiri No. 1022/2001, UN Doc. CCPR/C/85/D/1022/ 2001 (2005).

[31] Genel Yorum No. 34, a.g.e., para 43.

[32] 2011 Ortak Deklarasyonu, a.g.e.

[33] Özel Raportör, 16 Mayıs 2011 tarihli Rapor, A/HRC/17/27, para 43.

[34] Özel Raportör, 6 Nisan 2018 tarihli Rapor, A/HRC/38/35, para 66

[35] A.g.m.

[36] A.g.m.

[37] İfade Özgürlüğü Özel Raportörü, 13 Nisan 2021 tarihli Rapor, A/HRC/47/25, para 91.

[38] Genel Sekreter Özel Temsilcisi tarafından insan hakları ve ulusötesi şirketler ve diğer ticari işletmeler konusunda geliştirilen BM ‘Koruma, Saygı Gösterme ve Çözüm Üretme’ Çerçevesinin (Kılavuz İlkeler) Uygulanması; İnsan Hakları ve Ulusötesi Şirketler ve Diğer Ticari İşletmeler Konusunda Genel Sekreter Özel Temsilcisi John Ruggie’nin Raporu, 7 Nisan 2008, A/HRC/8/5A/HRC/17/31. İnsan Hakları Konseyi, 16 Haziran 2011 tarihli ve 17/4 sayılı kararıyla Kılavuz İlkeleri onaylamıştır.

[39] A.g.e. İlke 15

[40] A.g.e., Özel Raportör Raporu, 6 Nisan 2018, A/HRC/38/35, paragraf 48 ve 7; OAS Özel Raportörü, Özgür, açık ve kapsayıcı bir internet için standartlar, 15 Mart 2017, paragraf 111-112.

[41]A.g.e., 2018 Özel Raportör Raporu, paragraf 45-46; 2013 OAS Özel Raportör Raporu, paragraf 113. Ayrıca bkz. OAS Özel Raportörü, Özgür, açık ve kapsayıcı bir internet için standartlar, 15 Mart 2017, para 99.

[42] A.g.e., Özel Raportör, para. 47 ve 76; 2013 OAS Özel Raportör, para. 115.

[43] İfade Özgürlüğü Özel Raportör, Nisan 2018 Raporu, a.g.e., paragraf 40-44.

[44] A.g.e., paragraf 70-72.

[45] Avrupa Konseyi İnsan Hakları Komiseri, The rule of law on the internet and in

the wider digital world, CommDH/IssuePaper (2014) 1, 8 Aralık 2014

[46] A.g.e. s.24

[47] Avrupa Konseyi Bakanlar Komitesi, 4 Nisan 2012 tarihinde Bakanlar Komitesi tarafından kabul edilen sosyal ağ hizmetleri ile ilgili olarak insan haklarının korunmasına ilişkin Bakanlar Komitesi’nin Üye Devletlere CM/Rec (2012)4 sayılı Tavsiye Kararı. Bu tavsiyeler, Bakanlar Komitesi, İnternet kullanıcıları için insan hakları rehberi, CM/Rec(2014)6 sayılı Tavsiye Kararı ve açıklayıcı memorandum, s.4’te de yinelenmiştir.

[48] Bakanlar Komitesi tarafından 7 Mart 2018 tarihinde kabul edilen, internet aracılarının rol ve sorumluluklarına ilişkin Bakanlar Komitesi’nin Üye Devletlere yönelik CM/Rec (2018) 2 sayılı Tavsiye Kararı.

[49] Bkz. 2013 OAS Raporu, a.g.e ve 2016 OAS Raporu, a.g.e.

[50] A.g.e

[51] Bkz. ACHPR tarafından Banjul, Gambiya’daki 65. olağan oturumunda kabul edilen Afrika’da İfade Özgürlüğü ve Bilgiye Erişim İlkeleri Bildirgesi, 2019.

[52] Afrika’da İfade Özgürlüğü ve Bilgiye Erişim İlkeleri Bildirgesi. Ayrıca bkz. bir sivil toplum girişimi olarak ortaya koyulan Afrika İnternet Hak ve Özgürlükleri Bildirgesi, 2014.

[53] Aracı Sorumluluğuna İlişkin Manila İlkeleri (Manila İlkeleri), Mart 2015.

[54] A.g.e. İlke 4.

[55] A.g.e. İlke 5(c).

[56] Ranking Digital Rights, Corporate Accountability Index: 2015 Research Indicators, Haziran 2015.

[57] BM İfade Özgürlüğü Özel Raportörü, AGİT Medya Özgürlüğü Temsilcisi, OAS İfade Özgürlüğü Özel Raportörü ve ACHPR İfade Özgürlüğü ve Bilgiye Erişim Özel Raportörü tarafından kabul edilen 2016 İfade Özgürlüğü ve Şiddet İçeren Aşırıcılıkla Mücadele Ortak Deklarasyonu, 4 Mayıs 2016.

[58] İfade Özgürlüğü ve ‘Sahte Haber’, Dezenformasyon ve Propaganda üzerine 2017 Ortak Deklarasyonu, BM İfade Özgürlüğü Özel Raportörü, AGİT Medya Özgürlüğü Temsilcisi, OAS İfade Özgürlüğü Özel Raportörü ve ACHPR İfade Özgürlüğü ve Bilgiye Erişim Özel Raportörü, 3 Mart 2017.

[59] BM İfade Özgürlüğü ve Kadına Karşı Şiddet Özel Raportörleri Ortak Basın Açıklaması, UN experts urge States and companies to address online gender-based abuse but warn against censorship. 8 Mart 2017.

[60] İfade Özgürlüğü Özel Raportör Raporu, A/74/486, 9 Ekim 2019, para 57(d).

[61] 2016 Ortak Deklarasyonu, a.g.e., para 2 (e).

[62] 2017 Ortak Deklarasyonu, a.g.e., para 4 (b).

[63] A.g.e., para 58 (b).

[64] İfade Özgürlüğü Özel Raportörü’nün Raporu, A/73/348, 29 Ağustos 2018.

[65] A.g.e., para 64.

[66] A.g.e.

[67] A.g.e., para 66.

[68] A.g.e.

[69] A.g.e., para 70.

[70] Bkz. MSHUS 17. Madde. BM Terörizmle Mücadele Sırasında İnsan Hakları ve Temel Özgürlüklerin Geliştirilmesi ve Korunması Özel Raportörü, 19. madde kapsamındaki ifade özgürlüğü hakkına getirilen kısıtlamalar gibi, MSHUS’nin 17. maddesi kapsamındaki özel hayatın gizliliği hakkına getirilen kısıtlamaların da üç aşamalı teste tabi olarak yorumlanması gerektiğini savunmuştur; bakınız Terörizmle Mücadele Sırasında İnsan Hakları ve Temel Özgürlüklerin Geliştirilmesi ve Korunması Özel Raportörü Raporu, Martin Scheinin, A/HRC/13/37, 28 Aralık 2009.

[71] İfade Özgürlüğü Özel Özel Raportörü’nün Mayıs 2011 Raporu, a.g.e., para 53.

[72] A.g.e., para 84.

[73] Dijital çağda düşünce ve ifade özgürlüğü haklarını kullanmak için şifreleme ve anonimlik kullanımı hakkında İnsan Hakları Konseyi Özel Raportörü Raporu, A/HRC/29/32, 22 Mayıs 2015, para 60.

[74] A.g.e. Ayrıca bkz. İfade Özgürlüğü Özel Raportörü, Şifreleme ve anonimlik takip raporu, Araştırma Belgesi 1/2018, Haziran 2018.

[75] Örneğin, 2020’nin üçüncü çeyreğinde Facebook, dünya çapında 2,5 milyar aylık aktif kullanıcı kaydetmiştir – neredeyse Çin ve Hindistan’ın nüfuslarının toplamı kadar. 2017 yılında Facebook’un yıllık gelirleri Sırbistan’ın GSYH’sinden daha fazlaydı; bakınız F. Belinchón ve Q. Moynihan, 25 giant companies that are bigger than entire countries, Business Insider España, 25 Temmuz 2018. Benzer şekilde, Aralık 2019’da Google dünya çapında arama hizmetlerinde %90’ın üzerinde pazar payına sahipti; bkz Statcounter, Search engine market share worldwide, April 2019-April 2020. Twitter ise daha küçük olmasına rağmen 125 milyondan fazla günlük aktif kullanıcıya, yani Kenya nüfusunun yaklaşık 2,5 katına sahiptir.

[76] Bkz. örneğin Birleşik Krallık’ın Çevrimiçi Zararlar/Çevrimiçi Güvenlik Yasa Tasarısı önerileri, a.g.e.; artık yürürlükten kalkmış olan Fransız Loi Avia Yasa Tasarısı, a.g.e.; veya Avusturya İletişim Platformları Yasa Tasarısı, Ekim 2020.

[77] Örneğin, Fransız Anayasa Konseyi’nin Haziran 2020’de anayasaya aykırı ilan ettiği Fransız Loi Avia Yasa Tasarısı, hükümetin, şirketlerin yasadışı nefret söylemi içeriğinin 24 saat içinde kaldırılması gibi belirli yükümlülükleri yerine getirmesinin beklendiği eşikleri belirlemesini öngörmektedir (bkz. not 7). Benzer şekilde, Almanya’da, medya çeşitliliğine ilişkin bir yasa tasarısı, Almanya’da ayda 1 milyondan fazla kullanıcısı olan ‘video-platformları’ için bir dizi yükümlülük getirmektedir; Radyo arayüzü, platform kontrolü ve aracı medya, onay için devlete özgü düzenlemeler, platform düzenlemesi ve aracılar  konularında Önerge (diğer adıyla Medienstaatsvertrag), 2018.

[78] Örneğin, 2019 AB Telif Hakkı Direktifi, çevrimiçi içerik paylaşım hizmeti sağlayıcılarının (OCSSP’ler) bir dizi katı koşulu yerine getirmedikleri takdirde sorumluluktan muafiyetlerini kaybedeceklerini öngörmektedir. Bununla birlikte, Direktif kapsamındaki bu yeni yükümlülüklere uyum, orantılılık ilkesine uygun olarak ‘hizmetin türünü, hedef kitlesini ve boyutunu’ dikkate almalıdır. Avrupa Birliği’nde üç yıldan az bir süredir hizmet sunan ve cirosu 10 milyon Euro’nun altında olan şirketler, sorumluluktan muafiyetten yararlanmak için daha az katı koşullara tabidir; bkz. 96/9/EC ve 2001/29/EC sayılı Direktifleri tadil eden, Dijital Tek Pazarda telif hakkı ve bağlantılı haklara ilişkin 17 Nisan 2019 tarihli ve 2019/790 sayılı Avrupa Parlamentosu ve Konsey Direktifi (AB). Buna karşın, 2019 AB Telif Hakkı Direktifi, aylık ortalama tekil ziyaretçi sayısı 5 milyonu aşan OCSSP’lerin ek gerekliliklere tabi olmasını öngörmektedir.

[79] Örneğin bkz. Ofcom, Online market failures and harms: An economic perspective on the challenges and opportunities in regulating online services, 28 Ekim 2019; Avustralya Rekabet ve Tüketici Komisyonu, Digital Platforms Inquiry: Final report, 26 Temmuz 2019; Fransız ve Alman rekabet kurumları ortak raporu, Algorithms and competition, Kasım 2019.

[80] Örneğin Cloudflare, 2017 yılında Charlottesville’de aşırı sağ karşıtı protestoculara yönelik ölümcül araba saldırısının ardından aşırı sağcı, neo-Nazi, beyaz üstünlükçü bir mesaj panosu web sitesi olan Daily Stormer’a sağladığı hizmetleri sonlandırmaya karar vermiştir. Cloudflare, 2019 yılında, El Paso’daki silahlı saldırının failinin manifestosunu bu web sitesinde yayınladığı iddiasının ardından aşırı sağcı bir görüntü panosu olan 8chan’e sağladığı hizmetleri yine sonlandırmıştır; bkz. M. Prince, Why we terminated Daily Stormer, Cloudflare, 16 Ağustos 2017; M. Prince, Terminating service for 8Chan, Cloudflare, 5 Ağustos 2019.

[81] Örneğin bkz. Uluslararası Af Örgütü, Surveillance giants: How the business model of Google and Facebook threatens human rights, POL 30/1404/2019, Kasım 2019; Privacy International, Privacy International’s response to the open consultation on the Online Harms White Paper, Temmuz 2019.

[82] A.g.e.

[83] Örneğin bkz. K. Iwańska, To track or not to track: Towards privacy-friendly and sustainable online advertising, Panoptykon Foundation, Kasım 2020.

[84] A.g.e.

[85] A.g.e.

[86] Örneğin bkz. Access Now, Raising the alarm: Online tracking harms human rights, 14 Aralık 2020.

[87] ‘Nefret söylemi’nin uluslararası insan hakları hukuku kapsamında bir tanımı olmamakla birlikte, korunan bir özelliğe dayalı olarak bir birey veya gruba yönelik nefret ifadesi, uluslararası insan hakları hukukunun Devletlerden beklediği tepkiye göre üç kategoriye ayrılabilir: a) uluslararası hukukun Devletlerin yasaklamasını gerektirdiği ağır ‘nefret söylemi’ biçimleri; b) Devletlerin yasaklayabileceği diğer ‘nefret söylemi’ biçimleri; ve c) yasal olan ancak yine de hoşgörüsüzlük ve ayrımcılık açısından endişe uyandıran, Devlet tarafından eleştirel bir tepkiyi hak eden, ancak korunması gereken ‘nefret söylemi’. Bu terim etrafındaki karmaşıklık göz önüne alındığında, ARTICLE 19 bu ve diğer politika belgelerinde bu terime ‘nefret söylemi’ olarak atıfta bulunmaktadır.

[88] Örneğin, Birleşik Krallık’ta Molly Russell’ın intihar etmesi ve Instagram hesabında intihar ve kendine zarar verme ile ilgili tüm ayrıntılara yer veren paylaşımlar bulunması üzerine kamuoyunda büyük bir tepki oluşmuştur; örneğin bkz. BBC News, Molly Russell: Did her death change social media?, 27 Ekim 2019.

[89] Örneğin, dezenformasyon alanında Facebook’un politikası zaman içinde önemli ölçüde değişmiş, ‘gerçek olmayan davranışlara’ (yani sahte hesapların kullanımına) odaklanmaktan ‘yanlış haberlerin’ veya ‘manipüle edilmiş medyanın’ (örneğin deep fakes) yayılmasını açıkça ortadan kaldırmaya veya azaltmaya evrilmiştir. Örneğin bkz. ARTICLE 19, Facebook Community Standards: Analysis against international standards on freedom of expression, 30 Temmuz 2018. Twitter ise seçimler bağlamında yalnızca sınırlı yanıltıcı bilgileri kaldırmakta olup ‘platform manipülasyonu’ ve spam ile mücadele etmeye devam etmektedir; bkz. Twitter rules on election integrity, 2021, and Twitter, Platform manipulation and spam policy, Eylül 2020. ‘Nefret söylemi’ konusunda ise sosyal medya şirketleri, çeşitli insan hakları grupları, gazeteciler, kanun yapıcılar ve BM gibi kurumlar tarafından kendilerine yöneltilen ciddi eleştirileri ele almak için adımlar atmak zorunda kaldı. Örneğin, Uluslararası Af Örgütü Twitter’ı çevrimiçi ortamda kadın haklarını koruyamamakla ve kadınları kamusal söylemden uzaklaştırarak zehirli bir ortam yaratmakla suçladı; Bkz. Uluslararası Af Örgütü, Toxic Twitter: A toxic place for women, 15 Mart 2018. YouTube, muhafazakar YouTube sunucusu Steven Crowder’ın Vox muhabiri Carlos Maza’yı iki yıl boyunca YouTube videolarında ırkçı ve homofobik hakaretler de dahil olmak üzere sürekli olarak taciz etmesinin ardından harekete geçmediği için eleştirilere maruz kaldı. Bkz. E. Stuart, We don’t want to be knee-jerk”: YouTube responds to Vox on its harassment policies, Vox, 10 June 2019. BM müfettişleri Facebook’un Myanmar’da ‘nefret söyleminin’ yayılmasında ve dolayısıyla Rohingya halkına yönelik olası soykırımın kolaylaştırılmasındaki ‘rolüne’ dikkat çekti; Myanmar’a ilişkin gerçekleri tespit eden bağımsız uluslararası misyonun İnsan Hakları Konseyi’ne sunduğu rapor, 12 Eylül 2018, A/HRC/39/64, para 74.

[90] Örneğin, AB içinde bunlar arasında 17 Haziran 2019 tarihli Dezenformasyon Uygulama Kuralları ve 2018 tarihli Yasadışı Nefret Söylemiyle Mücadeleye ilişkin AB Davranış Kuralları yer almaktadır. Küresel düzeyde, Facebook, Microsoft, Twitter ve YouTube’un 2017 yılında başlattığı bir girişim olan Küresel İnternet Terörle Mücadele Forumu (GIFCT), üyelerinin kendi hizmetlerinde ve kendi topluluk standartları temelinde içeriği kaldırıp kaldırmamaya karar vermek için kullanabilecekleri bir hash veritabanına erişmelerini sağlamaktadır. Christchurch’teki terör saldırılarının canlı yayınlanmasının ardından Yeni Zelanda hükümetinin başlattığı küresel bir girişim olan Christchurch Çağrısı kapsamında, çevrimiçi hizmet sağlayıcıları, diğerlerinin yanı sıra, ‘terörist ve şiddet yanlısı aşırılık yanlısı içeriğin yüklenmesini ve sosyal medya ve benzeri içerik paylaşım hizmetlerinde yayılmasını önlemeye yönelik, derhal ve kalıcı olarak kaldırılması da dahil olmak üzere, şeffaf ve özel önlemler almayı’ taahhüt etmektedir.

[91] Fransa ve Singapur gibi bazı devletler, bu tedbirlerin yetersiz olduğu görüşünü benimsemiş ve dezenformasyonu yasaklayan mevzuatı yürürlüğe koymuşlardır.

[92] AB’de Dijital Hizmetler Yasası’nın tek pazarın etkinliğini sağlamak için de gerekli olduğu ifade edilmektedir; a.g.e. Birleşik Krallık’ta, çevrimiçi içeriğin yarattığı çeşitli sorunlarla başa çıkmak için tek bir düzenleyici kurum, görünür basitliğin cazibesine sahiptir; Bkz. Çevrimiçi Zarar/Çevrimiçi Güvenlik yasa tasarısı, a.g.e.

[93] Bkz. Fransa Dijital İşlerden Sorumlu Devlet Bakanı, Creating a French framework to make social media platforms more accountable: Acting in France with a European vision, Mission Report, versiyon 1.1, Mayıs 2019, s.11; ARTICLE 19, France: ARTICLE 19 comments on French interim report for social media regulation, 19 Haziran 2019.

[94] Örneğin, ABD’de Senatör Hawley, İletişim Ahlakı Yasası’nın (CDA) 230. Bölümünü değiştirmek için bir yasa çıkarmaya çalışmıştır, bu doğrultuda bir dış denetim, algoritmalarının ve içerik kaldırma uygulamalarının siyasi olarak tarafsız olduğunu ikna edici bir şekilde göstermediği sürece platformlar sorumluluktan muafiyetlerini kaybedecektir; Bkz. Senator Hawley introduces legislation to amend Section 230 immunity for Big Tech companies, 19 Haziran 2019. Yasa taslağı kabul edilmemiş olsa da, ABD’de 230. Bölüm etrafındaki tartışmalar hala devam etmektedir. Örneğin, Ocak 2020’de Joe Biden yasayı iptal etmek istediğini söylemiştir. Örneğin bkz. Makena Kelly, Joe Biden wants to revoke Section 230, The Verge, 17 Ocak 2020. Almanya’da Yayın Otoritesi, ilk kez video ve sosyal medya platformlarına çeşitlilik yükümlülükleri getirecek bir teklif sunmuştur; bkz. N. Helberger, P. Leerssen, ve M. Van Drunen, Germany proposes Europe’s first diversity rules for social media platforms, LSE Blog, 29 Mayıs 2019.

[95] Örneğin bkz. E. M. Mazzoli and D. Tambini, Prioritisation uncovered: The discoverability of public interest content online, Council of Europe Study DGI, 2020, 19, s.40ff.

[96] Haberlerin büyük sosyal medya platformları tarafından dağıtılmasının ortaya çıkardığı zorluklar hakkında daha fazla bilgi için bkz. P.F. Docquir and M.L. Stasi, The Decline of Media Diversity – and How We Can Save It, 21 Ocak 2020.

[97] The Guardian, How social media filter bubbles and elections and algorithms influence the election, 22 Mayıs 2017.

[98] The New York Times, Conservatives accuse Facebook of Political Bias, 10 Mayıs 2016.

[99] Örneğin bkz. The Guardian, Watchdog cracks down on tech firms that fail to protect children, 22 Ocak 2020.

[100] Örneğin bkz. D. Keller and J. von Hoboken, Design Principles for Intermediary Liability Laws, Transatlantic High Level Working Group on Content Moderation, Ekim 2019.

[101] Bkz. ARTICLE 19, Germany: The Act to Improve Enforcement of the Law in Social Networks, Ağustos 2017; ARTICLE 19, France: Analysis of draft hate speech bill, 3 Temmuz 2019.

[102] Örneğin, Terörizmle Mücadele Küresel İnternet Forumu (GIFCT) gibi girişimler son derece muğlak kalmıştır. GIFCT hash-veritabanı temelinde kaldırılan içerik türleri hakkında çok az veri mevcuttur; GIFCT web sitesindeki “Şeffaflık” sayfasına bakınız. Almanya’da, büyük ölçüde çevrimiçi ‘nefret söylemi’ ile mücadele etmeyi amaçlayan NetzDG yasasının etkinliği konusunda görüş ayrılıkları devam etmektedir. Uzmanlar, sosyal medya şirketlerinin şeffaflık raporlamalarının yeknesak olmaması nedeniyle yasanın objektif bir değerlendirmesini yapmanın zorluklarına dikkat çekmiştir. Bununla birlikte, yeni yasanın içeriğin daha hızlı kaldırılmasına katkıda bulunduğu konusunda bir dereceye kadar fikir birliği olsa da, ‘nefret söylemi’ üzerindeki gerçek etkisi belirsizliğini korumaktadır ve ampirik olarak kanıtlanması zor: Örneğin bkz. A. Held, Germany is amending its online speech act NetzDG… but not only that, 6 Nisan 2020.

[103] Örneğin Fransa’da bir grup LGBTI aktivisti kısa bir süre önce Libération gazetesine açık bir mektup yazarak Fransız çevrimiçi nefret söylemi (Avia) yasa taslağının ters etki yaratacağını ve LGBTI toplulukları tarafından üretilen içeriklerin daha sık bir şekilde kaldırılmasına yol açacağını belirtti. Grup, diğerlerinin yanı sıra ırkçı hakaret suçları da dahil olmak üzere nefret suçlarının gerçek faillerinin yargılanması için adalet sistemine daha fazla kaynak ayrılmasını talep etti; bkz: Libération, Feminist, LGBTI and antiracist: we do not want cyber-hate law, Tribune, 21 Ocak 2020.

[104] Örneğin, bunlar arasında Almanya’daki NetzDG ve Loi Avia Tasarısı yer almaktadır.

[105] Örneğin bkz. Facebook’un son güncellemeleri; YouTube, Nefretle mücadele için devam eden çalışmalarımız, 5 Haziran 2019.

[106] A.g.e. Ayrıca bkz. Wired, Twitter and Instagram unveil new ways to combat hate – again, 7 November 2019.

[107] Örneğin bkz. Google, Google News Initiative hakkında bir yıl içinde kendi kendine raporlama, 20 Mart 2019.

[108] Örneğin bkz. Yasadışı Nefret Söylemiyle Mücadeleye İlişkin AB Davranış Kuralları, Bilgi Notu, Şubat 2019.

[109] The Verge, Twitter rolls out ‘hide replies’ to let you tame toxic discussions, 19 Eylül 2019.

[110] Bu itiraz mekanizmalarının eksiklikleri için bkz. ARTICLE 19, Sidestepping Rights, a.g.e. ve #MissingVoices Kampanyası.

[111] Örneğin bkz. Facebook, An Independent Assessment of the Human Rights Impact of Facebook in Myanmar, 5 Kasım 2018; Facebook, A Second Update on Our Civil Rights Audit, 30 Haziran 2019.

[112] Örneğin bkz. Forbes, Facebook is Hiring 3,000 Moderators In Push To Curb Violent Videos, 03 Mayıs 2017; Financial Times, Facebook steps up efforts to combat hate speech in Myanmar, 16 Ağustos 2018; or Telegraph, Facebook to Hire 1,000 new workers in the UK to help fight toxic content, 21 Ocak 2020.

[113] Örneğin, AB’de Avrupa Komisyonu, sosyal medya şirketlerinin AB Dezenformasyon Uygulama Kuralları kapsamındaki taahhütlerini yerine getirmelerini denetleyen Ocak 2019 tarihli ilk izleme raporunda, şirketlerin dezenformasyonla mücadele etmek için geliştirdikleri politikalardan memnuniyet duyduğunu ancak ilerlemeyi ölçmek için belirli kriterlerin olmamasından derin endişe duyduğunu belirtmiştir; bkz. Avrupa Komisyonu, First monthly intermediate results of the EU Code of Practice against disinformation, 28 Şubat 2019. Avrupa Komisyonu Mayıs 2019’daki son izleme raporunda, siyasi reklamların şeffaflığının artırılması ve bu tür reklamların kamuoyuna açıklanması konusunda kaydedilen ilerlemeye dikkat çekmiş, ancak dezenformasyonla etkin bir şekilde mücadele etmek için daha fazla şey yapılması gerektiğini de eklemiştir; bkz. Avrupa Komisyonu, Last intermediate results of the EU Code of Practice against disinformation, 14 Haziran 2019.

[114] Örneğin bkz. King’s College London Centre for the Study of Media, Communication and Power, Submission to the Culture Media and Sport Select Committee’s Inquiry into Fake News, 2017.

[115] Bu, ARTICLE 19’un siyasi reklam ve dezenformasyon konusunda yakında yayınlayacağı daha ayrıntılı görüşüne halel getirmez.

[116] Örneğin bkz. B. Wagner and L. Kuklis, Disinformation, data verification and social media, 16 Ocak 2020.

[117] Örneğin Avrupa Komisyonu, Yasadışı Nefret Söylemiyle Mücadeleye ilişkin AB Davranış Kurallarına ilişkin dördüncü değerlendirmesinde bu girişimin başarılı sonuçlar verdiğini kaydetmiştir. Özellikle de bilgi teknolojileri şirketlerinin artık işaretlenen içeriklerin %89’unu 24 saat içinde değerlendirebildiklerini ve yasadışı ‘nefret söylemi’ olduğu düşünülen içeriklerin %72’sinin kaldırıldığını vurgulamıştır. 2016 yılında Kurallar ilk kez uygulamaya konduğunda bu oranlar sırasıyla %40 ve %28 idi. Bkz. Avrupa Komisyonu, a.g.e.; bkz. Avrupa Komisyonu, Countering illegal hate speech online: EU Code of Conduct ensures swift response, 4 Şubat 2019. Benzer şekilde, Fransızlar “Facebook gibi bir operatörün son 12 ay içerisinde gerçekleştirdiği uygulama ve ilerleme hızı, platformlar tarafından halihazırda kullanılmakta olan bu öz-düzenleyici yaklaşımın genişletilerek ve meşrulaştırılarak kullanılmasının faydalarını göstermektedir” ve “sosyal ağ sağlayan bu operatörlerde gözlemlenen öz-düzenleyici kapasite, bu platformlardaki belirli içeriklerin varlığının ortaya çıkardığı sosyal uyum sorunlarının çözümünde kilit unsurlar olarak konumlandırılmalarını mümkün kılmaktadır” tespitinde bulunmuştur. bkz. Fransa Dijital İşlerden Sorumlu Devlet Bakanı, Creating a French framework to make social media platforms more accountable: Acting in France with a European vision, Mayıs 2019, s. 11.

[118] ARTICLE 19’un Sosyal Medya Konseyleri hakkında daha fazla bilgi için bkz. ARTICLE 19, Self-regulation and ‘hate speech’ on social media platforms, 2 Mart 2018; ARTICLE 19, Social Media Councils: Consultation, 11 Haziran 2019.

[119] Bkz. AB’nin Dijital Hizmetler Yasası tekliflerine ilişkin Açıklayıcı Memorandum, a.g.e., s. 1.

[120] Bkz. Avrupa Komisyonu, Leaked note on a Digital Services Act, Netztpolitik, Haziran 2019.

[121] Genel Yorum No. 34, a.g.e., para 43.

[122] Örneğin bkz. R. Fletcher, Polarisation in the news media, Digital News Report, Reuters Institute and University of Oxford, 2017.

[123] Bkz. ARTICLE 19, ARTICLE 19 siyasi reklam politikası, yakında yayınlanacak.

[124] Seçici yasa tekliflerine genel bir bakış için bkz. ARTICLE 19, Kyrgyzstan: Platform regulation laws and freedom of expression, Ocak 2021.

[125] Örneğin bkz. Dijital Hizmetler Yasası için AB taslak önerileri, a.g.e.; Avusturya Taslak İletişim Platformları Yasası, a.g.e.; veya mülga Loi Avia Yasası, a.g.e. Bu aynı zamanda Alman NetzDG yasasının olumlu özelliklerinden biridir; örneğin bkz. B. Wagner, K. Rozgonyi, M.T. Sekwenz, J. Cobbe and J. Singh, Regulating Transparency?: Facebook, Twitter and the German Network Enforcement Act, Ocak 2020.

[126] Örneğin bkz. Dijital Hizmetler Yasası için AB taslak önerileri, a.g.e.; Avusturya Taslak İletişim Platformları Yasası, a.g.e

[127] A.g.e.

[128] ‘Sorumlu kişi’ maddesi, platformların veya diğer içerik barındırma sağlayıcılarının kendi inisiyatifleriyle içeriği denetlemek için adım atmaları halinde sorumluluktan muafiyetlerini kaybederek cezalandırılmamalarını sağlayan bir hüküm anlamına gelir. Örneğin bkz. J. Barata, Positive Intent Protections: Incorporating a Good Samaritan principle in the EU Digital Services Act, The Center for Democracy and Technology, Temmuz 2020.

[129]  Örneğin bkz. Dijital Hizmetler Yasası için AB taslak önerileri, a.g.e, veya mülga Loi Avia Yasası, a.g.e. Bu, aynı zamanda Alman NetzDG yasasının da önemli bir özelliğidir; örneğin bkz. ARTICLE 19’s analysis of the Draft NetzDG law, 2017.

[130] Örneğin bkz. Dijital Hizmetler Yasası için AB taslak önerileri; Birleşik Krallık Çevrimiçi Zarar/Çevrimiçi Güvenlik Yasa Tasarısı, a.g.e.; Dijital Tek Pazarda telif hakkı ve bağlantılı haklara ilişkin ve 96/9/EC ve 2001/29/EC sayılı Direktifleri değiştiren 17 Nisan 2019 tarihli Avrupa Parlamentosu ve Konseyi Direktifi (AB) 2019/790 (AB Telif Hakkı Direktifi 2019); çevrimiçi nefret söylemine ilişkin mülga Avia yasa tasarısı, a.g.e.; veya daha yakın tarihli Avusturya 2020 İletişim Platformları Yasa Tasarısı, a.g.e.. Bu, aynı zamanda Alman NetzDG yasasının da önemli bir yönüdür, a.g.e.

[131] Birleşik Krallık, İrlanda, Avustralya’daki tekliflere ve Dijital Hizmetler Yasası hakkında sızdırılan AB notuna bakınız

[132] A.g.e; İrlanda’daki teklif.

[133] Bakınız Birleşik Krallık Çevrimiçi Zararlar/Çevrimiçi Güvenlik Yasa Tasarısı teklifleri, a.g.e.

[134] Örneğin bkz. Almanya’da NetzDG veya Fransa’da Loi Avia Yasası, a.g.e.

[135] Örneğin bkz. Birleşik Krallık Çevrimiçi Zararlar/Çevrimiçi Güvenlik Yasa Tasarısı teklifleri, a.g.e.

[136] Örneğin, İrlanda’daki teklife göre, Çevrimiçi Güvenlik Komiseri ‘kullanıcıların diğer kullanıcıların kullanıma sunduğu içeriği paylaşmasına, yaymasına veya erişmesine izin veren herhangi bir çevrimiçi hizmeti’ belirleme konusunda takdir yetkisine sahip olacaktır, a.g.e.

[137] Örneğin bkz. the French Facebook mission report proposal, a.g.e.

[138] Örneğin bkz. Birleşik Krallık Çevrimiçi Zararlar/Çevrimiçi Güvenlik Yasa Tasarısı teklifleri, a.g.e.

[139] Örneğin bkz. Birleşik Krallık Hükümeti, Online Harms White Paper – Initial consultation response, Şubat 2020.

[140] Bakınız, ARTICLE 19, Response to the Consultations on the White Paper on Online Harms, Haziran 2019.

[141] Örneğin bkz. Hindistan’daki teklif, a.g.e.

[142] Kılavuz İlkeler, a.g.e.

[143] A.g.e. İlke IV

[144] Örneğin bkz. Fransa, İrlanda, Birleşik Krallık ve Avustralya’daki teklifler, a.g.e.

[145] Örneğin bkz. Fransa ve Avustralya’daki teklifler, a.g.e.

[146] Örneğin bkz. Fransa’daki mülga Loi Avia Yasası ve Almanya’da NetzDG, a.g.e.

[147] Örneğin bkz. Fransa’daki mülga Loi Avia Yasası, a.g.e.

[148] Örneğin, Macaristan’a düzenlenen Uluslararası Basın Özgürlüğü Ortak Misyonu’nun bir parçası olan ARTICLE 19, Medya Konseyi’nin bağımsız olmadığı ve tüm üyelerinin Fidesz partisi tarafından atandığı sonucuna varmıştır; bkz. ARTICLE 19, Hungary: Conclusions of the Joint International Press Freedom Mission, 3 Aralık 2019. Ayrıca bkz. ARTICLE 19 and Polish Helsinki Foundation for Human Rights, Poland: independence of public service

media, 31 Ocak 2017.

[149] Örneğin NetzDG, kanun kapsamındaki yükümlülüklere uyma konusunda ‘sistemik’ başarısızlıkların ne anlama geldiğini tanımlamamaktadır. Dahası, önerilen düzenleyici kurumların web sitelerinin engellenmesini emretme yetkileri ve muğlak bir ‘özen yükümlülüğüne’ uymadıkları için üst düzey yönetimin cezalandırılması da bizi endişelendirmektedir; a.g.e.

[150] Örneğin, Hindistan polisi, şirketin iktidar partisi üyelerinin tweetlerini ‘manipüle edilmiş’ medya olarak etiketlemesinin ardından Twitter’ın Hindistan’ın Delhi kentindeki ofislerine baskın düzenlemiştir. Bkz. Buzzfeed, Police In Delhi Have Descended On Twitter Headquarters In The Country, 24 Mayıs 2021.

[151] Örneğin, Avrupa’da önerilen düzenleyici yaklaşımlar kolayca aktarılamayabilir veya başka bir yerde uygun olmayabilir.

[152] Bkz. Dilemma of liability, a.g.e., ve Sidestepping Rights, a.g.e.

[153] Örneğin bkz. AB’de Dijital Hizmetler Yasası ile ilgili tartışmalar, a.g.e.

[154] Bu, Cloudflare gibi şirketlerin 8chan veya DailyStormer gibi web sitelerini barındırdıkları için cezalandırılmaması gerektiği anlamına gelmektedir, a.g.e.

[155] Bkz. Dilemma of liability, a.g.e.

[156] Örnek olarak İngiltere’deki Internet Watch Foundation veya Brezilya’daki SaferNet‘e bakınız.

[157] Manila İlkeleri, a.g.e.

[158] Bu, aynı zamanda AB Üye Devletlerinin çoğunluğunun içtihadıyla da tutarlıdır; örneğin bkz. Avrupa Komisyonu, Overview of the notice and action procedures in EU member states, SMART 2016/0039, Temmuz 2018.

[159] Bkz. Loreal / eBay, C-324/09, 12 Temmuz 2011.

[160] İçerik moderasyon teknolojileri hakkında ayrıntılı bir tartışma için bakınız: Center for Democracy and Technology, Mixed Messages: the limits of automated social media content analysis, Kasım 2017.

[161] Örneğin bkz. Dijital Tek Pazarda AB Telif Hakkı Direktifi.

[162] D. Keller & J. von Hoboken, a.g.e.

[163] A.g.e.

[164] Çocuk istismarı görüntülerinin izlenmesi ve kaldırılmasına yönelik haklara saygılı bir yaklaşımın daha ayrıntılı bir analizi için bakınız: Prostasia, Child protection and the limits of censorship, Temmuz 2018.

[165] Eva Glawischnig-Piesczek v Facebook Ireland Limited, C-18/18 davasının sonuçlarına ilişkin bir analiz için bkz. G. Smith, Notice and stay-down order and impacts on online platforms, Bird & Bird, Ekim 2019. Ayrıca bkz. D. Keller, The CJEU’s new filtering case, the Terrorist Content Regulation, and the Future of Filtering Mandates in the EU, The Center for internet and Society Blog, 2 Aralık 2019.

[166] Bu şeffaflık yükümlülüklerinin neye benzeyebileceğine dair bir örnek için, sosyal medya platformları için medya çeşitliliği kurallarına ilişkin önerilen Alman yasasından ilham alınabilir; bkz. Germany proposes Europe’s first diversity rules for social media platforms, a.g.e.

[167] M. MacCarthy, Transparency requirements for digital social media platforms: Recommendations for policy makers and industry, Working Paper, Transatlantic High Level Working Group on Content Moderation Online and Freedom of Expression, 12 Şubat 2020.

[168] Örneğin bkz. Fransız Facebook Misyonu raporu, a.g.e.

[169] Şirketlerin kendileri bunu içeriğin ‘yaygınlığı’, yani kaç kez görüntülendiği olarak tanımlama eğilimindedir.

[170] İçerik Moderasyonu Uygulamalarının Şeffaflığı ve Hesap Verebilirliğine İlişkin Santa Clara İlkeleri, 2017.

[171] Örneğin bkz. The European Commission and Member States consumer authorities ask social media companies to comply with European consumer rules, 17 Mart 2017.

[172] M. MacCarthy, a.g.e.

[173] Bkz. Sidestepping Rights, a.g.e.

[174] Dijital ekosistemde medya çeşitliliğine ilişkin ARTICLE 19 politika belgesine bakınız, yakında yayımlanacak.

[175] İfade özgürlüğü ve seçimlere ilişkin güncellenmiş ARTICLE 19 politika belgesine bakınız, yakında yayımlanacak.

[176] Uyum hedeflerinin etkisine ilişkin bir tartışma için bkz. Facebook, Charting a way forward: Online content regulation, Şubat 2020.

[177] A.g.e.

[178] Örneğin bkz. V. Baines, On online harms and folk devils: Careful now, 24 Haziran 2019.

[179] Örneğin bkz. Avrupa İnsan Hakları Mahkemesi, Appleby ve diğerleri / Birleşik Krallık, Başvuru No. 44306/98, 6 Mayıs 2003.

[180] Özellikle bkz. H. Tworek, R.Ó Fathaigh, L. Bruggeman, ve C.Tenove, Dispute resolution and content moderation: Fair, accountable, independent, transparent, and effective, Working Paper, Transatlantic Working Group on Content Moderation Online and Freedom of Expression, Ocak 2020.

[181] Örneğin bkz. H. Feld, The Case for the Digital Platform Act: Market structure and regulation of digital platforms, Mayıs 2019.

[182] Daha fazla ayrıntı için bkz. M. Masnick, Protocols, not platforms: A technological approach to free speech, 21 Ağustos 2019; P.F. Docquir and M.L. Stasi, The decline of media diversity – and how we can save it, 21 Ocak 2020; M.L. Stasi, Ensuring pluralism in social media markets: Some suggestions, EUI Working Papers, RSCAS 2020/05, Şubat 2020.