Sosyal Medya Denetimi ve İfade Özgürlüğü
Yazar(lar): Av. Hatice Nur KALAN | Grafik(ler): Evren GÜRDALAR | 7 August 2024, Wednesday 15:53 | 657 görüntüleme
Günümüzün dijital olarak birbirine bağlı dünyasında, sosyal medya platformları günümüzün agorası olma görevi görüyor ve küresel ölçekte fikir ve bilgi alışverişini kolaylaştırıyor. Ancak sosyal medya aynı zamanda bu platformların denetimi ve bunun ifade özgürlüğü üzerindeki etkilerini de ön plana çıkarmıştır. Sosyal medya platformlarının denetimi, 5651 sayılı Kanun çerçevesinde, internet ortamında kişilik haklarının korunması ve zararlı içeriklerin engellenmesi açısından büyük önem taşımaktadır. Ancak bu denetim, aynı zamanda ifade ve düşünce özgürlüğü gibi temel hakların korunmasıyla ilgili soruları da gündeme getirmektedir. Dolayısıyla, sosyal medya platformlarındaki içeriklerin düzenlenmesi ve denetlenmesi sürecinde, kişisel verilerin korunması ve kullanıcıların ifade özgürlüğü arasındaki dengeyi nasıl sağlayacağımız sorusu büyük bir önem arz etmektedir.
İfade özgürlüğü özünde demokratik toplumların temel taşıdır ve bireylerin sansür, cezai yaptırım veya misilleme korkusu olmadan düşünce ve görüşlerini dile getirebilmelerini sağlayan bir araçtır. Sosyal medyanın sınırlanması zor doğası, bu prensibin sürdürülmesinde önemli zorluklar yaratmıştır. Nefret söyleminin, yanlış bilgilendirmenin, tacizin ve diğer zararlı içerik türlerinin yaygınlaşması etkili denetleme stratejilerine olan ihtiyacın ortaya çıkmasına neden olmuştur.
Sosyal medya şirketleri, zararlı içeriğin yayılmasını azaltmak için çeşitli denetleme politikaları ve mekanizmaları uygulayarak bu sorunu çözmeye çalışmaktadırlar. Bunlar; otomatik algoritmalardan rahatsız edici materyali incelemek ve kaldırmakla görevli insan moderatörlere kadar uzanmaktadır. (Detaylı bilgi için bkz.) Bu tür önlemler, güvenli ve kapsayıcı bir çevrimiçi ortamın sürdürülmesi için gerekli olsa da kabul edilebilir çözümlerin ne olması gerektiğine dair kaçınılmaz olarak zor kararları da beraberinde getirmiştir.
Avrupa Birliği üyesi ülkelerde internet üzerindeki içeriği denetimi 2022 yılında yasalaşıp 2024 yılında uygulanmaya başlayan Dijital Hizmetler Sözleşmesi Digital Services Act ile gerçekleşmektedir. Söz konusu düzenleme özellikle sosyal medya platformları üzerine içeriklerini denetlemeleri için büyük sorumluluk yüklemektedir. DSA, sosyal medya platformlarına yasadışı ürünlerin, hizmetlerin ve içeriğin yayılmasını önlemek için tedbirler almasını şart koşmaktadır, özellikle kullanıcıların bu tarz içeriği şikâyet edebilmelerine (flagging) imkân sağlanmasını istemektedir. (Detaylı bilgi için bkz.) Bunun yanında, kaldırılan içeriğin neden kaldırıldığının daha şeffaf ve ulaşılabilir olmasını da hedeflemektedir. Bu amaçla, sosyal medya şirketlerinin içeriklere yönelik aldıkları önlemlerin nedenleri ile birlikte ulaşılma imkânı sunan Dijital Hizmetler Yasası Şeffaflık Veri tabanı DSA Transparency Database kurulmaktadır. Bu düzenleme ile 16 yaşının altındaki kullanıcılara yönelik reklamların yapılması da yasaklanmaktadır. Dijital Hizmetler Sözleşmesi’nin (DSA’nın) uygulanması sırasında regülasyona uymayan sosyal medya platformlarına global yıllık cirolarının %6’sına ulaşan cezalardan, erişime engele kadar çeşitli yaptırımlar da bu düzenleme ile öngörülmektedir. (Detaylı bilgi için bkz.)
Türkiye’den günlük erişimi bir milyon veya on milyondan fazla olan sosyal medya şirketlerinin içerik denetimi konusunda uyguladıkları politikalar şu şekilde özetlenebilir:
Facebook
Facebook'un Topluluk Standartları; nefret söylemi, şiddet ve sansürlenmemiş içerik, çıplaklık ve cinsel aktivite ve sahte hesaplar gibi alanları kapsayarak platformda nelere izin verilip verilmediğini özetlemektedir. Facebook, bu standartları uygulamak için yazılımlardan ve insan moderatörlerin bir kombinasyonundan faydalanmaktadır. (Detaylı bilgi için bkz.) Kullanıcılar bu standartları ihlal ettiğini düşündükleri içerikleri bildirebilmektedirler ve Facebook eylemin gerekli olup olmadığını belirlemek için bu raporları incelemektedir.
Twitter(X)
Twitter Kuralları; taciz, nefret söylemi, tehdit ve sahte kimliğe bürünme (anonim sahte hesaplar) dahil olmak üzere çeşitli taciz edici davranış biçimlerini yasaklamaktadır. Twitter ayrıca bu kuralları uygulamak için otomatik yazılımlar ve gerçek kişiler tarafından yapılan incelemelerden oluşan bir kombinasyon kullanır. Kullanıcılar, ihlallere ilişkin tweetleri ve hesapları bildirebileceklerdir. Twitter da buna göre önlemler almaktadır.
YouTube
YouTube'un Topluluk Kuralları; nefret söylemi, taciz, şiddet, çıplaklık ve cinsel içerik ile zararlı veya tehlikeli içerik de dahil olmak üzere çok çeşitli içerikleri kapsamaktadır. YouTube, bu kuralların uygulanması için çeşitli otomatik sistemlerden ve gerçek kişi olan denetçilerden yararlanmakta olup kullanıcılar, kuralları ihlal ettiğini düşündükleri videoları işaretleyebilmektedirler. YouTube da bu raporları potansiyel işlemler açısından incelemektedir.
Instagram
Instagram'ın Topluluk Kuralları; nefret söylemi, taciz, çıplaklık, cinsel aktivite ve şiddet dahil olmak üzere diğer platformlarla benzer sorunları ele almaktadır. Instagram, bu yönergeleri uygulamak için otomatik teknolojiden ve insan moderatörlerden yararlanmaktadır. Kullanıcılar kuralları ihlal ettiğini düşündükleri içerikleri bildirebilmektedir. Instagram da bu raporları potansiyel eylem açısından incelemektedir.
Reddit
Reddit'in içerik politikası; diğer şeylerin yanı sıra tacizi, zorbalığı, nefret söylemini ve yasa dışı içeriği yasaklamaktadır. Reddit'teki moderasyon büyük ölçüde topluluk odaklıdır; bireysel alt dizinler (konu bazlı topluluklar) kendi kurallarını belirlemekte olup bunları uygulayacak moderatörleri içermektedir. Reddit yöneticileri site genelindeki sorunları denetlemektedir ve ciddi ihlal durumlarına müdahale etmektedir.
TikTok
TikTok'un Topluluk Kuralları; taciz, nefret söylemi, çıplaklık, cinsel aktivite ve tehlikeli davranışlar da dahil olmak üzere bir dizi içeriği kapsamaktadır. Diğer platformlar gibi TikTok da bu kuralları uygulamak için otomatik sistemler ve insan moderatörlerden oluşan bir karışım kullanmaktadır. Kullanıcılar kuralları ihlal ettiğini düşündükleri içerikleri bildirebilirler ve TikTok bu raporları potansiyel eylem açısından incelemektedir.
Sosyal medya platformlarının sorumlulukları hakkında daha kapsamlı bilgi almak için yazımı inceleyebilirsiniz.
Sosyal medya denetimini çevreleyen en önemli tartışmalardan biri sansür kavramı etrafında dönmektedir. Sosyal medya şirketlerinin uygulamalarını eleştirenler, aşırı kısıtlayıcı denetim uygulamalarının muhalif sesleri bastırabileceğini ve bu platformlarda ifade edilen görüş çeşitliliğini sınırlayabileceğini savunmaktadır. (Detaylı bilgi için bkz.) Ayrıca içeriğin denetlenmesinde önyargı ve sübjektif yorum potansiyeline ilişkin endişeler ortaya çıkmakta bu da marjinal veya yenilikçi bakış açılarının bastırılmasına neden olma potansiyeli taşımaktadır.
Bunun tersine, güçlü denetimin savunucuları ise nefret söylemi ve dezenformasyon gibi belirli ifade biçimlerinin bireylere ve genel olarak topluma somut tehditler oluşturduğunu iddia etmektedir. (Detaylı bilgi için bkz.) Belirli içerik türlerinin kısıtlanması anlamına gelse dahi sosyal medya şirketlerinin topluluk standartlarını koruma ve kullanıcıları zarardan koruma sorumluluğuna sahip olduklarını savunmaktadır. Ayrıca sağlıklı söylem ve karşılıklı anlayışa olanak sağlayan olumlu ve saygılı bir çevrimiçi ortamın teşvik edilmesinin önemi vurgulanmaktadır.
Sosyal medya denetimi ile ifade özgürlüğü arasında doğru dengeyi bulmak kolay bir iş değildir. Demokratik değerleri korurken zarara karşı korunma ihtiyacı da dahil olmak üzere, çatışan çıkarların dikkatli bir şekilde değerlendirilmesi gerekmektedir. Bu karmaşıklıkların üstesinden gelmek için şeffaflık, hesap verebilirlik ve paydaş katılımı çok önemli kavramlar olarak önümüze çıkmaktadır.
Sosyal medya şirketleri, denetleme politikaları ve uygulamaları konusunda şeffaf olmalı, kullanıcıların içerik kararlarının ardındaki mantığı anlamalarını ve haksız içerik kaldırma durumlarında başvuru yollarına sahip olmalarını sağlamalıdır. Ayrıca farklı bakış açılarını yansıtmalarını ve temel hakları desteklemelerini sağlamak için, sivil toplum kuruluşları, uzmanlar ve etkilenen topluluklar da dahil olmak üzere paydaşları, denetim politikalarının geliştirilmesi ve değerlendirilmesine aktif olarak dahil etmelidir.
Sonuç olarak; sosyal medya denetiminin amacı muhalifleri bastırmak veya popüler olmayan görüşleri susturmak değil bireylerin anlamlı diyalog kurabilecekleri, fikir alışverişinde bulunabilecekleri ve zarar veya ayrımcılık korkusu olmadan kendilerini ifade edebilecekleri dijital bir alanı teşvik etmek olmalıdır. İfade özgürlüğü ve ölçülülük arasında hassas bir denge kurarak, giderek birbirine bağlanan dünyamızı tanımlayan çok sayıda sesin yansımasını sağlayan hem canlı hem de kapsayıcı çevrimiçi topluluklar geliştirebiliriz.
Bu her şeyden önce sosyal medya platformlarının üzerine düşen ahlaki bir sorumluluktur.
Bugün en çok okunanlar
- HAKARET, TEHDİT VE ŞANTAJ SUÇU İLE KARŞILAŞTIĞIMIZDA NE YAPMALIYIZ?
- TEKNOLOJİ KULLANIMI VE BAĞIMLILIK
- KVKK ve TCK 132. Maddesi Kapsamında Sosyal Medya Mesajları ve Hukuki Sorumluluk
- DİJİTAL OYUNLAR VE BİREYLER ÜZERİNDEKİ ETKİLERİ
- SOSYAL MEDYADA NEFRET SÖYLEMİ: TOPLUMSAL SORUNUN BÜYÜYEN TEHLİKESİ
Yorumlar