Menggugat Algoritma

oleh -0 views
oleh

‎Oleh: Prof. Dr. Harris Arthur Hedar, SH, MH.

‎Dalam beberapa dekade terakhir, kita telah menyaksikan pergeseran fundamental dalam cara manusia mengonsumsi informasi. Jika dahulu kurasi informasi dilakukan oleh redaktur, editor, atau mekanisme profesional lainnya, saat ini kurasi tersebut telah sepenuhnya diserahkan kepada algoritma.

‎Algoritma—yang dirancang untuk memaksimalkan engagement dan retention—bekerja tanpa henti. Membaca perilaku digital kita. Lalu membentuk habit, dan pada akhirnya mendikte kecenderungan manusia.

‎Fenomena ini bukan sekadar persoalan teknologi. Melainkan persoalan hukum dan peradaban. Akibatnya, kita terjebak dalam apa yang disebut sebagai echo chamber (ruang gema) dan filter bubble (gelembung filter).

‎Seseorang akan terus-menerus mendapat paparan informasi dari satu perspektif yang sejenis.

‎Seiring waktu, sifat dan sikap manusia terbentuk menjadi kaku: Sulit beradaptasi. Sulit menerima perbedaan pendapat. Bahkan sulit menerima fakta yang bertentangan dengan konstruksi realitas yang dibangun oleh algoritma.

‎Ketika kondisi ini mencapai puncaknya, algoritma tidak lagi sekadar “merekomendasikan” konten. Ia menyumbang polarisasi. Menggesek kohesi sosial, dan dalam kasus-kasus ekstrem, menyumbang perilaku kekerasan. Kejahatan. Hingga bunuh diri.

‎Pertanyaan besar yang kemudian muncul di ranah hukum: Jika algoritma merugikan dan menjadikan manusia korban, siapa yang dapat disalahkan? Siapa yang bisa digugat? Apakah algoritma kebal hukum?

‎Pelaku Tanpa Wujud

‎Dalam tradisi hukum perdata, kita terbiasa dengan subjek hukum yang jelas. Jika rokok menyebabkan kanker, kita menggugat perusahaan rokok. Jika kosmetik menyebabkan kerusakan kulit, kita menggugat produsen kosmetik. Jika makanan ultra-proses menyebabkan penyakit metabolik, kita menggugat pabrik makanan. Ada entitas berbadan hukum yang menjadi representasi fisik dari produk tersebut.

‎Namun, algoritma berbeda. Ia bukan barang. Ia bukan produk dalam arti klasik. Ia adalah kode, sistem, atau black box yang terus berkembang secara dinamis.

‎Ketika sebuah algoritma di media sosial “memacu” seseorang untuk melakukan kekerasan dalam rumah tangga setelah terpapar konten misoginis secara masif, atau ketika algoritma “mendorong” seorang remaja menuju konten pro-anorexia hingga bunuh diri, siapa yang berada di kursi tergugat?

‎Hukum acara kita mengenal class action atau gugatan perwakilan kelompok. Namun, langkah ini sulit ditempuh karena syarat utama gugatan adalah identitas tergugat yang jelas dan hubungan kausalitas yang tegas antara perbuatan tergugat dan kerugian yang diderita. Di sinilah letak kompleksitasnya.

‎Ada kesulitan membuktikan hubungan langsung antara algoritma dan kerugian (misal: bunuh diri) karena perusahaan teknologi sering berlindung di balik argumen “kehendak bebas” pengguna.

‎Apakah kita menggugat korporasi pemilik platform? Apakah kita menggugat software engineer yang menulis kode? Apakah kita menggugat model matematika yang tidak memiliki niat jahat (mens rea)?

‎Keterbatasan Dogma Hukum

‎Saat ini, seolah-olah algoritma berada dalam ruang impunitas hukum. Perlindungan hukum yang diberikan oleh Section 230 di Amerika Serikat, atau prinsip intermediary liability di beberapa negara sering kali menjadi tameng bagi platform digital. Mereka berargumen bahwa mereka hanyalah “saluran” (pembawa), bukan “penerbit” konten.

‎Padahal, realitas menunjukkan bahwa algoritma tidaklah netral. Algoritma adalah arsitektur perilaku (architecture of behavior).

‎Jika dalam hukum pidana dikenal doktrin causa causans (penyebab dari penyebab), maka sesungguhnya algoritma adalah causa causans dari banyak kejahatan baru di era digital. Namun, karena tidak adanya entitas fisik yang secara langsung melakukan kekerasan, hukum positif kita saat ini kesulitan menjerat.

‎Tiga Tantangan Besar

‎Pertama: Kausalitas Hukum. Membuktikan bahwa algoritma secara langsung menyebabkan kekerasan atau bunuh diri memang sulit. Perusahaan teknologi akan selalu menunjuk pada “kehendak bebas” korban atau pelaku sebagai intervening cause. Meskipun dalam perspektif psikologi dan neurosains, algoritma yang dirancang dengan teknik behavioral reinforcement, telah secara sistematis menghilangkan kemampuan rasionalitas pengguna secara bertahap.

‎Kedua: Status Subjek Hukum. Algoritma tidak memiliki status sebagai subjek hukum. Ia bukan badan hukum, bukan pula manusia. Dalam ranah gugatan perdata, class action membutuhkan pihak yang digugat. Tanpa adanya konstruksi yuridis yang memandang algoritma sebagai “produk” yang cacat (product defect) dalam definisi yang lebih luas, maka korban hanya bisa meratapi kerugiannya tanpa keadilan restitutif.

‎Ketiga: Yurisdiksi. Perusahaan pengembang algoritma umumnya berada di yurisdiksi asing. Platform global sering kali berada di luar jangkauan hukum nasional negara berkembang, sehingga meskipun ada niat untuk menggugat, eksekusi putusan menjadi utopia.

‎Pertanggungjawaban Hukum Progresif

‎Sudah saatnya akademisi dan praktisi hukum berani melampaui dogmatisme hukum klasik. Kita tidak bisa terus menerus memperlakukan algoritma sebagai entitas yang kebal hukum dengan dalih “netralitas teknologi”. Teknologi tidak pernah netral. Ia membawa misi, desain, dan konsekuensi.

‎Ada beberapa jalan dapat ditempuh:

‎Pertama, memperluas interpretasi kealpaan berat (gross negligence) dalam hukum perdata.

‎Jika sebuah platform mengetahui (atau seharusnya mengetahui) bahwa desain algoritmanya berpotensi menciptakan polarisasi ekstrem atau memicu kekerasan, namun tetap mengedepankan engagement demi keuntungan, maka platform tersebut telah melakukan kealpaan yang menimbulkan kerugian massal.

‎Kedua, merekonseptualisasi algoritma sebagai produk dalam ranah product liability.

‎Meskipun algoritma tidak berwujud fisik, ia adalah komoditas yang didistribusikan, dijual dalam bentuk perhatian pengguna atau attention economy, dan memiliki cacat desain (design defect) yang mematikan. Gugatan class action dapat diarahkan kepada korporasi di balik algoritma tersebut dengan menggunakan teori design defect layaknya gugatan terhadap produk berbahaya.

‎Ketiga, mendorong adanya kewajiban fidusia algoritmik (algorithmic fiduciary duty).

‎Sama seperti dokter yang memiliki kewajiban fidusia terhadap pasiennya, atau pengacara terhadap kliennya. Platform digital yang memiliki pengaruh luar biasa terhadap psikis dan perilaku manusia semestinya memiliki kewajiban hukum untuk tidak merugikan penggunanya secara sistemik.

‎Indonesia juga dapat mengambil refleksi dari Uni Eropa yang telah meluncurkan Digital Services Act (DSA). Regulasi ini secara revolusioner mendekonstruksi kekebalan hukum platform digital melalui:

‎Algorithmic Accountability. Platform besar (VLOPs) wajib melakukan audit independen terhadap algoritma mereka. Mereka tidak lagi bisa berlindung di balik kerahasiaan dagang, jika algoritma tersebut terbukti mengancam kesehatan mental atau diskursus demokrasi.

‎Risk Mitigation. Jika algoritma terdeteksi menyumbang pada perilaku menyimpang atau kekerasan, perusahaan platform wajib melakukan mitigasi. Kegagalan mitigasi adalah pelanggaran hukum, bukan sekadar “kesalahan teknis”.

‎Rekonseptualisasi Hak Konsumen. Memperluas UU Perlindungan Konsumen dan UU ITE. Perlu adanya perluasan tafsir terhadap hak atas keamanan dan keselamatan konsumen, yang harus mencakup “keamanan kognitif” dan “kesehatan mental”.

‎Kedaulatan Yurisdiksi. Memastikan platform global yang mengambil untung di Indonesia tunduk sepenuhnya pada pengadilan nasional.

‎Selain itu, Indonesia juga dapat mempelajari regulasi di beberapa negara lain. Seperti yang diterapkan di China melalui Algorithmic Recommendation Management Provisions. Yakni melarang algoritma yang “mendorong kecanduan” atau “mengganggu ketertiban sosial” serta memberikan hak kepada pengguna untuk mematikan rekomendasi algoritma.

‎Atau seperti yang diterapkan di Kanada, melalui Artificial Intelligence and Data Act (AIDA), yakni mengatur sistem AI berdampak tinggi untuk memastikan tidak ada bias sistemik dan kerugian fisik/psikologis.

‎Studi Kasus Internasional

‎Terdapat beberapa preseden hukum yang relevan untuk kita gunakan sebagai bahan referensi dan pembelajaran.

‎Kasus “Design Defect” dan Kesehatan Mental di Amerika Serikat. Pada tahun 2022, beberapa keluarga di AS menggugat Meta (Instagram) dan Snapchat. Mereka menuduh bahwa desain algoritma yang adiktif secara sengaja mendorong remaja ke arah konten gangguan makan (eating disorders) dan pikiran bunuh diri.

‎Penggugat tidak menyerang kontennya (karena di AS dilindungi Section 230), tetapi menyerang desain fitur. Seperti infinite scroll dan notifikasi yang memicu dopamin, sebagai produk yang berbahaya.

‎Kasus Polarisasi dan Genosida. Dalam konteks konflik di Myanmar, investigasi yang dilakukan PBB, menemukan bahwa algoritma Facebook di Myanmar berperan penting dalam menyebarkan ujaran kebencian yang memicu kekerasan terhadap etnis Rohingya.

‎Sementara di Kenya, tahun 2022, seorang peneliti asal Ethiopia menggugat Meta sebasar 2 Miliar USD dengan argumen bahwa algoritma rekomendasi Facebook memprioritaskan konten kebencian yang memicu kekerasan dalam perang saudara di Ethiopia. Karena sistem tersebut lebih mengutamakan engagement daripada keselamatan manusia.

‎Sedangkan di Belanda, tahun 2020, pengadilan menghentikan penggunaan algoritma pemerintah yang digunakan untuk mendeteksi penipuan penerima bantuan kesejahteraan sosial dalam Kasus SyRI (System Risk Indicator). Pengadilan menyatakan algoritma tersebut melanggar hak privasi dan prinsip transparansi karena cara kerja “kotak hitam” (black box) yang cenderung mendiskriminasi warga di lingkungan miskin.

Kesimpulan

‎Sekali lagi, menggugat algoritma bukanlah upaya untuk menghambat inovasi atau menyalahkan teknologi semata. Ini adalah upaya untuk mengembalikan hukum pada fungsinya yang paling hakiki: Memberikan keadilan bagi korban dan menciptakan keadilan sosial.

‎Selama algoritma mampu membentuk habit, menggesek kohesi sosial, dan menyumbang kekerasan, maka selama itu pula hukum harus berani menjawab pertanyaan: Siapa yang bertanggung jawab?

‎Jangan biarkan algoritma menjadi pengecut hukum yang kebal jerat. Sementara masyarakat terus menjadi korban dalam diam. Perusahaan teknologi yang produk utamanya adalah algoritma, yang merusak kohesi sosial dan kesehatan mental publik sudah seharusnya duduk di kursi tergugat.

‎Jika algoritma secara aktif memilihkan konten untuk pengguna, maka saya berargumen bahwa platform bukan lagi sekadar saluran netral. Melainkan kurator yang harus bertanggung jawab.

‎Maka, jika penyedia platform duduk di kursi tergugat, maka saya –sebagai penggugat– akan mengatakan kepada majelis hakim:

‎“Bahwa tergugat, sebagai penyedia platform, memiliki kendali penuh atas arsitektur algoritma yang didistribusikan kepada publik. Kegagalan tergugat dalam memitigasi risiko desain yang memicu perilaku destruktif merupakan bentuk ‘Product Defect’ yang melanggar hak subjektif konsumen atas keamanan dan keselamatan.”

‎Saatnya hukum hadir sebagai panglima di ruang siber, memastikan bahwa inovasi teknologi selaras dengan martabat manusia dan nilai-nilai keadilan.

‎Jakarta, 18 April 2026

‎Penulis adalah Ketua Umum DPN PERADI PROFESIONAL, Wakil Rektor Universitas Jayabaya Jakarta.

 

No More Posts Available.

No more pages to load.