OpenAI telah berubah dari sikap defensif menjadi peran legislatif yang aktif, yang menandakan arah baru dalam cara perusahaan menavigasi risiko hukum yang semakin besar akibat kecerdasan buatan. Perusahaan ini kini secara terbuka mendukung rancangan undang-undang negara bagian Illinois, SB 3444, yang berupaya melindungi pengembang AI “perbatasan” dari tanggung jawab hukum jika terjadi kerugian sosial yang besar.
Inti dari SB 3444: Melindungi Pengembang dari “Bahaya Kritis”
Undang-undang yang diusulkan menciptakan “pelabuhan aman” hukum bagi pengembang model AI bertenaga tinggi. Berdasarkan RUU tersebut, perusahaan tidak akan bertanggung jawab atas “kerusakan kritis”—yang didefinisikan sebagai insiden yang mengakibatkan kematian atau cedera serius pada 100 orang atau lebih, atau kerusakan properti melebihi $1 miliar—asalkan perusahaan tersebut memenuhi dua kriteria spesifik:
1. Mereka tidak bertindak sengaja atau ceroboh dalam menyebabkan kejadian tersebut.
2. Mereka telah menerbitkan laporan keselamatan, keamanan, dan transparansi secara berkala.
RUU tersebut secara khusus menargetkan “model terdepan”—model yang memerlukan biaya komputasi lebih dari $100 juta untuk pelatihannya. Definisi ini secara efektif mencakup industri kelas berat, termasuk OpenAI, Google, Meta, Anthropic, dan xAI.
Cakupan “kerusakan kritis” mencakup skenario ekstrem, seperti pelaku kejahatan yang menggunakan AI untuk mengembangkan senjata kimia, biologi, radiologi, atau nuklir, atau model AI yang bertindak secara mandiri dengan cara yang dapat dianggap sebagai tindak pidana jika dilakukan oleh manusia.
Pergeseran Strategis Menuju Harmonisasi Federal
Langkah ini mewakili perubahan signifikan dalam pendekatan OpenAI. Sebelumnya, sebagian besar perusahaan berfokus pada peraturan yang bertentangan yang mungkin membuat mereka bertanggung jawab atas kerugian yang disebabkan oleh teknologi mereka. Dengan mendukung SB 3444, OpenAI mencoba membentuk aturan main, bukan hanya bereaksi terhadap aturan tersebut.
OpenAI berpendapat bahwa pendekatan ini memiliki dua tujuan utama:
– Mitigasi Risiko: Ini memfokuskan upaya regulasi pada sistem yang paling canggih dan berpotensi berbahaya.
– Standardisasi: Hal ini bertujuan untuk mencegah “tambal sulam” undang-undang yang berbeda di setiap negara bagian, yang dapat menimbulkan gesekan hukum dan memperlambat inovasi.
“Bintang utama dalam regulasi perbatasan adalah penerapan model paling canggih secara aman dengan cara yang juga mempertahankan kepemimpinan AS dalam inovasi,” kata Caitlin Niedermeyer dari tim Urusan Global OpenAI.
Perspektif ini sejalan dengan tren Silicon Valley yang lebih luas: keinginan akan kerangka federal terpadu yang memastikan perusahaan-perusahaan Amerika dapat bersaing secara global tanpa terhambat oleh persyaratan tingkat negara bagian yang tidak konsisten.
Rintangan: Sentimen Publik dan Preseden Hukum
Meskipun mendapat dukungan dari raksasa industri, rancangan undang-undang tersebut menghadapi jalan yang sulit di Illinois. Negara bagian ini memiliki sejarah regulasi teknologi yang agresif, termasuk undang-undang awal mengenai data biometrik dan layanan kesehatan mental.
Kritikus dan pakar kebijakan menyampaikan beberapa kekhawatiran penting:
– Oposisi Publik: Data menunjukkan bahwa mayoritas penduduk Illinois menentang pemberian pengecualian tanggung jawab kepada perusahaan AI.
– Kerusakan Individu vs. Massal: Meskipun SB 3444 berfokus pada korban massal dan bencana bernilai miliaran dolar, SB 3444 tidak menangani kerugian pada tingkat individu. OpenAI telah menghadapi tuntutan hukum dari keluarga yang menuduh bahwa model AI mereka berkontribusi terhadap bunuh diri anak-anak melalui hubungan pengguna yang tidak sehat.
– Kesenjangan Akuntabilitas: Para penentang berpendapat bahwa tidak ada alasan mengapa perusahaan AI yang ada harus menghadapi pengurangan tanggung jawab, terutama karena model mereka menjadi lebih kuat dan tidak dapat diprediksi.
Kekosongan Regulasi
Saat ini, Amerika Serikat tidak memiliki undang-undang federal yang komprehensif yang mengatur tanggung jawab AI. Meskipun lembaga eksekutif telah mengeluarkan kerangka kerja dan perintah, Kongres belum mengeluarkan undang-undang yang pasti. Kekosongan hukum ini telah memaksa negara-negara bagian seperti California dan New York untuk mengambil tindakan dalam memenuhi persyaratan keamanan dan transparansi mereka sendiri.
Ketika model AI terus berkembang menuju otonomi yang lebih besar, pertanyaan tentang siapa yang bertanggung jawab ketika sebuah mesin menyebabkan bencana masih menjadi salah satu dilema hukum dan etika yang paling mendesak di zaman modern.
Kesimpulan: Dukungan OpenAI terhadap SB 3444 menandai upaya untuk memberikan perlindungan hukum bagi pengembang terhadap kegagalan AI yang sangat besar, dengan tujuan untuk menyeimbangkan keselamatan dengan kebutuhan akan kepemimpinan teknologi nasional. Namun, RUU ini menghadapi hambatan besar dari opini publik dan badan legislatif negara bagian yang terkenal dengan pengawasan teknologi yang ketat.
