Itu rilis Chat GPT kurang dari enam bulan yang lalu telah menunjukkan kepada kami kemampuan yang tampaknya kuat dari AI generatif, yang dapat menangkap sejumlah besar informasi dan kemudian membuat konten baru yang orisinal setelah menerima perintah dari pengguna terdaftar mana pun.
Impian untuk menghasilkan konten asli untuk penggunaan pribadi dan profesional kami dengan petunjuk sederhana ke chatbot kini telah menjadi kenyataan.
Dalam sekejap, semua orang mampu menulis kode komputer, email canggih, makalah kursus, laporan atau rencana bisnis, puisi, lelucon, dan bahkan membuat musik atau membuat gambar!
Terlepas dari kekuatan yang ditekankan, ChatGPT, yang didasarkan pada Model Pembelajaran Bahasa Besar (LLM), adalah pedang bermata dua dan memiliki beberapa keterbatasan.
Penggunaan yang tidak hati-hati kemungkinan akan menimbulkan implikasi hukum utama yang tidak diinginkan, yaitu Bias Algoritma dan Privasi Konsumen.
Bias algoritma
Bias algoritmik dapat menunjukkan dirinya dalam berbagai cara dengan berbagai tingkat konsekuensi untuk kelompok subjek dalam komunitas pengguna.
Sangat penting untuk diingat bahwa bagian yang paling menantang dari bias algoritmik adalah, tidak seperti bias manusia, sangat mungkin menyebar seperti api.
Sedikit bias dalam data dapat menyebabkan efek riak yang sangat besar.
Sebagai pengakuan atas kenyataan ini, American Bar Association, pada tahun 2019, mengeluarkan resolusi yang mendesak pengadilan dan pengacara untuk mengatasi masalah etika dan hukum yang muncul terkait penggunaan AI, termasuk teknologi LLM yang digunakan di ChatGPT.
Di Uni Eropa, pada bulan Februari tahun ini, pembuat undang-undang utama pada Undang-Undang Kecerdasan Buatan, Benifei dan Tudorache, mengusulkan agar sistem AI yang menghasilkan teks kompleks tanpa pengawasan manusia harus menjadi bagian dari daftar “berisiko tinggi”, untuk mencegah ChatGPT berputar. keluar disinformasi pada skala.
Di Australia, pada bulan Maret tahun ini, seorang walikota regional Australia mengatakan dia dapat menuntut OpenAI jika tidak memperbaiki klaim palsu ChatGPT bahwa dia telah menjalani hukuman penjara karena penyuapan, yang akan menjadi gugatan pencemaran nama baik pertama terhadap layanan teks otomatis.
Brian Hood, yang terpilih sebagai walikota Hepburn Shire, menjadi prihatin dengan reputasinya ketika anggota masyarakat mengatakan kepadanya bahwa ChatGPT telah salah menyebut dia sebagai pihak yang bersalah dalam skandal penyuapan asing yang melibatkan anak perusahaan dari Reserve Bank of Australia pada awal tahun 2000-an. .
Pengacara Brian Hood mengirimkan surat keprihatinan kepada pemilik ChatGPT OpenAI pada 21 Maret, memberi perusahaan waktu 28 hari untuk memperbaiki kesalahan.
Privasi konsumen
Mengembangkan teknologi dengan kemampuan menghasilkan konten baru bagi pengguna, seperti ChatGPT, bergantung pada analisis informasi pribadi yang sangat besar.
Hal ini memicu berbagai risiko privasi data bagi pengguna. Misalnya, transparansi dan persetujuan: Apakah orang mengetahui bagaimana informasi mereka digunakan untuk mengembangkan dan menggunakan teknologi?
Apakah mereka menyetujui penggunaannya atau akankah informasi mereka dianonimkan?
Apakah ambang batas saat ini untuk mendapatkan izin pengguna (yaitu, untuk menjadi spesifik dan terinformasi, serta anak di bawah umur) dapat dicapai mengingat kompleksitas, ketidakpastian, dan potensi ketidakpastian AI?
Awal April tahun ini, Otoritas Perlindungan Data Italia untuk sementara melarang chatbot ChatGPT dan meluncurkan penyelidikan atas dugaan pelanggaran aturan pengumpulan data aplikasi kecerdasan buatan.
Agensi, juga dikenal sebagai Garante, menuduh ChatGPT gagal memeriksa usia penggunanya yang seharusnya berusia 13 tahun ke atas.
Garante mengklaim bahwa ChatGPT memiliki “tidak adanya dasar hukum yang membenarkan pengumpulan dan penyimpanan besar-besaran data pribadi pengguna” untuk “melatih” chatbot.
Rekomendasi
Sudah menjadi kenyataan bahwa dampak LLM seperti ChatGPT diperkirakan akan tumbuh di masa mendatang.
Masalah hukum potensial lainnya termasuk munculnya “LLM gelap”, yang dapat dihosting di web gelap untuk menyediakan chatbot tanpa perlindungan apa pun, serta LLM yang dilatih tentang data yang mungkin sangat berbahaya.
Oleh karena itu, sangat penting bagi pembuat kebijakan dan komunitas penegak hukum untuk mempersiapkan bagaimana penerapan positif dan negatifnya dapat memengaruhi bisnis mereka sehari-hari.
Petugas penegak hukum harus mulai mengembangkan keterampilan yang diperlukan untuk memanfaatkan model seperti ChatGPT secara maksimal.
Ini berarti memahami bagaimana jenis sistem ini dapat dimanfaatkan untuk membangun pengetahuan, memperluas keahlian yang ada, dan memahami cara mengekstraksi hasil yang diperlukan.
Ini menyiratkan bahwa petugas harus dapat menilai konten yang dihasilkan oleh model AI generatif dalam hal akurasi dan potensi bias.
Dengan kemajuan teknologi, dan model-model baru yang tersedia, penegakan hukum akan semakin penting untuk tetap berada di garis depan perkembangan ini untuk mengantisipasi dan mencegah penyalahgunaan, serta untuk memastikan manfaat potensial dapat dimanfaatkan sepenuhnya.
Dr Sia Chin Chin adalah direktur program untuk Program Magister Hukum dan dosen senior di Taylor’s Law School, Fakultas Bisnis dan Hukum di Taylor’s University. Komentar: surat@thesundaily.com
Untuk para togeler yang tertinggal dalam melihat hasil live draw hk malam hari ini. Hingga disini para togeler tidak butuh takut. Sebab seluruh hasil https://connected-day.com/ hk hari ini udah kita tulis dengan cara apik ke dalam bagan data hk 2021 https://fantasypros911.com/ terdapat di atas. Dengan begitulah para togeler https://totohk.co/ bisa memandang semua hasil pengeluaran hk terlengkap menjadi berasal dari beberapa https://fashion-gaul.com/ lantas lebih-lebih th. lebih dahulu.