CHATBOTS mengambil dunia teknologi dan seluruh dunia dengan badai untuk alasan yang bagus. Alat model bahasa besar (LLM) kecerdasan buatan (AI) dapat menulis hal-hal dalam hitungan detik yang akan memakan waktu berjam-jam atau berhari-hari bagi manusia, mulai dari makalah penelitian hingga puisi hingga siaran pers, dan ya, hingga kode komputer dalam berbagai bahasa pemrograman.
Ini berarti, seperti yang telah ditunjukkan oleh parade organisasi dan peneliti, mereka dapat digunakan dalam pengembangan perangkat lunak.
Tetapi jika Anda mempertimbangkan untuk bergabung dengan pawai itu, Anda perlu memastikan bahwa itu tidak membawa organisasi Anda ke badai yang salah karena itu bisa terjadi.
Apakah AI merupakan ancaman eksistensial?
Memang, di tengah kegembiraan dan geli tentang apa yang bisa dilakukan chatbot, ada kepanikan yang tersembunyi bahwa mereka dapat segera melakukan hal-hal yang tidak kita inginkan, dan kita tidak akan dapat menghentikan mereka.
Sebenarnya, ini lebih dari arus bawah. Akhir bulan lalu, Future of Life Institute menerbitkan surat terbuka yang ditandatangani oleh sekitar 1.400 orang sejauh ini, termasuk tokoh teknologi seperti pemilik Twitter dan CEO Tesla Elon Musk dan salah satu pendiri Apple Steve Wozniak, menyerukan “jeda” selama enam bulan. pada penelitian dan pelatihan sistem AI yang lebih kuat daripada iterasi terbaru ChatGPT OpenAI, berlabel GPT-4.
Menurut surat itu, “perlombaan di luar kendali untuk mengembangkan dan menyebarkan pikiran digital yang semakin kuat yang tidak seorang pun – bahkan penciptanya – dapat memahami, memprediksi, atau mengendalikannya dengan andal berarti kita berisiko kehilangan kendali atas peradaban kita. ”.
Tentu saja, itu disambut dengan badai metafora lain yang menyatakan bahwa tidak masuk akal untuk meminta jeda dunia pada teknologi apa pun yang sudah ada.
Silakan pilih: kuda keluar dari gudang, kucing keluar dari tas, kereta api telah meninggalkan stasiun, Anda tidak dapat memasukkan kembali pasta gigi ke dalam tabung, jin keluar dari botol atau Kotak Pandora sudah membuka.
Sebuah aset untuk pembangunan
Tetapi sementara semua itu sedang di-hash (atau tidak), kenyataan saat ini adalah bahwa ChatGPT dan AI LLM lainnya ada di sini, dan mereka dapat menulis kode yang cukup bagus dengan sangat cepat, yang dapat membantu atau merugikan Anda.
Kuncinya adalah mengetahui bagaimana mempertahankannya di sisi “membantu Anda” untuk organisasi Anda.
Jamie Boote, konsultan senior di Grup Integritas Perangkat Lunak Synopsys, merangkumnya dalam satu kalimat: “Memahami apa itu AI dan tidak pandai adalah kuncinya.”
Memang, memahami itu berarti Anda cenderung menggunakannya untuk hal yang salah.
Ternyata, bahkan di iterasi awal, cukup bagus dalam beberapa hal.
Diberi prompt atau serangkaian prompt yang tepat, chatbots dapat merespons dengan substansi yang luar biasa dalam hitungan detik.
Tidak perlu “berpikir”, tidak perlu membaca latar belakang atau wawancara, dan tidak perlu menghabiskan waktu mengetuk keyboard komputer.
Teks mengalir seolah-olah telah disalin dan ditempel, yang memang ada.
Boote mencatat bahwa sejak ChatGPT diluncurkan pada akhir November, nilainya adalah bahwa ia dapat melakukan pekerjaan kasar pemrograman jauh lebih cepat daripada pengembang junior dan bekerja 24/7 – tidak perlu gaji, tunjangan, atau istirahat makan siang.
“Dulu Anda membutuhkan otak manusia untuk itu,” katanya, “tetapi karena ChatGPT telah dilatih – mungkin berbulan-bulan atau bertahun-tahun pelatihan model ini – semua pekerjaan yang diunggah di muka berarti dapat merespons dalam hitungan detik.”
Dan selama sejumlah besar data yang diandalkannya akurat, yang Anda dapatkan juga akurat.
Cukup baik?
Namun ternyata, “cukup baik” bukan berarti sempurna.
Enrique Dans, menulis di Medium, menyebut AI LLMs “versi teks yang diperkecil secara mengesankan fungsi pelengkapan otomatis pada ponsel cerdas atau email kami, yang kadang-kadang tampak ‘pintar’ (dan di waktu lain, sangat bodoh)”.
Tinjauan ChatGPT di ZDNet menyimpulkan bahwa “jika Anda meminta ChatGPT untuk mengirimkan aplikasi lengkap, itu akan gagal. Di mana ChatGPT berhasil dan melakukannya dengan sangat baik, membantu seseorang yang sudah tahu cara membuat kode untuk membuat rutinitas tertentu dan menyelesaikan tugas tertentu.”
Dan sebuah artikel di majalah Wired mencatat bahwa “chatbots ini sangat interaktif, cerdas, kreatif, dan terkadang bahkan menyenangkan. Mereka juga pembohong kecil yang menawan: Kumpulan data yang mereka latih penuh dengan bias dan beberapa jawaban yang mereka keluarkan, dengan otoritas yang tampak seperti itu, tidak masuk akal, ofensif, atau sekadar salah”.
Atau dalam hal pengkodean, kurang informasi yang sangat penting.
Pengambilan sinopsis
Sebuah tim peneliti Synopsys baru-baru ini menunjukkan bahwa kode yang ditulis oleh alat pengembangan AI generatif GitHub, Copilot (dibuat dalam kemitraan dengan OpenAI dan digambarkan sebagai keturunan GPT-3) tidak menemukan konflik lisensi sumber terbuka. Mengabaikan konflik lisensi bisa sangat mahal.
Salah satu contoh paling terkenal adalah Cisco yang gagal memenuhi persyaratan Lisensi Publik Umum GNU, di mana router Linux dan program perangkat lunak sumber terbuka lainnya didistribusikan.
Setelah Free Software Foundation mengajukan gugatan, Cisco terpaksa mengumumkan kode sumber itu kepada publik.
Jumlah uang yang dikeluarkan perusahaan tidak pernah diungkapkan, tetapi sebagian besar ahli mengatakan jumlahnya besar.
Ini seharusnya tidak menjadi kejutan. Seperti yang diakui oleh setiap vendor alat AI LLM, mereka hanya sebagus kumpulan data yang telah mereka latih dan seperti yang telah ditunjukkan dengan ChatGPT.
Mereka akan menyatakan kepalsuan dengan tingkat keyakinan yang sama bahwa mereka menyatakan kebenaran.
Singkatnya, mereka membutuhkan pengawasan orang dewasa, seperti yang dilakukan pengembang manusia mana pun.
“Alat AI dapat membantu pengembang saat digunakan dalam konteks yang benar, seperti menulis pengujian unit atau memecahkan masalah pelacakan tumpukan tertentu atau otomatisasi tugas berulang,” kata Jagat Parekh, yang merupakan direktur grup rekayasa perangkat lunak di Grup Integritas Perangkat Lunak Synopsys dan pemimpin peneliti yang menguji Copilot.
Namun dia menambahkan bahwa “alat AI generatif hanya sebaik data dasar yang digunakan untuk melatihnya. Ada kemungkinan menghasilkan hasil yang bias, melanggar persyaratan lisensi, atau sekumpulan kode yang direkomendasikan oleh alat memiliki kerentanan keamanan”.
Parekh mengatakan risiko lain yang belum banyak dibahas adalah alat AI dapat merekomendasikan potongan kode untuk mengimplementasikan fungsi umum tertentu dan agar potongan itu menjadi umum digunakan.
Dan jika, setelah semua itu, kerentanan ditemukan dalam cuplikan itu, “sekarang ini menjadi risiko sistemik di banyak organisasi”.
Dia mengatakan bahwa sementara kerentanan ditemukan di hampir setiap basis kode yang ditulis manusia, dengan kode AI yang digunakan secara luas, “skala dampaknya jauh lebih tinggi”.
Itu berarti perangkat lunak yang ditulis oleh chatbots memerlukan tingkat pengawasan pengujian yang sama dengan kode yang ditulis manusia, dengan rangkaian lengkap alat pengujian otomatis untuk analisis statis dan dinamis, analisis komposisi perangkat lunak untuk menemukan kerentanan sumber terbuka dan konflik lisensi, dan pengujian pena sebelum produksi.
“Perhatian terhadap hasil alat AppSec akan membantu organisasi perusahaan mengidentifikasi dan memitigasi risiko kepatuhan, keamanan, dan operasional yang berasal dari adopsi alat yang dibantu AI,” kata Parekh.
Tentu saja, ada kesepakatan umum bahwa LLM AI masih dalam tahap embrionik.
Mereka hanya akan menjadi lebih mampu, kemungkinan besar menjadi lebih baik dan lebih buruk.
Parekh mengatakan masih terlalu dini untuk mengetahui dampak jangka panjang dari teknologi tersebut.
“Secara keseluruhan, versi baru ChatGPT akan membutuhkan lebih sedikit pengawasan dari waktu ke waktu,” katanya.
“Namun, pertanyaan tentang bagaimana hal itu diterjemahkan menjadi kepercayaan tetap terbuka dan itulah mengapa memiliki alat AppSec yang tepat dengan kualitas hasil yang lebih baik menjadi lebih penting dari sebelumnya.”
Atau, dengan kata lain, gunakan chatbot hanya untuk apa yang mereka kuasai dan kemudian ingat bahwa Anda masih perlu mengawasi mereka.
Taylor Armerding adalah advokat keamanan siber di Synopsys Software Integrity Group. Komentar: surat@thesundaily.com
Untuk para togeler yang tertinggal dalam melihat hasil live draw hk malam hari ini. Hingga di sini para togeler tidak butuh takut. Sebab semua hasil https://kamus-online.com/ hk hari ini udah kita tulis bersama langkah apik ke di dalam bagan data hk 2021 https://umojaforum.com/ terkandung di atas. Dengan begitulah para togeler https://totohk.co/ mampu melihat seluruh hasil pengeluaran hk terlengkap mulai dari beberapa https://unubo.app/ sesudah itu apalagi tahun lebih dahulu.