Menu Tutup

8 Resiko penggunaan ChatGPT

ChatGPT adalah chatbot AI tangguh yang cepat dan mengesankan, namun banyak orang telah menunjukkan bahwa penggunaan ChatGPT memiliki beberapa jebakan berbahaya. Dari pelanggaran keamanan hingga masalah privasi hingga data yang dirahasiakan. Ada banyak kekhawatiran tentang chatbot bertenaga AI, namun teknologinya sudah dimasukkan ke dalam aplikasi dan berbagai alternative AI yang digunakan oleh jutaan pengguna dari pelajar hingga karyawan perusahaan.

Tanpa ada tanda-tanda perkembangan AI melambat, masalah dengan ChatGPT menjadi lebih penting untuk dipahami. ChatGPT digunakan untuk mengubah masa depan kita, berikut adalah beberapa resiko menggunakan ChatGPT.

resiko penggunaan chatgpt

Apa itu ChatGPT?

ChatGPT adalah model bahasa besar yang dirancang untuk menghasilkan bahasa alami manusia dengan sejarah panjang penciptaan kecerdasan buatan. Sama seperti bercakap-cakap dengan seseorang, kita dapat berbicara dengan ChatGPT dan ia akan mengingat hal-hal yang kita katakan di masa lalu sekaligus mampu mengoreksi dirinya sendiri saat ditantang.

Itu dilatih pada semua jenis teks dari internet, Wikipedia, posting blog, buku, dan artikel akademis. Selain merespons dengan cara yang mirip manusia, ia dapat mengingat informasi tentang dunia kita saat ini plus menarik informasi sejarah dari masa lalu kita.

Mempelajari cara menggunakan ChatGPT itu sederhana dan mudah tertipu karena berpikir bahwa sistem AI bekerja tanpa masalah. Namun beberapa bulan setelah dirilis, masalah utama muncul seputar privasi, keamanan, dan dampaknya yang lebih luas pada kehidupan manusia mulai dari pekerjaan hingga pendidikan.

Resiko penggunaan ChatGPT

1. Ancaman Keamanan dan Masalah Privasi

Pada Maret 2023, pelanggaran keamanan beberapa pengguna di ChatGPT yang melihat percakapannya di sidebar. Secara tidak sengaja berbagi riwayat obrolan pengguna adalah masalah serius bagi perusahaan teknologi mana pun, tetapi ini sangat buruk mengingat banyaknya orang yang menggunakan chatbot.

Organisasi pengawas menduga bahwa peraturan privasi Eropa dilanggar. Setelah menyelidiki masalah tersebut, OpenAI meminta agar OpenAI memenuhi beberapa permintaan untuk mengaktifkan kembali chatbot.

OpenAI akhirnya menyelesaikan masalah dengan regulator dengan membuat beberapa perubahan signifikan. Sebagai permulaan, batasan usia ditambahkan, membatasi penggunaan aplikasi untuk orang 18+ atau 13+ dengan izin wali. Itu juga membuat Kebijakan Privasinya lebih terlihat dan menyediakan formulir Google opt-out bagi pengguna untuk mengecualikan data mereka dari pelatihan ChatGPT dan menghapusnya seluruhnya jika mereka mau.

Perubahan ini merupakan awal yang baik tetapi peningkatan harus diperluas ke semua pengguna ChatGPT. Ini juga bukan satu-satunya cara ChatGPT menimbulkan ancaman keamanan. Berbagi informasi rahasia secara tidak sengaja sama mudahnya dengan pengguna.

Salah satu contoh adalah bagaimana karyawan Samsung berbagi informasi perusahaan dengan ChatGPT beberapa kali.

2. Kekhawatiran Tentang Pelatihan ChatGPT dan Masalah Privasi

Menyusul peluncuran ChatGPT yang sangat populer, banyak orang mempertanyakan bagaimana OpenAI melatih modelnya sejak awal. Bahkan dengan perubahan yang lebih baik pada kebijakan privasi OpenAI setelah insiden dengan regulator Italia, itu mungkin tidak cukup untuk memenuhi Peraturan Perlindungan Data Umum (GDPR), undang-undang perlindungan data yang mencakup Eropa.

Kemungkinan besar OpenAI mengambil informasi pribadi saat melatih ChatGPT. Meskipun undang-undang di Amerika Serikat kurang definitif, undang-undang data Eropa masih melindungi data pribadi seseorang, baik informasi tersebut diposting secara publik atau pribadi.

Argumen serupa dilancarkan oleh seniman yang mengatakan bahwa mereka tidak pernah menyetujui pekerjaan mereka untuk melatih model AI. Pada saat yang sama, Getty Images menggugat Stability.AI karena menggunakan gambar berhak cipta untuk melatih model AInya.

Kurangnya transparansi membuat sulit untuk mengetahui apakah itu dilakukan secara sah. Misalnya kami tidak mengetahui detail tentang bagaimana ChatGPT dilatih, data apa yang digunakan, dari mana asal data, atau seperti apa arsitektur sistem secara detail.

3. Menghasilkan Jawaban yang Salah

Itu gagal dalam matematika dasar, sepertinya tidak bisa menjawab pertanyaan logika sederhana dan bahkan akan memperdebatkan fakta yang sepenuhnya salah. Seperti yang akan dibuktikan oleh orang-orang di media sosial, dalam penggunaan ChatGPT dapat melakukan kesalahan pada beberapa jawaban.

ChatGPT terkadang menulis jawaban yang terdengar masuk akal tetapi salah atau tidak masuk akal. Halusinasi fakta dan fiksi ini seperti yang telah disebutkan, sangat berbahaya sehubungan dengan hal-hal seperti saran medis atau menyampaikan fakta dengan benar pada peristiwa sejarah.

Cara kerja ChatGPT tidak menggunakan internet untuk mencari jawaban, tidak seperti asisten AI lainnya seperti Siri atau Alexa. Tetapi ia membuat kalimat kata demi kata, memilih yang paling mungkin muncul berikutnya berdasarkan pelatihannya. Dengan kata lain, ChatGPT mendapatkan jawaban dengan membuat serangkaian tebakan yang merupakan bagian dari alasan mengapa ChatGPT dapat memperdebatkan jawaban yang salah seolah-olah itu sepenuhnya benar.

Meskipun sangat bagus dalam menjelaskan konsep yang rumit, menjadikannya alat yang ampuh untuk belajar penting untuk tidak memercayai semua yang dikatakannya. ChatGPT tidak selalu benar untuk saat ini.

4. ChatGPT Memiliki Bias Dimasukkan ke dalam Sistemnya

ChatGPT dilatih tentang penulisan kolektif manusia di seluruh dunia, dulu dan sekarang. Sayangnya ini berarti bias yang sama yang ada di dunia nyata juga bisa muncul di model.

ChatGPT telah terbukti menghasilkan beberapa jawaban mengerikan yang mendiskriminasi gender, ras, dan kelompok minoritas yang coba dimitigasi oleh perusahaan.

Salah satu cara untuk menjelaskan masalah ini adalah dengan menunjuk data sebagai masalahnya, menyalahkan umat manusia atas bias yang tertanam di internet dan lainnya. Tetapi sebagian dari tanggung jawab juga terletak pada OpenAI yang peneliti dan pengembangnya memilih data yang digunakan untuk melatih ChatGPT.

Dengan potensi membahayakan orang, kita dapat berargumen bahwa ChatGPT seharusnya tidak dirilis ke publik sebelum masalah ini dipelajari dan diselesaikan. Tetapi perlombaan untuk menjadi perusahaan pertama yang membuat model AI paling kuat mungkin sudah cukup bagi OpenAI untuk berhati-hati.

Sebaliknya, chatbot AI serupa bernama Sparrow yang dimiliki oleh perusahaan induk Google, Alphabet dirilis pada September 2022. Namun sengaja disimpan di balik pintu tertutup karena masalah keamanan yang serupa. Sekitar waktu yang sama, Facebook merilis model bahasa AI yang disebut Galactica yang dimaksudkan untuk membantu penelitian akademis.

Namun dengan cepat ditarik kembali setelah banyak orang mengkritiknya karena memberikan hasil yang salah dan bias terkait dengan penelitian ilmiah.

5. ChatGPT Mungkin Menggantikan Pekerjaan Manusia

Setelah pengembangan dan penerapan ChatGPT yang cepat, itu tidak menghentikan teknologi yang mendasarinya untuk digabungkan ke dalam sejumlah aplikasi komersial. Di antara aplikasi yang telah mengintegrasikan GPT-4 adalah Duolingo dan Khan Academy.

Yang pertama adalah aplikasi pembelajaran bahasa, sedangkan yang kedua adalah alat pembelajaran pendidikan yang beragam. Keduanya menawarkan apa yang pada dasarnya adalah tutor AI, baik dalam bentuk karakter bertenaga AI yang dapat kita ajak bicara dalam bahasa yang kita pelajari. Atau sebagai tutor AI yang dapat memberi kita umpan balik yang disesuaikan dengan pembelajaran.

Ini bisa menjadi awal dari AI memegang pekerjaan manusia. Contoh pekerjaan yang digantikan ChatGPT adalah paralegal, pengacara, copywriter, jurnalis, dan pemrogram. Di satu sisi AI dapat mengubah cara kita belajar, berpotensi membuat pendidikan lebih mudah diakses dan proses pembelajaran sedikit lebih mudah. Namun di sisi lain sebagian besar pekerjaan manusia terancam punah pada saat yang bersamaan.

Kemajuan teknologi selalu mengakibatkan hilangnya pekerjaan, tetapi kecepatan kemajuan AI berarti banyak industri menghadapi perubahan yang cepat sekaligus. Tidak dapat disangkal bahwa ChatGPT dan teknologi yang mendasarinya diatur untuk membentuk kembali dunia modern kita secara drastis.

6. ChatGPT Menantang Pendidikan

Kita dapat meminta ChatGPT untuk mengoreksi tulisan atau menunjukkan cara memperbaiki paragraf. Ada guru telah bereksperimen dengan memberikan tugas bahasa Inggris ke ChatGPT dan telah menerima jawaban yang lebih baik daripada yang dapat dilakukan oleh banyak siswa mereka. Dari menulis surat pengantar hingga mendeskripsikan tema utama dalam karya sastra terkenal, ChatGPT dapat melakukan semuanya.

Itu menimbulkan pertanyaan, jika ChatGPT dapat menulis untuk kami, apakah siswa perlu belajar menulis di masa mendatang? Ini mungkin tampak seperti pertanyaan eksistensial tetapi saat siswa mulai menggunakan ChatGPT untuk membantu menulis esai mereka, sekolah harus memikirkan jawabannya dengan cepat.

Bukan hanya mata pelajaran berbasis bahasa Inggris yang berisiko, ChatGPT dapat membantu tugas apa pun yang melibatkan brainstorming, meringkas, atau menarik kesimpulan cerdas. Sejumlah besar siswa telah menggunakan AI untuk membantu tugas dan ujian. Sebagai tanggapan, beberapa pendidik menulis ulang kursus untuk mengungguli siswa yang menggunakan AI untuk membaca atau menyontek saat ujian.

7. ChatGPT Dapat Menyebabkan Kerusakan di Dunia Nyata

Tidak lama kemudian seseorang mencoba melakukan jailbreak ChatGPT, menghasilkan model AI yang dapat melewati pagar pengaman OpenAI yang dimaksudkan untuk mencegahnya menghasilkan teks yang menyinggung dan berbahaya. Sekelompok pengguna di grup Reddit ChatGPT menamai model AI mereka dengan Dan yang kependekan dari “Do Anything Now”.

Peretas juga menjual layanan ChatGPT tanpa aturan untuk membuat malware dan menghasilkan email phishing. Mencoba menemukan email phishing yang dirancang untuk mengekstrak detail sensitif kini jauh lebih sulit dengan teks buatan AI. Kesalahan tata bahasa yang dulunya merupakan tanda bahaya yang jelas sekarang sudah tidak ada karena ChatGPT dapat dengan lancar menulis semua jenis teks dari esai hingga puisi hingga email yang cerdik.

Penyebaran informasi palsu juga menjadi perhatian serius. Skala di mana ChatGPT dapat menghasilkan teks ditambah dengan kemampuan untuk membuat informasi yang salah sekalipun terdengar benar, membuat segala sesuatu di internet dipertanyakan dan memperkuat bahaya teknologi deepfake.

Tanpa sukarelawan manusia yang cukup untuk memilah-milah backlog, tidak mungkin untuk mempertahankan jawaban kualitas tingkat tinggi. Belum lagi banyak jawaban yang tidak benar. Untuk menghindari kerusakan situs web, jawaban yang dihasilkan menggunakan ChatGPT sekarang dilarang.

8. OpenAI Memegang Semua Kekuatan

Dengan kekuatan besar datang tanggung jawab besar dan OpenAI memegang banyak kekuatan. Ini adalah salah satu perusahaan AI pertama yang benar-benar mengguncang dunia dengan tidak hanya satu tetapi beberapa model AI generatif, termasuk Dall-E 2, GPT-3, dan GPT-4.

Sebagai perusahaan swasta, OpenAI memilih data yang digunakan untuk melatih ChatGPT dan memilih seberapa cepat pengembangan baru diluncurkan. Akibatnya ada banyak ahli di luar sana yang memperingatkan bahaya yang ditimbulkan oleh AI tetapi sedikit tanda-tanda akan melambat.

Sebaliknya popularitas ChatGPT telah memicu perlombaan antara perusahaan teknologi besar yang bersaing untuk meluncurkan model AI besar berikutnya di antaranya adalah Bing AI dari Microsoft dan Bard dari Google. Khawatir bahwa perkembangan pesat akan menyebabkan masalah keamanan yang serius, sebuah surat ditulis oleh para pemimpin teknologi di seluruh dunia yang meminta agar pengembangan ditunda.

Meskipun OpenAI menganggap keselamatan sebagai prioritas utama, ada banyak hal yang tidak kita ketahui tentang cara kerja model itu sendiri, baik atau buruk. Pada akhirnya sebagian besar dari kita harus percaya begitu saja bahwa OpenAI akan meneliti, mengembangkan, dan menggunakan ChatGPT secara bertanggung jawab.

Apakah kita setuju dengan metodenya atau tidak, perlu diingat bahwa OpenAI adalah perusahaan swasta yang akan terus mengembangkan ChatGPT sesuai dengan tujuan dan standar etikanya sendiri.

Mengatasi Masalah dan Resiko AI

Ada banyak hal yang menarik dengan ChatGPT, tetapi di luar penggunaan langsungnya ada beberapa masalah serius. OpenAI mengakui bahwa ChatGPT dapat menghasilkan jawaban yang berbahaya dan bias, berharap dapat mengurangi masalah dengan mengumpulkan umpan balik pengguna. Namun kemampuannya untuk menghasilkan teks yang meyakinkan sangat luarbiasa, meskipun faktanya tidak benar dan dapat dengan mudah digunakan oleh orang jahat.

Pelanggaran privasi dan keamanan telah menunjukkan bahwa sistem OpenAI bisa rentan, membahayakan data pribadi pengguna. Ditambah orang-orang melakukan jailbreak pada ChatGPT dan menggunakan versi tidak terbatas untuk menghasilkan malware dan penipuan dalam skala yang belum pernah kita lihat sebelumnya.

Ancaman terhadap pekerjaan dan potensi mengganggu pendidikan adalah beberapa masalah yang menumpuk. Dengan teknologi baru, sulit untuk memprediksi masalah apa yang akan muncul di masa depan tetapi sayangnya kita tidak perlu melihat terlalu jauh. ChatGPT telah menghasilkan tantangan yang adil untuk saat ini.

Posted in Other

Related Posts

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *