Menu Tutup

5 Alasan kenapa perusahaan melarang ChatGPT

Terlepas dari kemampuannya yang mengesankan, beberapa perusahaan besar telah melarang ChatGPT untuk digunakan oleh karyawannya. Pada Mei 2023, Samsung melarang ChatGPT dan alat AI generatif lainnya. Kemudian pada Juni 2023, Commonwealth Bank of Australia mengikutinya bersama dengan perusahaan seperti Amazon, Apple, dan JPMorgan Chase & Co.

Beberapa rumah sakit, firma hukum, dan lembaga pemerintah juga melarang karyawan menggunakan ChatGPT. Jadi mengapa semakin banyak perusahaan yang melarang ChatGPT? Berikut adalah lima alasan utama resiko penggunaan ChatGPT oleh karyawan.

melarang chatgpt

Alasan kenapa perusahaan melarang ChatGPT

1. Kebocoran Data

ChatGPT membutuhkan data dalam jumlah besar untuk melatih dan beroperasi secara efektif. Chatbot dilatih menggunakan sejumlah besar data yang berasal dari internet dan terus dilatih.

Menurut Laman Bantuan OpenAI, setiap bagian data termasuk detail rahasia pelanggan, rahasia dagang, dan informasi bisnis sensitif yang diberikan ke chatbot dapat ditinjau oleh pelatihnya yang mungkin menggunakan data untuk meningkatkan sistem mereka.

Banyak perusahaan tunduk pada peraturan perlindungan data yang ketat. Akibatnya mereka berhati-hati dalam berbagi data pribadi dengan entitas eksternal karena hal ini meningkatkan risiko kebocoran data.
Selain itu OpenAI tidak menawarkan perlindungan data dan jaminan kerahasiaan yang sangat mudah.

ada Maret 2023, OpenAI mengonfirmasi bug yang memungkinkan beberapa pengguna melihat judul obrolan di riwayat pengguna aktif lainnya. Meskipun bug ini telah diperbaiki dan OpenAI meluncurkan program bug bounty, perusahaan tidak menjamin keamanan dan privasi data pengguna.

Banyak organisasi memilih untuk membatasi karyawan menggunakan ChatGPT untuk menghindari kebocoran data yang dapat merusak reputasi mereka sehingga menyebabkan kerugian finansial dan membahayakan pelanggan dan karyawan mereka.

2. Risiko Keamanan Siber

Meskipun tidak jelas apakah ChatGPT benar-benar rentan terhadap risiko keamanan dunia maya, ada kemungkinan penerapannya dalam suatu organisasi dapat menimbulkan potensi kerentanan yang dapat dieksploitasi oleh penyerang dunia maya. Inilah salah satu resiko menggunakan ChatGPT yang menakutkan.

Jika sebuah perusahaan mengintegrasikan ChatGPT dan terdapat kelemahan dalam sistem keamanan chatbot, penyerang dapat mengeksploitasi kerentanan dan menyuntikkan kode malware. Selain itu kemampuan ChatGPT untuk menghasilkan respons seperti manusia adalah suatu celah bagi penyerang phishing yang dapat mengambil alih akun atau menyamar sebagai entitas yang sah untuk menipu karyawan perusahaan agar membagikan informasi sensitif.

3. Pembuatan Chatbot yang Dipersonalisasi

Terlepas dari fitur-fiturnya yang inovatif, ChatGPT dapat menghasilkan informasi yang salah dan menyesatkan. Akibatnya banyak perusahaan membuat AI chatbots untuk tujuan kerja. Misalnya Commonwealth Bank of Australia meminta karyawannya untuk menggunakan Gen.ai, chatbot kecerdasan buatan (AI) yang menggunakan informasi CommBank untuk memberikan jawaban dan memanfaatkan penggunaan Chatbots AI untuk Perbankan.

Perusahaan seperti Samsung dan Amazon telah mengembangkan model bahasa alami yang canggih, sehingga bisnis dapat dengan mudah membuat dan menerapkan chatbot yang dipersonalisasi berdasarkan transkrip yang ada. Dengan chatbot internal ini kita dapat mencegah konsekuensi hukum dan reputasi yang terkait dengan kesalahan penanganan data.

4. Kurangnya Regulasi

Dalam industri di mana perusahaan tunduk pada protokol dan sanksi peraturan, kurangnya panduan peraturan ChatGPT adalah tanda bahaya. Tanpa ketentuan peraturan yang tepat yang mengatur penggunaan ChatGPT, perusahaan dapat menghadapi konsekuensi hukum yang berat saat menggunakan chatbot AI untuk operasi mereka.

Selain itu kurangnya regulasi dapat mengurangi akuntabilitas dan transparansi perusahaan. Sebagian besar perusahaan mungkin bingung menjelaskan proses pengambilan keputusan model bahasa AI dan langkah-langkah keamanan kepada pelanggan mereka.

Perusahaan membatasi ChatGPT karena takut akan potensi pelanggaran undang-undang privasi dan peraturan khusus industri.

5. Penggunaan yang Tidak Bertanggung Jawab oleh Karyawan

Di banyak perusahaan, beberapa karyawan hanya mengandalkan respons ChatGPT untuk membuat konten dan menjalankan tugas mereka. Hal ini menimbulkan kemalasan di lingkungan kerja dan menghambat kreativitas dan inovasi.

Ketergantungan AI dapat menghambat kemampuan kita untuk berpikir kritis. Itu juga dapat merusak kredibilitas perusahaan karena ChatGPT sering memberikan data yang tidak akurat dan tidak dapat diandalkan.

Meskipun ChatGPT adalah alat yang ampuh, menggunakannya untuk menjawab pertanyaan kompleks yang memerlukan keahlian khusus dapat merusak operasi dan efisiensi perusahaan. Beberapa karyawan mungkin tidak ingat untuk memeriksa fakta dan memverifikasi tanggapan yang diberikan oleh chatbot AI, memperlakukan tanggapan sebagai solusi satu ukuran untuk semua.

Untuk mengurangi masalah seperti ini, perusahaan melarang chatbot sehingga karyawan dapat fokus pada tugas mereka dan memberikan solusi bebas kesalahan kepada pengguna.

Larangan menggunakan ChatGPT

Perusahaan yang melarang ChatGPT mengindikasikan risiko keamanan siber, standar etika karyawan, dan tantangan kepatuhan terhadap peraturan. Ketidakmampuan ChatGPT untuk mengatasi tantangan ini sambil memberikan solusi industri membuktikan keterbatasannya dan perlu berkembang lebih jauh.

Sementara itu, perusahaan beralih ke chatbot alternatif atau hanya membatasi karyawan untuk menggunakan ChatGPT untuk menghindari potensi pelanggaran data dan keamanan yang tidak dapat diandalkan serta protokol peraturan yang terkait dengan chatbot.

Posted in Other

Related Posts

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *