Jawaban singkat: Tidak ada satu pun persentase AI yang dapat diterima. Tingkat yang tepat bergantung pada taruhannya, apa yang telah dibentuk oleh AI, dan apakah manusia tetap bertanggung jawab. Keterlibatan AI dapat substansial dalam pekerjaan internal berisiko rendah ketika fakta diperiksa, tetapi harus tetap terbatas ketika kesalahan dapat menyesatkan, menyebabkan kerugian, atau mensimulasikan keahlian.
Poin-poin utama:
Akuntabilitas : Tetapkan satu orang sebagai penanggung jawab untuk setiap hasil akhir yang Anda publikasikan.
Tingkat risiko : Gunakan lebih banyak AI untuk tugas internal berisiko rendah dan lebih sedikit untuk pekerjaan sensitif yang berhadapan langsung dengan publik.
Verifikasi : Tinjau setiap klaim, angka, kutipan, dan referensi sebelum menerbitkan konten yang dibantu AI.
Transparansi : Ungkapkan keterlibatan AI ketika otomatisasi tersembunyi dapat membuat audiens merasa disesatkan.
Kontrol suara : Biarkan AI mendukung struktur dan pengeditan, sementara penilaian dan gaya manusia tetap memegang kendali.

🔖 Anda Mungkin Juga Suka:
🔗 Apa itu etika AI?
Menjelaskan prinsip-prinsip AI yang bertanggung jawab, keadilan, transparansi, dan dasar-dasar akuntabilitas.
🔗 Apa itu bias AI?
Membahas jenis-jenis bias, penyebab, dampak, dan pendekatan mitigasinya.
🔗 Apa itu skalabilitas AI?
Menjelaskan secara rinci tentang penskalaan sistem AI, kinerja, biaya, dan kebutuhan infrastruktur.
🔗 Apa itu AI prediktif?
Mendefinisikan AI prediktif, kasus penggunaan utama, model, dan manfaatnya.
Mengapa pertanyaan “Berapa Persentase AI yang Dapat Diterima?” masih relevan hingga sekarang? 🤔
Belum lama ini, "bantuan AI" berarti koreksi otomatis dan pemeriksa ejaan. Sekarang, AI dapat melakukan brainstorming, membuat kerangka, menulis, menulis ulang, meringkas, menerjemahkan, menghasilkan gambar, merapikan spreadsheet, membuat kode, dan mengkritik kalimat Anda yang kurang tepat dengan sopan. Jadi pertanyaannya bukanlah apakah AI terlibat - AI sudah terlibat.
Pertanyaan tersebut lebih tepat dibaca sebagai:
-
Di mana letak tanggung jawab. (Anda, tim Anda, editor Anda, alatnya…) Prinsip-prinsip AI OECD
-
Apa yang sedang dihasilkan. (Sebuah puisi, catatan medis, kebijakan hukum, esai sekolah…) Panduan WHO tentang AI generatif di bidang kesehatan
-
Siapa yang membacanya dan mengapa. (Pelanggan, siswa, pemilih, pasien, atasan Anda.)
-
Apa yang bisa salah. (Informasi yang salah, nuansa plagiarisme, masalah kepatuhan, kerusakan merek.) OpenAI: mengapa model bahasa berhalusinasi. Panduan AI dari Kantor Hak Cipta AS.
Dan, secara agak menyimpang, "persentase" bisa jadi kurang penting daripada apa yang disentuh AI. Menambahkan AI ke "variasi judul" tidak sama dengan menambahkan AI ke "nasihat keuangan," meskipun keduanya secara teknis mengandung 30% AI atau berapa pun. 🙃
Apa yang membuat versi "persentase AI yang dapat diterima" menjadi baik? ✅
Jika kita membangun "versi yang baik" dari konsep ini, konsep tersebut harus berfungsi dalam praktik sehari-hari, bukan hanya terlihat rapi secara filosofis.
Kerangka kerja yang baik untuk pertanyaan "Berapa Persentase AI yang Dapat Diterima?" adalah:
-
Sadar konteks : pekerjaan berbeda, taruhan berbeda. NIST AI RMF 1.0
-
Berbasis hasil : akurasi, orisinalitas, dan nilai praktis lebih penting daripada uji kemurnian.
-
Agak bisa diaudit : Anda dapat menjelaskan apa yang terjadi jika seseorang bertanya. Prinsip-prinsip AI OECD
-
Dimiliki manusia : seseorang yang nyata bertanggung jawab atas hasil akhir (ya, meskipun itu menjengkelkan). Prinsip-prinsip AI OECD
-
Menghormati audiens : orang benci merasa tertipu - bahkan ketika kontennya "baik-baik saja." Rekomendasi UNESCO tentang Etika AI
Selain itu, seharusnya tidak perlu melakukan akrobat mental seperti “Apakah kalimat itu 40% AI atau 60%?” karena jalan itu akan berujung pada kegilaan… seperti mencoba mengukur seberapa banyak keju yang mendominasi lasagna. 🧀
Cara sederhana untuk mendefinisikan “persentase AI” tanpa membuat Anda pusing 📏
Sebelum membahas perbandingan, berikut model yang masuk akal. Bayangkan penggunaan AI dalam beberapa lapisan:
-
Lapisan Ide (curah pendapat, pemicu, kerangka kerja)
-
Lapisan Draf (penulisan tahap pertama, struktur, pengembangan)
-
Edit Layer (pengeditan kejernihan, penghalusan nada, tata bahasa)
-
Lapisan Fakta (klaim, statistik, kutipan, spesifikasi)
-
Lapisan Suara (gaya, humor, kepribadian merek, pengalaman hidup)
Jika AI banyak menyentuh Lapisan Fakta, persentase yang dapat diterima biasanya turun dengan cepat. Jika AI sebagian besar berada di lapisan Ide + Edit, orang cenderung lebih santai. OpenAI: mengapa model bahasa berhalusinasi Profil GenAI NIST (AI RMF)
Jadi ketika seseorang bertanya Berapa Persentase AI yang Dapat Diterima?, saya menerjemahkannya menjadi:
Lapisan mana yang dibantu AI, dan seberapa berisiko lapisan tersebut dalam konteks ini? 🧠
Tabel Perbandingan - “resep” umum penggunaan AI dan di mana letaknya 🍳
Berikut ini adalah contekan praktis. Terdapat sedikit ketidaksempurnaan format karena tabel sebenarnya tidak pernah sempurna, bukan?.
| alat/pendekatan | hadirin | harga | mengapa ini berhasil |
|---|---|---|---|
| Hanya brainstorming AI | penulis, pemasar, pendiri | gratis hingga berbayar | Menjaga orisinalitas manusia, AI hanya memicu ide - seperti rekan kerja yang berisik sambil minum espresso |
| Kerangka AI + draf manusia | blogger, tim, mahasiswa (secara etis) | rendah hingga menengah | Strukturnya menjadi lebih cepat, suara tetap milik Anda. Cukup aman jika faktanya terverifikasi |
| Draf manusia + proses penyuntingan AI | sebagian besar profesional | rendah | Bagus untuk kejelasan + nada. Risiko tetap rendah jika Anda tidak membiarkannya "mengarang" detail. OpenAI: Apakah ChatGPT mengatakan yang sebenarnya? |
| Draf pertama AI + revisi besar-besaran oleh manusia | tim yang sibuk, operasi konten | pertengahan | Cepat, tapi butuh disiplin. Kalau tidak, yang dikirim akan jadi konten yang hambar dan membosankan… maaf ya 😬 |
| Terjemahan AI + tinjauan manusia | tim global, dukungan | pertengahan | Kecepatannya bagus, tetapi nuansa lokal bisa sedikit meleset - seperti sepatu yang hampir pas |
| Ringkasan AI untuk catatan internal | rapat, penelitian, pembaruan eksekutif | rendah | Kemenangan efisiensi. Namun tetap: konfirmasikan keputusan-keputusan penting, karena ringkasan bisa menjadi "kreatif". OpenAI: mengapa model bahasa berhalusinasi. |
| Saran “pakar” yang dihasilkan oleh AI | khalayak umum | bervariasi | Risiko tinggi. Terdengar percaya diri bahkan ketika salah, yang merupakan kombinasi yang suram. WHO: Etika & tata kelola AI untuk kesehatan |
| Konten publik yang sepenuhnya dihasilkan oleh AI | Situs spam, konten pengisi dengan taruhan rendah | rendah | Memang bisa diskalakan, tetapi kepercayaan dan diferensiasi seringkali terganggu dalam jangka panjang. Rekomendasi UNESCO tentang Etika AI |
Anda akan menyadari bahwa saya tidak menganggap "AI sepenuhnya" sebagai sesuatu yang jahat. Hanya saja... seringkali rapuh, generik, dan berisiko merusak reputasi ketika berhadapan dengan manusia. 👀
Persentase AI yang dapat diterima berdasarkan skenario - rentang realistis 🎛️
Oke, mari kita bicara angka - bukan sebagai hukum, tetapi sebagai batasan. Ini adalah kisaran "yang saya butuhkan untuk bertahan hidup sehari-hari".
1) Konten pemasaran dan blog ✍️
-
Seringkali dapat diterima: dukungan AI 20% hingga 60%.
-
Risiko meningkat tajam ketika: klaim menjadi spesifik, perbandingan menjadi agresif, testimoni muncul, atau Anda menyajikannya sebagai "pengalaman hidup pribadi" Komentar FTC yang merujuk pada risiko klaim pemasaran AI Pedoman AI dari Kantor Hak Cipta AS
AI dapat membantu Anda bergerak lebih cepat di sini, tetapi audiens dapat mencium konten generik seperti anjing mencium bau ketakutan. Metafora saya yang agak kaku adalah: copywriting pemasaran yang sarat AI seperti parfum yang disemprotkan ke cucian yang belum dicuci - sudah berusaha, tetapi ada yang salah. 😭
2) Karya akademik dan tugas mahasiswa 🎓
-
Sering kali dapat diterima: 0% hingga 30% (tergantung pada aturan dan tugasnya)
-
Penggunaan yang lebih aman: curah pendapat, membuat kerangka, memeriksa tata bahasa, penjelasan studi.
-
Risiko meningkat tajam ketika: AI menulis argumen, analisis, atau “pemikiran orisinal” DfE: AI Generatif dalam pendidikan
Isu besar bukan hanya soal keadilan, tetapi juga pembelajaran. Jika AI yang berpikir, otak siswa hanya duduk di bangku sambil makan irisan jeruk.
3) Penulisan di tempat kerja (email, dokumen, SOP, catatan internal) 🧾
-
Sering dapat diterima: 30% hingga 80%
-
Mengapa begitu tinggi? Menulis internal adalah tentang kejelasan dan kecepatan, bukan kemurnian sastra.
-
Risiko meningkat tajam ketika: bahasa kebijakan memiliki implikasi hukum, atau akurasi data menjadi penting. NIST AI RMF 1.0
Banyak perusahaan diam-diam sudah beroperasi dengan "bantuan AI tingkat tinggi". Mereka hanya tidak menyebutnya demikian. Lebih tepatnya, mereka mengatakan "kami efisien" - dan itu wajar.
4) Dukungan pelanggan dan respons obrolan 💬
-
Seringkali dapat diterima: 40% hingga 90% dengan pagar pengaman.
-
Tidak dapat ditawar: jalur eskalasi, basis pengetahuan yang disetujui, tinjauan ketat untuk kasus-kasus khusus.
-
Risiko meningkat tajam ketika: AI membuat janji, pengembalian dana, atau pengecualian kebijakan. OpenAI: Apakah ChatGPT mengatakan yang sebenarnya? Profil NIST GenAI (AI RMF)
Pelanggan tidak keberatan dengan bantuan yang cepat. Mereka keberatan dengan bantuan yang salah. Mereka lebih keberatan lagi dengan bantuan yang salah namun penuh percaya diri.
5) Jurnalisme, informasi publik, kesehatan, topik yang berkaitan dengan hukum 🧠⚠️
-
Sering dapat diterima: bantuan penulisan AI 0% hingga 25%
-
Lebih dapat diterima: AI untuk transkripsi, ringkasan kasar, dan pengorganisasian.
-
Risiko meningkat tajam ketika: AI “mengisi kekosongan” atau menghaluskan ketidakpastian menjadi kepastian palsu AP: Standar seputar AI generatif Panduan WHO tentang AI generatif di bidang kesehatan
Di sini, "persentase" bukanlah sudut pandang yang tepat. Anda menginginkan kontrol editorial manusia dan verifikasi yang kuat. AI dapat membantu, tetapi seharusnya bukan otak penentu keputusan. Kode Etik SPJ
Faktor kepercayaan - mengapa pengungkapan informasi mengubah persentase yang dapat diterima 🧡
Orang tidak hanya menilai konten berdasarkan kualitasnya. Mereka menilainya berdasarkan hubungannya . Dan hubungan itu melibatkan perasaan. (Menyebalkan, tapi memang benar.)
Jika audiens Anda percaya:
-
Kamu transparan,
-
Kamu bertanggung jawab,
-
Anda tidak berpura-pura ahli,
…maka Anda seringkali dapat menggunakan lebih banyak AI tanpa menimbulkan reaksi negatif.
Namun jika audiens Anda merasakan:
-
otomatisasi tersembunyi,
-
“Kisah pribadi” palsu
-
otoritas yang dibuat,
…maka bahkan kontribusi AI yang kecil pun dapat memicu reaksi “tidak, saya tidak ikut”. Dilema transparansi: Pengungkapan AI & kepercayaan (Schilke, 2025) Makalah Oxford Reuters Institute tentang pengungkapan AI & kepercayaan (2024)
Jadi, ketika Anda bertanya "Berapa Persentase AI yang Dapat Diterima?" , sertakan variabel tersembunyi ini:
-
Apakah Anda percaya rekening bank Anda tinggi? Anda bisa menghabiskan lebih banyak uang dengan AI.
-
Kepercayaan terhadap rekening bank rendah? AI menjadi kaca pembesar untuk setiap hal yang Anda lakukan.
“Masalah suara” - mengapa persentase AI dapat secara diam-diam meratakan pekerjaan Anda 😵💫
Sekalipun AI akurat, ia sering kali menghaluskan sisi-sisi yang tidak terlihat. Dan sisi-sisi itulah tempat kepribadian berada.
Gejala penggunaan AI yang berlebihan pada lapisan suara:
-
Semuanya terdengar sopan dan optimis, seolah-olah mencoba menjual sofa berwarna krem kepada Anda
-
Leluconnya berhasil… tapi kemudian mereka meminta maaf
-
Pendapat yang kuat seringkali terkikis menjadi "tergantung"
-
Pengalaman spesifik menjadi "banyak orang mengatakan"
-
Tulisan Anda kehilangan ciri khas kecil yang unik (yang biasanya menjadi keunggulan Anda)
Inilah mengapa banyak strategi “AI yang dapat diterima” terlihat seperti ini:
-
AI membantu dalam hal struktur dan kejelasan.
-
Manusia menyediakan selera + penilaian + cerita + pendirian 😤
Karena rasa adalah bagian yang paling sulit untuk diotomatisasi tanpa berubah menjadi bubur oatmeal.
Bagaimana cara menetapkan kebijakan persentase AI yang tidak akan gagal pada argumen pertama 🧩
Jika Anda melakukan ini untuk diri sendiri atau tim, jangan membuat kebijakan seperti ini:
“Tidak lebih dari 30% AI.”
Orang-orang akan langsung bertanya, “Bagaimana cara kita mengukurnya?” lalu semua orang akan lelah dan kembali mengandalkan intuisi.
Sebaliknya, tetapkan aturan berdasarkan lapisan dan risiko : NIST AI RMF 1.0 Prinsip AI OECD
Templat kebijakan yang dapat diterapkan (cobalah ini)
-
AI memungkinkan: brainstorming, pembuatan kerangka, pengeditan untuk kejelasan, pemformatan, draf terjemahan ✅
-
AI dibatasi untuk: analisis orisinal, klaim akhir, topik sensitif, "saran ahli" yang ditujukan untuk publik ⚠️ WHO: Etika & tata kelola AI untuk kesehatan
-
Selalu diperlukan: peninjauan oleh manusia, pengecekan fakta untuk hal-hal spesifik, persetujuan akuntabilitas 🧍
-
Tidak pernah diperbolehkan: testimoni palsu, kredensial fiktif, cerita "Saya sudah mencoba ini" yang dibuat-buat 😬 Komentar FTC yang merujuk pada klaim AI yang menyesatkan Reuters: Penindakan FTC terhadap klaim AI yang menyesatkan (2024-09-25)
Kemudian, jika Anda memerlukan angka, tambahkan rentang:
-
Risiko rendah internal: hingga “bantuan tingkat tinggi”
-
Konten publik: “bantuan moderat”
-
Informasi penting: “bantuan minimal”
Ya, memang kabur. Hidup itu kabur. Mencoba membuatnya jelas justru akan menghasilkan aturan-aturan tak masuk akal yang tidak diikuti siapa pun. 🙃
Daftar periksa mandiri praktis untuk pertanyaan “Berapa Persentase AI yang Dapat Diterima?” 🧠✅
Saat Anda memutuskan apakah penggunaan AI Anda dapat diterima, periksa hal-hal berikut:
-
Anda bisa membela proses tersebut dengan lantang tanpa merasa canggung.
-
AI tidak mengajukan klaim apa pun yang tidak Anda verifikasi. OpenAI: Apakah ChatGPT mengatakan yang sebenarnya?
-
Suara yang dihasilkan terdengar seperti Anda, bukan seperti pengumuman di bandara.
-
Jika seseorang mengetahui bahwa AI bermanfaat, mereka tidak akan merasa tertipu. Reuters dan AI (pendekatan transparansi)
-
Jika ini salah, Anda dapat menyebutkan siapa yang dirugikan - dan seberapa parah. NIST AI RMF 1.0
-
Anda memberikan nilai tambah yang nyata, alih-alih hanya menekan tombol Hasilkan dan langsung mengirimkannya.
Jika bola-bola itu mendarat dengan bersih, "persentase" Anda mungkin sudah tepat.
Selain itu, sedikit pengakuan: terkadang penggunaan AI yang paling etis adalah menghemat energi Anda untuk bagian-bagian yang membutuhkan otak manusia. Bagian-bagian yang sulit. Bagian-bagian yang paling rumit. Bagian-bagian "Saya harus memutuskan apa yang saya percayai". 🧠✨
Rekap singkat dan catatan penutup 🧾🙂
Jadi - Berapa Persentase AI yang Dapat Diterima? lebih bergantung pada taruhan, lapisan, verifikasi, dan kepercayaan . NIST AI RMF 1.0
Jika Anda menginginkan makanan untuk dibawa pulang yang sederhana:
-
Risiko rendah + pekerjaan internal: AI dapat menjadi bagian besar (bahkan sebagian besar) jika manusia bertanggung jawab. Prinsip-prinsip AI OECD
-
Konten publik: AI bagus untuk peran pendukung, tetapi penilaian manusia harus menjadi penentu pesan.
-
Informasi berisiko tinggi (kesehatan, hukum, keselamatan, jurnalisme): minimalkan bantuan AI dan awasi secara ketat. Panduan WHO tentang AI generatif di bidang kesehatan. AP: Standar seputar AI generatif.
-
Jangan pernah menggunakan AI untuk memalsukan pengalaman hidup, kredensial, atau hasil - di situlah kepercayaan akan mati 😬 Komentar FTC yang merujuk pada klaim AI yang menipu Panduan AI dari Kantor Hak Cipta AS
Dan berikut pernyataan saya yang sedikit berlebihan (karena manusia memang sering begitu):
Jika pekerjaan Anda dibangun di atas kepercayaan, maka "AI yang dapat diterima" adalah apa pun yang masih melindungi kepercayaan itu ketika tidak ada yang mengawasi. Rekomendasi UNESCO tentang Etika AI
Berikut adalah versi FAQ yang lebih ringkas dan terstruktur:
Pertanyaan yang Sering Diajukan (FAQ)
Berapa persentase AI yang dapat diterima di sebagian besar jenis pekerjaan?
Tidak ada satu persentase pun yang cocok untuk setiap tugas. Standar yang lebih baik adalah menilai penggunaan AI berdasarkan taruhan yang terlibat, risiko kesalahan, harapan audiens, dan bagian pekerjaan yang dibantu oleh AI. Persentase yang tinggi mungkin sangat tepat untuk catatan internal, sementara persentase yang jauh lebih rendah lebih bijaksana untuk materi yang ditujukan untuk publik atau materi yang sensitif.
Bagaimana cara mengukur penggunaan AI tanpa terlalu terpaku pada persentase yang tepat?
Pendekatan praktisnya adalah berpikir secara berlapis daripada mencoba memberi nomor pada setiap kalimat. Artikel ini membingkai penggunaan AI di seluruh lapisan ide, draf, penyuntingan, fakta, dan suara. Hal itu membuat penilaian risiko lebih mudah, karena keterlibatan AI dalam fakta atau suara pribadi biasanya lebih penting daripada bantuan dalam brainstorming atau tata bahasa.
Berapa persentase AI yang dapat diterima untuk postingan blog dan konten pemasaran?
Untuk postingan blog dan pemasaran, dukungan AI sekitar 20% hingga 60% dapat diterapkan. AI dapat membantu dalam penyusunan kerangka, struktur, dan pembersihan, asalkan manusia tetap mengontrol suara dan memverifikasi klaim. Risiko meningkat dengan cepat ketika konten mencakup perbandingan yang kuat, testimoni, atau bahasa yang menyiratkan pengalaman pribadi.
Apakah boleh menggunakan AI untuk tugas sekolah atau penulisan akademis?
Dalam lingkungan akademis, penggunaan yang dapat diterima seringkali jauh lebih rendah, umumnya sekitar 0% hingga 30%, tergantung pada aturan dan tugas yang diberikan. Penggunaan yang lebih aman meliputi curah pendapat, pembuatan kerangka, dukungan tata bahasa, dan bantuan belajar. Masalah mulai muncul ketika AI memberikan analisis, argumen, atau pemikiran orisinal yang diharapkan dihasilkan oleh siswa.
Seberapa banyak AI yang dapat diterima untuk dokumen dan email internal di tempat kerja?
Penulisan di tempat kerja seringkali merupakan salah satu kategori yang lebih fleksibel, dengan bantuan AI sekitar 30% hingga 80% yang umum. Banyak dokumen internal dinilai lebih berdasarkan kejelasan dan kecepatan daripada orisinalitas. Meskipun demikian, peninjauan manusia tetap penting ketika materi tersebut mencakup bahasa kebijakan, detail sensitif, atau klaim faktual yang penting.
Bisakah tim dukungan pelanggan sangat bergantung pada balasan AI?
Dalam banyak alur kerja, ya, meskipun hanya dengan pengamanan yang ketat. Artikel tersebut menyarankan sekitar 40% hingga 90% dukungan AI untuk respons pelanggan ketika tim memiliki jalur eskalasi, sumber pengetahuan yang disetujui, dan tinjauan untuk kasus-kasus yang tidak biasa. Bahaya yang lebih besar bukanlah otomatisasi itu sendiri, tetapi AI yang membuat janji, pengecualian, atau komitmen yang terlalu percaya diri yang sebenarnya tidak pernah dimaksudkan untuk dibuat.
Berapa persentase AI yang dapat diterima untuk bidang kesehatan, hukum, jurnalisme, atau topik-topik penting lainnya?
Di bidang yang berisiko tinggi, pertanyaan persentase kurang penting daripada pertanyaan kontrol. AI dapat membantu dalam transkripsi, ringkasan kasar, atau pengorganisasian, tetapi penilaian dan verifikasi akhir harus tetap dilakukan oleh manusia. Di bidang-bidang ini, bantuan penulisan AI yang dapat diterima seringkali dijaga seminimal mungkin, sekitar 0% hingga 25%, karena biaya kesalahan yang disengaja jauh lebih tinggi.
Apakah pengungkapan penggunaan AI membuat orang lebih menerimanya?
Dalam banyak kasus, transparansi lebih memengaruhi reaksi daripada persentase mentah itu sendiri. Orang cenderung lebih nyaman dengan bantuan AI ketika prosesnya terasa terbuka, akuntabel, dan tidak disamarkan sebagai keahlian manusia atau pengalaman hidup. Bahkan sedikit otomatisasi tersembunyi dapat mengikis kepercayaan ketika pembaca merasa disesatkan tentang siapa yang menciptakan karya tersebut.
Mengapa AI terkadang membuat tulisan terasa hambar meskipun secara teknis benar?
Artikel tersebut menggambarkan hal ini sebagai masalah suara. AI sering kali menghaluskan prosa menjadi sesuatu yang dipoles namun generik, yang dapat menghilangkan humor, keyakinan, kekhususan, dan karakter individual. Itulah mengapa banyak tim membiarkan AI mendukung struktur dan kejelasan sementara manusia tetap memegang kendali atas selera, penilaian, penceritaan, dan sudut pandang yang kuat.
Bagaimana sebuah tim dapat menetapkan kebijakan AI yang akan diikuti oleh orang-orang?
Kebijakan yang dapat diterapkan biasanya berfokus pada tugas dan risiko daripada batasan persentase yang kaku. Artikel ini merekomendasikan untuk mengizinkan AI untuk brainstorming, membuat kerangka, mengedit, memformat, dan menerjemahkan draf, sementara membatasinya untuk analisis orisinal, subjek sensitif, dan saran ahli. Kebijakan ini juga harus mensyaratkan peninjauan manusia, pengecekan fakta, akuntabilitas, dan larangan yang jelas terhadap testimoni palsu atau pengalaman yang direkayasa.
Referensi
-
Organisasi Kesehatan Dunia (WHO) - Panduan WHO tentang AI generatif di bidang kesehatan - who.int
-
Organisasi Kesehatan Dunia (WHO) - Etika & tata kelola AI untuk kesehatan - who.int
-
Institut Standar dan Teknologi Nasional (NIST) - AI RMF 1.0 - nvlpubs.nist.gov
-
Institut Standar dan Teknologi Nasional (NIST) - Profil GenAI (AI RMF) - nvlpubs.nist.gov
-
Organisasi untuk Kerja Sama Ekonomi dan Pembangunan (OECD) - Prinsip-prinsip AI OECD - oecd.ai
-
UNESCO - Rekomendasi tentang Etika AI - unesco.org
-
Kantor Hak Cipta AS - Panduan kebijakan AI - copyright.gov
-
Komisi Perdagangan Federal (FTC) - Komentar yang merujuk pada risiko klaim pemasaran AI - ftc.gov
-
Departemen Pendidikan Inggris (DfE) - AI Generatif dalam pendidikan - gov.uk
-
Associated Press (AP) - Standar seputar AI generatif - ap.org
-
Perhimpunan Jurnalis Profesional (SPJ) - Kode Etik SPJ - spj.org
-
Reuters - Tindakan keras FTC terhadap klaim AI yang menyesatkan (2024-09-25) - reuters.com
-
Reuters - Reuters dan AI (pendekatan transparansi) - reuters.com
-
Universitas Oxford (Reuters Institute) - Pengungkapan & Kepercayaan AI (2024) - ora.ox.ac.uk
-
ScienceDirect - Dilema transparansi: Pengungkapan AI & kepercayaan (Schilke, 2025) - sciencedirect.com
-
OpenAI - Mengapa model bahasa berhalusinasi - openai.com
-
Pusat Bantuan OpenAI - Apakah ChatGPT mengatakan yang sebenarnya? - help.openai.com