Di Mana AI Tidak Boleh Duduk
Sesi 8.9 · ~5 menit baca
Batas yang Permanen
Setiap sesi di modul ini membahas di mana AI menambah nilai. Sesi ini membahas di mana AI ga boleh dipakai. Ini bukan limitasi sementara yang akan membaik dengan model yang lebih canggih. Ini batas arsitektural yang ada karena keputusan tertentu butuh hal-hal yang ga dimiliki AI: penilaian, etika, akuntabilitas, dan pengalaman hidup.
Mengabaikan batas-batas ini bukan cuma menghasilkan konten jelek. Tapi menghasilkan konten yang secara mendasar ga jujur, karena menyajikan penilaian mesin sebagai penilaian manusia.
Lima Kategori Pengecualian
1. Pemilihan Topik
AI ga kenal audiens kamu. Ga tahu apa yang mereka perjuangkan, apa yang udah mereka baca, apa yang bikin mereka ga bisa tidur, atau apa yang akan mereka perhatikan. AI bisa menyarankan topik berdasarkan search volume atau trending keywords. Saran-saran itu generik by definition, karena berasal dari data agregat, bukan dari pemahaman pembaca spesifik kamu.
Memilih apa yang mau ditulis itu keputusan strategis. Ini menentukan seperti apa karya kamu secara keseluruhan. Biarkan AI yang memutuskan, dan katalog konten kamu jadi ga bisa dibedakan dari setiap content plan lain yang disarankan AI di niche kamu.
2. Penilaian Etis
Haruskah kamu publish konten ini? Apakah klaim ini adil terhadap orang atau perusahaan yang dibahas? Apakah rekomendasi ini memperhitungkan risiko yang mungkin dihadapi pembaca kalau mengikutinya? Apakah ini waktu yang tepat untuk publish topik ini?
Ini pertanyaan etis. Model AI dilatih untuk jadi "helpful, harmless, and honest," yang dalam praktiknya berarti mereka menghindari kontroversi dan default ke jawaban aman dan generik. Itu bukan etika. Etika butuh menimbang nilai-nilai yang bersaing dan membuat keputusan yang bisa kamu pertahankan. AI ga bisa melakukan itu. Dia cuma bisa mengikuti pola di training data-nya.
| Keputusan | Kenapa AI Gagal | Yang Kamu Lakukan Sebagai Gantinya |
|---|---|---|
| Timing publikasi | Ga bisa menilai konteks sosial atau pasar | Terapkan penilaian kamu tentang audiens dan situasi |
| Keadilan kritik | Default ke keseimbangan samar, bukan penilaian jujur | Putuskan apa yang adil berdasarkan bukti dan nilai-nilai kamu |
| Risiko bagi pembaca | Ga bisa memodelkan konsekuensi nyata dari saran | Pertimbangkan apa yang terjadi kalau pembaca mengikuti saran dan gagal |
| Menangani topik sensitif | Terlalu banyak kualifikasi sampai ga mengatakan apa-apa | Bahas topik langsung dengan kehati-hatian yang sesuai |
3. Self-Verification
AI ga bisa secara andal mendeteksi halusinasinya sendiri. Ketika model generate statistik yang kedengaran masuk akal, dia ga punya mekanisme internal untuk memverifikasi apakah statistik itu nyata. Menanyakan model yang sama "Apakah fakta ini benar?" menghasilkan penilaian kepercayaan berdasarkan training data yang sama yang menghasilkan fakta itu, bukan verifikasi independen.
Inilah kenapa pendekatan "AI cek AI" gagal di tahap fact-checking. Pakai search API untuk automated fact-checking. Pakai penilaian manusia untuk verifikasi akhir. Jangan pernah biarkan model yang sama yang generate klaim juga memverifikasinya.
4. Merepresentasikan Pengalaman Pribadi
AI ga punya pengalaman. Dia punya teks tentang pengalaman. Perbedaannya sangat besar dalam konten. "Aku menghabiskan tiga tahun membangun software supply chain dan bagian tersulit bukan teknologinya" itu pernyataan yang cuma bisa dibuat oleh orang yang benar-benar membangun software supply chain. AI bisa generate kalimat yang kelihatan seperti pengalaman pribadi. Setiap satunya rekayasa.
Perspective bank dari Module 6 kamu ada untuk alasan ini. Pengalaman pribadi disuntikkan ke konten dari observasi kamu sendiri yang terdokumentasi, bukan di-generate AI. Kalau sebuah konten menyertakan anekdot pribadi, anekdot itu harus milik kamu.
5. Persetujuan Publikasi
Keputusan akhir untuk publish itu keputusan manusia. Ini menggabungkan semua yang ada di hulu: Apakah akurat? Apakah ditulis dengan baik? Apakah sesuai brand? Apakah tepat waktu? Apakah memenuhi standar kamu? AI ga bisa menjawab pertanyaan-pertanyaan ini karena AI ga punya standar. Dia punya parameter. Standar butuh kepedulian terhadap hasil, yang butuh menjadi seseorang yang punya sesuatu yang dipertaruhkan.
Kelima batas ini bukan limitasi model saat ini. Ini limitasi arsitektur. Model yang lebih baik akan generate prosa yang lebih baik, tapi ga akan mendapat penilaian, etika, akuntabilitas, atau pengalaman hidup. Itu tetap wilayah manusia. Selamanya.
Mendokumentasikan Batas Kamu
Tulis daftar "Tanpa AI" kamu. Tempel di tempat kamu kerja. Ketika tekanan untuk kirim lebih cepat menggoda kamu untuk membiarkan AI membuat keputusan yang seharusnya ga boleh, daftar itu jadi jangkar kamu. Standar cuma berfungsi kalau berlaku di saat ga enak untuk mengikutinya.
Bacaan Lanjutan
- Agentic Workflows in AI: A Complete Guide, Kernshell
- AI Agent Workflows: Everything You Need to Know, GoodData
- Search Quality Evaluator Guidelines, Google
Tugas
Tulis daftar "Tanpa AI" untuk pipeline kamu. Sertakan minimal 5 tugas spesifik di mana AI dikecualikan secara permanen. Untuk setiap item:
- Sebutkan tugasnya
- Jelaskan dalam satu kalimat kenapa AI dikecualikan
- Jelaskan apa yang kamu lakukan sebagai gantinya
Tempel daftar ini di ruang kerja kamu. Kalau kamu bekerja dengan orang lain yang pakai pipeline kamu, bagikan ke mereka. Batas yang cuma ada di kepala kamu itu batas yang akan dilanggar.