ChatGPT, Kecerdasan Buatan yang Tidak Gratis Energi
ChatGPT kini menjadi “teman ngobrol” banyak orang di seluruh dunia. Ia bisa menulis esai, membuat kode, hingga menjawab pertanyaan ilmiah dengan cepat. Namun, di balik kemudahannya, ChatGPT bekerja dengan proses komputasi yang sangat rumit. Mesin ini tidak sekadar mengandalkan algoritma sederhana, melainkan dijalankan di ribuan server super canggih yang terus menyala di pusat data. Semua proses itu tentu membutuhkan listrik dalam jumlah besar dan air untuk mendinginkan mesin. Singkatnya, kecanggihan ChatGPT bukan datang secara gratis, melainkan dibayar dengan energi yang besar.
Bagaimana ChatGPT Bekerja di Balik Layar?
Untuk bisa menjawab pertanyaan kita dengan mulus, ChatGPT harus melewati tahap pelatihan atau pre-training. Model ini diberi data dalam jumlah masif miliaran kata dari internet, mulai dari buku, artikel, hingga forum online. Dari sana, ChatGPT belajar mengenali pola bahasa, memahami hubungan antar kata, dan membangun konteks sehingga bisa memprediksi kata selanjutnya dengan akurat.
Arsitektur yang dipakai adalah Transformer, sebuah inovasi yang mengandalkan mekanisme attention agar AI tahu bagian mana dari kalimat yang paling relevan. Proses pelatihan ini sangat mahal secara energi. Untuk melatih GPT-3 saja, peneliti memperkirakan butuh sekitar 1.287 MWh listrik, cukup untuk menyalakan 120 rumah tangga di Amerika selama setahun dan menghasilkan lebih dari 500 ton emisi karbon.
Setelah itu, model disempurnakan dengan Reinforcement Learning from Human Feedback (RLHF). Pada tahap ini, manusia ikut menilai jawaban AI, menentukan mana yang tepat dan mana yang keliru. Hasilnya, ChatGPT jadi lebih sopan, lebih nyambung, dan terasa “manusiawi” ketika digunakan.
Apa yang Terjadi Saat Kita Bertanya?
Ketika pengguna mengetik sebuah pertanyaan, proses yang terjadi sebenarnya tidak sederhana. Pertama, teks kita dipecah menjadi unit kecil yang disebut token. Lalu, mesin menghitung kata atau frasa mana yang paling mungkin muncul berikutnya berdasarkan pola yang sudah dipelajari saat pelatihan. Prediksi ini dilakukan berulang kali hingga membentuk kalimat lengkap. Proses ini disebut inference.
Yang menarik, semua ini tidak berlangsung di ponsel atau komputer kita, melainkan di pusat data cloud. Ribuan GPU dan TPU bekerja secara paralel untuk memproses jutaan token dari pengguna di seluruh dunia. Jadi meskipun jawaban muncul dalam beberapa detik, di balik layar ada aktivitas komputasi super intensif yang membutuhkan energi sangat besar.
ChatGPT Boros Energi? Ini Faktanya
Setiap kali kita mengajukan satu pertanyaan, ChatGPT rata-rata mengonsumsi sekitar 0,3–0,34 Wh listrik, hampir setara dengan satu pencarian di Google. CEO OpenAI, Sam Altman, bahkan menyebut satu pertanyaan ChatGPT juga memerlukan 0,000085 galon air untuk pendinginan server sekitar 1/15 sendok teh. Jika hanya satu orang yang bertanya, angkanya terlihat kecil. Tetapi dalam skala global, cerita berubah drastis.
Bayangkan, jika ada 2 miliar pertanyaan per hari, maka total listrik yang digunakan bisa mencapai 680 MWh dalam sehari. Angka ini setara dengan kebutuhan listrik 50 ribu rumah tangga Amerika. Untuk pendinginan server, miliaran pertanyaan itu bisa menghabiskan jutaan liter air bersih setiap hari. Menurut laporan Washington Post, data center sudah menyerap 2% dari konsumsi listrik global, dan pada 2030 angka itu bisa melonjak menjadi 8% dari konsumsi listrik Amerika Serikat.
GPT-5: Lebih Pintar, Lebih Boros
Yang lebih mengejutkan, generasi penerusnya, GPT-5, diperkirakan akan jauh lebih haus energi. Riset menyebut satu pertanyaan GPT-5 bisa membutuhkan 18 Wh listrik, atau delapan kali lipat GPT-4. Jika miliaran pertanyaan diajukan setiap hari, maka total konsumsi listriknya bisa mencapai 45 GWh per hari, setara dengan kebutuhan energi sebuah negara kecil. Fakta ini menimbulkan pertanyaan besar: apakah kita siap menghadapi era AI yang makin pintar tetapi juga makin boros energi?
Dampak dan Tantangan
Konsumsi energi ChatGPT bukan sekadar angka di atas kertas. Emisi karbon dari pelatihan dan penggunaan model menambah beban iklim global. Pendinginan server dengan air juga berisiko menekan cadangan air di wilayah yang rawan kekeringan. Industri teknologi kini berlomba mencari solusi, mulai dari chip AI hemat energi, optimasi model, hingga data center berbasis energi terbarukan. Namun, tanpa kesadaran publik dan regulasi yang jelas, dampak lingkungan dari AI bisa semakin membesar.