Meniru cara kerja otak manusia bisa menjadi kunci mengurangi konsumsi energi kecerdasan buatan secara drastis.
Ringkasan
- Arsitektur komputer saat ini boros energi karena terhambat memory wall.
- Algoritma terinspirasi otak, seperti spiking neural networks, menawarkan solusi efisien.
- Kombinasi desain algoritma dan perangkat keras jadi kunci AI hemat daya.
MUNGKIN kamu pernah bertanya-tanya, mengapa otak manusia yang ukurannya relatif kecil bisa bekerja jauh lebih efisien daripada superkomputer yang menghabiskan daya listrik ribuan rumah?
Masalah utama komputer zaman sekarang adalah Memory Wall alias tembok memori.
Dalam arsitektur komputer, unit pemroses (prosesor) dan unit penyimpan (memori) terpisah. Setiap kali ada data yang perlu diolah, informasi tersebut harus "bolak-balik" menyeberangi jalur di antara keduanya.
Proses antar-jemput data inilah yang menjadi biang kerok kelambatan dan borosnya energi pada AI saat ini.
Ilmuwan dari Purdue University dan Georgia Institute of Technology baru saja merilis studi di jurnal Frontiers in Science yang menawarkan solusi radikal: mari kita meniru otak.
Di dalam kepala kita, neuron tidak bekerja terus-menerus. Ia hanya mengirimkan sinyal listrik jika ambang batas tertentu tercapai.
Artinya, otak menyimpan dan memproses informasi di tempat yang sama, serta hanya berkomunikasi saat ada perubahan.
Inilah yang menginspirasi algoritma baru bernama Spiking Neural Networks (SNNs).
Berbeda dengan model AI tradisional yang "rakus" data untuk tugas seperti pengenalan wajah, SNNs sangat efisien dalam merespons peristiwa yang tidak teratur.
"Model pemrosesan bahasa telah tumbuh 5.000 kali lipat dalam empat tahun terakhir. Ekspansi yang sangat cepat ini membuat AI harus seefisien mungkin.
"Itu berarti kita perlu merombak total desain komputer," kata Kaushik Roy, profesor dari Purdue University.
Efisiensi ini bukan cuma soal tagihan listrik. Bayangkan sebuah drone penyelamat di tengah hutan. Drone tersebut harus mendeteksi lingkungan, melacak objek, dan mengambil keputusan secara real-time.
Jika drone harus mengirim data ke cloud (pusat data jauh) lalu menunggu jawabannya, drone bisa keburu menabrak pohon karena adanya lag atau keterlambatan sinyal.
Dengan algoritma yang terinspirasi otak, drone bisa menggunakan kamera berbasis peristiwa (event-based cameras). Kamera ini tidak merekam video secara utuh, melainkan hanya mengirim data jika ada piksel yang berubah.
Hasilnya? Perangkat jadi lebih ringan, hemat baterai, dan bisa beroperasi lebih lama tanpa perlu internet cepat.
Untuk mewujudkan ini, kita butuh perangkat keras spesial yang disebut Compute-in-Memory (CIM). Di sini, perhitungan dilakukan tepat di tempat data disimpan.
Roy menekankan bahwa satu-satunya cara untuk menembus Tembok Memori adalah dengan mendesain perangkat keras dan algoritma secara bersamaan (co-design).
Sebagai tambahan informasi, menurut laporan dari International Energy Agency (IEA), konsumsi listrik pusat data secara global diperkirakan bisa berlipat ganda pada tahun 2026 akibat lonjakan penggunaan AI.
Oleh karena itu, inovasi seperti yang dilakukan tim Purdue ini menjadi sangat krusial. Tanpa terobosan ini, AI mungkin akan menjadi teknologi yang terlalu mahal secara lingkungan untuk dipertahankan.
Dengan desain kolaboratif ini, masa depan AI tidak lagi terkurung di gedung-gedung pusat data yang dingin, melainkan ada di dalam saku kita, di alat medis portabel, hingga di kendaraan otonom yang jauh lebih cerdas dan hemat energi.
Disadur dari Frontiers in Science - How brain-inspired algorithms could overcome AI energy costs.
.jpg)
Posting Komentar