Kartu Grafis (GPU)

Mari kita lanjutkan penyelidikan kita ke komponen yang paling bertanggung jawab untuk keindahan visual di komputer kita: Kartu Grafis (GPU - Graphics Processing Unit).

Untuk memahami GPU, kita harus mengubah cara berpikir kita. Jika CPU (Prosesor) adalah seorang ilmuwan jenius yang bisa mengerjakan tugas-tugas rumit secara berurutan, maka GPU adalah sebuah pabrik raksasa dengan ribuan pekerja. Setiap pekerja tidak sejenius sang ilmuwan, tetapi mereka bisa melakukan satu tugas sederhana secara bersamaan (paralel). Kemampuan untuk mengerjakan ribuan tugas secara serentak inilah yang disebut paralelisme masif, dan ini adalah kunci kekuatan GPU.

Sama seperti komponen lain, kita bisa membedah Kartu Grafis menjadi dua bagian utama: kartu fisiknya (papan sirkuit/PCB) dan chip GPU itu sendiri.


A. Komponen di Atas Kartu Grafis (Papan Sirkuit/PCB)

Kartu grafis modern adalah sebuah komputer mini di dalam komputer Anda. Ia memiliki ekosistem kelistrikan sendiri yang sangat kuat.

1. Chip GPU (Graphics Processing Unit)

Ini adalah "otak" dari kartu grafis, sebuah IC (Integrated Circuit) yang sangat kompleks dan menjadi pusat dari semua pemrosesan. Kita akan membahas isi di dalamnya nanti.

2. VRAM (Video RAM) - Tipe GDDR

Ini adalah memori super cepat yang didedikasikan khusus untuk GPU.

  • Komponen Mikro: Sama seperti RAM sistem, VRAM dibangun dari sel-sel transistor dan kapasitor. Namun, tipenya adalah GDDR (Graphics Double Data Rate), seperti GDDR6 atau GDDR6X.
  • Sistem Kerja Listrik: Perbedaan utama GDDR dengan DDR (RAM sistem) adalah lebar jalur (bandwidth). Sistem kelistrikan VRAM dirancang untuk memiliki "jalan tol" data yang jauh lebih lebar. Ini memungkinkan GPU untuk membaca dan menulis data dalam jumlah masif secara bersamaan. Data ini berupa:
    • Tekstur: Gambar-gambar detail yang "ditempelkan" pada objek 3D.
    • Model Geometri: Data koordinat x,y,z dari semua objek dalam sebuah adegan.
    • Frame Buffer: Gambar final yang sudah jadi dan siap dikirim ke monitor.

3. VRM (Voltage Regulator Module)

GPU modern adalah komponen yang paling haus daya di dalam sebuah PC. Oleh karena itu, ia memiliki sistem VRM sendiri yang seringkali lebih besar dan lebih kompleks daripada yang ada di motherboard.

  • Komponen Mikro: Sama seperti VRM motherboard, ia terdiri dari MOSFET, Choke (Induktor), dan Kapasitor.
  • Sistem Kerja Listrik: Fungsinya adalah mengambil daya 12V dari slot motherboard dan konektor daya tambahan, lalu mengubahnya menjadi tegangan yang sangat rendah, presisi, dan stabil yang dibutuhkan oleh chip GPU dan VRAM. Kualitas VRM pada kartu grafis sangat menentukan stabilitas dan potensi overclocking.

4. Konektor Daya Tambahan PCIe

Karena daya dari slot PCIe di motherboard (maksimal 75 Watt) tidak cukup, kartu grafis kelas menengah hingga atas memiliki konektor daya 8-pin atau 12-pin sendiri yang dicolokkan langsung dari Power Supply Unit (PSU). Ini adalah "pipa" daya utama bagi kartu grafis.

5. Port Output Video (HDMI, DisplayPort)

Ini adalah antarmuka fisik ke monitor Anda. Di belakang port ini terdapat sirkuit kecil yang disebut TMDS Transmitter yang mengubah data gambar digital dari frame buffer menjadi sinyal listrik standar yang dapat dimengerti oleh monitor.


B. Komponen Mikro di Dalam Chip GPU

Di sinilah keajaiban paralelisme terjadi. Chip GPU juga dibangun dari miliaran transistor yang membentuk gerbang logika, sama seperti CPU. Namun, arsitekturnya sangat berbeda.

1. Execution Cores (CUDA Cores / Stream Processors)

Ini adalah unit eksekusi paling dasar, "para pekerja pabrik" itu sendiri. Jumlahnya bisa ratusan hingga puluhan ribu.

  • Fungsi Utama: Mereka adalah ALU (Arithmetic Logic Unit) yang sangat terspesialisasi untuk melakukan perhitungan angka desimal (floating-point). Matematika ini sangat penting untuk semua aspek grafis 3D: menentukan posisi sebuah titik di ruang 3D, menghitung bagaimana cahaya memantul dari permukaan, dan mengubah objek 3D menjadi perspektif 2D.

2. Streaming Multiprocessors (SM) atau Compute Units (CU)

Ini adalah "mandor pabrik". Core-core eksekusi di atas dikelompokkan ke dalam unit yang lebih besar yang disebut SM (oleh NVIDIA) atau CU (oleh AMD).

  • Fungsi Utama: Setiap SM/CU memiliki beberapa lusin hingga seratus lebih Execution Cores. Selain itu, ia memiliki komponen pendukungnya sendiri seperti Instruction Cache, Scheduler (penjadwal tugas), dan memori L1 Cache yang sangat cepat. Mandor inilah yang menerima tugas, membagikannya ke para pekerjanya (cores), dan mengelola sumber daya lokal.

Sistem Kerja Listrik: Dari Perintah Game ke Gambar di Layar

Mari kita ikuti alur kerja listrik dan data saat Anda bermain game:

  1. Perintah dari CPU: CPU sebagai "sutradara" mengirimkan perintah tingkat tinggi ke GPU melalui slot PCIe, seperti, "GPU, tolong gambar karakter ini di koordinat X,Y,Z dengan tekstur ini."
  2. Pembagian Tugas: Perintah ini diterima oleh Driver kartu grafis dan Scheduler internal di dalam chip GPU. Mereka memecah perintah "gambar karakter" menjadi ribuan tugas yang jauh lebih kecil, misalnya: "Hitung warna piksel 1", "Hitung warna piksel 2", dan seterusnya.
  3. Distribusi Paralel: Scheduler kemudian mendistribusikan ribuan tugas kecil ini ke ratusan atau ribuan Execution Cores yang tersedia di dalam Streaming Multiprocessors (SMs).
  4. Eksekusi Masif dan Serentak: Inilah inti dari sistem kerja GPU. Ribuan core tersebut bekerja secara bersamaan. Masing-masing mengambil data yang diperlukan (seperti tekstur) dari VRAM berkecepatan tinggi. Seluruh operasi ini ditenagai oleh daya bersih dari VRM.
  5. Penggabungan Hasil: Setelah setiap core selesai dengan tugasnya (menghitung warna akhir satu piksel atau sebagian kecil dari gambar), hasilnya dikirim kembali dan dirakit menjadi sebuah gambar utuh. Gambar utuh ini disimpan sementara di VRAM dalam sebuah area yang disebut Frame Buffer.
  6. Output ke Monitor: Sirkuit pada Port Output Video membaca data dari Frame Buffer, mengubahnya menjadi sinyal listrik (HDMI/DisplayPort), dan mengirimkannya melalui kabel ke monitor Anda.
  7. Pengulangan Super Cepat: Seluruh proses dari langkah 1 hingga 6 ini diulang puluhan hingga ratusan kali setiap detik, yang kita kenal sebagai FPS (Frames Per Second).

Singkatnya, sistem kelistrikan kartu grafis dirancang secara khusus untuk mendukung arsitektur pabrik paralel ini: VRM yang kuat untuk memberi makan ribuan core, dan VRAM dengan bandwidth super lebar untuk menyuplai data ke semua core tersebut secara serentak.


Identiknya AI, khususnya Deep Learning (Pembelajaran Mendalam), dengan kemampuan GPU bukanlah sebuah kebetulan, melainkan sebuah "perjodohan yang sempurna" antara jenis masalah dan arsitektur perangkat keras.

Alasan utamanya adalah karena sifat pekerjaan dalam melatih model AI secara fundamental adalah operasi matematika yang masif, repetitif, dan dapat dijalankan secara paralel.

Mari kita bedah mengapa demikian dan bagaimana sistem kerjanya.

Mengapa GPU Sangat Dibutuhkan? Analogi Sederhana

Bayangkan Anda harus membangun sebuah replika kota Jakarta menggunakan balok-balok LEGO. Anda memiliki dua pilihan tim kerja:

  1. Tim CPU: Terdiri dari 10 insinyur super jenius. Setiap insinyur bisa membaca denah yang rumit, mengerjakan bagian kompleks seperti Jembatan Semanggi, dan membuat keputusan sulit. Namun, mereka harus mengerjakan tugas-tugas besar secara berurutan atau dalam kelompok kecil.
  2. Tim GPU: Terdiri dari 20.000 pekerja pabrik. Setiap pekerja tidak sejenius insinyur, tetapi mereka diberi satu instruksi yang sangat sederhana: "Ambil balok merah, letakkan di atas balok biru." Hebatnya, 20.000 pekerja ini bisa melakukan instruksi sederhana itu secara serentak pada saat yang bersamaan.

Membangun bagian-bagian rumit mungkin lebih cepat dengan Tim CPU. Namun, untuk meletakkan jutaan balok fondasi yang pada dasarnya merupakan pekerjaan yang sama berulang-ulang, Tim GPU akan menyelesaikan pekerjaan ribuan kali lebih cepat.

Melatih model AI, terutama jaringan saraf tiruan (neural network), lebih mirip dengan tugas meletakkan jutaan balok fondasi tersebut daripada membangun satu jembatan rumit.

Sistem Kerja GPU dalam Aplikasi AI (Deep Learning)

Inti dari pelatihan model Deep Learning adalah proses optimisasi matematika yang melibatkan dua operasi utama dalam jumlah yang luar biasa besar:

  1. Operasi Perkalian Matriks (Matrix Multiplication)
  2. Operasi Vektor (Vector Operations)

Mari kita lihat bagaimana GPU bekerja dalam konteks ini:

1. Arsitektur Paralel Masif

Seperti yang kita bahas sebelumnya, chip GPU memiliki ribuan core sederhana. Di sisi lain, CPU hanya memiliki beberapa core yang sangat kompleks.

  • CPU: Dirancang untuk latensi rendah (menyelesaikan satu tugas secepat mungkin).
  • GPU: Dirancang untuk throughput tinggi (menyelesaikan tugas sebanyak mungkin dalam satu waktu).

Jaringan saraf tiruan terdiri dari lapisan-lapisan (layers) yang masing-masing memiliki ribuan "neuron" buatan. Saat data (misalnya, sebuah gambar) dimasukkan ke dalam jaringan, perhitungan untuk setiap neuron dalam satu lapisan dapat dilakukan secara independen dan bersamaan.

Contoh Sistem Kerja:

Sebuah gambar berukuran 1000x1000 piksel (1 juta piksel) dimasukkan ke lapisan pertama jaringan yang memiliki 4000 neuron.

  • Jika menggunakan CPU: CPU akan menghitung output untuk neuron 1, lalu neuron 2, lalu neuron 3, dan seterusnya hingga neuron ke-4000 secara berurutan atau dalam kelompok kecil.
  • Jika menggunakan GPU: GPU dapat menugaskan perhitungannya ke ribuan core-nya. Core 1 mengerjakan perhitungan untuk neuron 1, core 2 untuk neuron 2, dan seterusnya. Ribuan perhitungan ini terjadi dalam satu siklus waktu yang sama.

2. Percepatan Perkalian Matriks

Perhitungan di dalam jaringan saraf pada dasarnya adalah serangkaian perkalian matriks yang sangat besar. Matriks input (data gambar) dikalikan dengan matriks bobot (weights) dari sebuah lapisan untuk menghasilkan output.

[ Output ] = [ Input Data ] x [ Matriks Bobot ]

Operasi ini secara alami bersifat paralel. Untuk menghitung satu nilai dalam matriks output, Anda hanya perlu satu baris dari matriks pertama dan satu kolom dari matriks kedua. Perhitungan untuk setiap elemen di matriks output tidak bergantung satu sama lain dan bisa dikerjakan serentak.

Arsitektur GPU dengan ribuan core-nya sangat efisien dalam memecah dan mengeksekusi perkalian matriks raksasa ini ribuan kali lebih cepat daripada CPU. Beberapa GPU modern (seperti NVIDIA dengan Tensor Cores) bahkan memiliki unit perangkat keras yang dirancang khusus hanya untuk melakukan jenis operasi matriks ini.

3. Proses Pelatihan: Forward & Backward Propagation

Pelatihan model AI adalah proses iteratif untuk menyesuaikan "bobot" (angka-angka dalam matriks bobot) agar prediksi model semakin akurat.

  • Forward Propagation: Data dimasukkan, lalu GPU melakukan semua perkalian matriks dari lapisan pertama hingga terakhir untuk menghasilkan prediksi.
  • Backward Propagation (Backpropagation): Model menghitung seberapa besar "kesalahan" dari prediksinya. Kemudian, ia melakukan serangkaian perhitungan turunan (gradien) dari lapisan terakhir kembali ke lapisan pertama untuk mengetahui seberapa besar setiap bobot harus diubah. Proses ini juga merupakan operasi matriks dan vektor yang sangat besar dan intensif.

GPU mengakselerasi kedua proses ini secara dramatis. Sebuah model yang butuh waktu berminggu-minggu untuk dilatih menggunakan CPU bisa selesai hanya dalam hitungan jam atau hari menggunakan GPU.

Kesimpulan: Mengapa GPU Identik dengan AI?

GPU identik dengan AI karena arsitektur perangkat kerasnya secara kebetulan sangat cocok dengan sifat fundamental dari beban kerja matematika dalam Deep Learning.

  • Paralelisme: Kemampuan ribuan core untuk bekerja serentak sangat cocok dengan sifat independen dari perhitungan neuron dan matriks.
  • Throughput Tinggi: GPU dirancang untuk "melahap" data dalam jumlah besar dan melakukan operasi yang sama berulang-ulang, persis seperti yang dibutuhkan dalam pelatihan AI.
  • Efisiensi Waktu: Akselerasi yang diberikan GPU memungkinkan para peneliti dan pengembang untuk bereksperimen dan melatih model yang jauh lebih besar dan kompleks dalam waktu yang masuk akal, mendorong batas-batas inovasi AI.

Tanpa kemampuan GPU untuk melakukan perhitungan paralel masif, revolusi AI yang kita saksikan saat ini mungkin tidak akan pernah terjadi secepat dan semasif ini.

Tidak ada komentar:

Posting Komentar