Pencadangan Data (Backup) dan Keamanan Kini Menjadi Persoalan Ekonomi AI  

Oleh: Sherlie Karnidta, Country Manager Indonesia, Cloudera

 

IDC dalam Global DataSphere Forecast memproyeksikan bahwa volume data global akan melonjak hingga 393,9 zettabyte pada tahun 2028. Lonjakan ini memberikan tekanan yang semakin besar pada kelangsungan bisnis, perlindungan data, tata kelola, serta biaya untuk mempertahankannya.

Kondisi ini mengubah ketahanan (resilience) menjadi isu ekonomi AI, di mana setiap tambahan dataset yang disimpan dan dilindungi akan meningkatkan biaya, mulai dari penyimpanan, operasi pencadangan data (backup), beban kepatuhan, hingga kualitas AI di hilir, dan kebutuhan remediasi.

Menjelang World Backup Day dan World Cloud Security Day, pertanyaan utamanya bukan lagi apakah organisasi sudah mem-backup lebih banyak data mereka atau menambah kontrol keamanan cloud, melainkan apakah investasi tersebut benar-benar meningkatkan ketahanan bisnis dengan cara yang tetap berkelanjutan secara ekonomi.

Backup tidak bisa diperlakukan seperti polis asuransi yang terus diperluas tanpa batas. Tanpa kebijakan retensi yang jelas dan tata kelola yang kuat, program ketahanan data justru bisa menjadi beban finansial, memperumit operasional, dan sulit dibenarkan dari sisi bisnis. Prioritasnya harus bergeser, yaitu melindungi data yang tepat, dengan tingkat perlindungan yang tepat, untuk memastikan hasil pemulihan (recovery) yang tepat ketika gangguan benar-benar terjadi.

Tantangan ini terasa semakin nyata di pasar digital dengan pertumbuhan tinggi seperti Indonesia, di mana transformasi digital yang pesat telah mendorong ekspansi infrastruktur data besar-besaran. Kapasitas pusat data di Indonesia tercatat meningkat hingga 66% antara tahun 2024 hingga 2025, yang mencerminkan besarnya skala pertumbuhan data di berbagai industri.

Namun, di balik lonjakan tersebut, ada risiko yang mengkhawatirkan. Laporan dari AwanPintar.id® menemukan Indonesia mengalami lebih dari 367 juta serangan siber sepanjang tahun 2025, yang sebagian besar didorong oleh upaya pencurian data sensitif dan kredensial untuk melancarkan serangan malware seperti ransomware. Data pemerintah juga menunjukkan bahwa insiden siber pada periode November 2024 hingga Januari 2025 saja telah mengakibatkan kerugian finansial hingga mencapai Rp476 miliar.

Tata kelola menentukan ketahanan yang terarah, bukan serampangan

Memahami keseluruhan aset data (data estate) merupakan titik awal dari ketahanan data yang efektif. Organisasi perlu memiliki kejelasan tentang data apa saja yang dimiliki, bagaimana data tersebut digunakan, serta seperti apa ekspektasi pemulihannya saat terjadi gangguan. Tanpa visibilitas ini, semua data cenderung diperlakukan sama pentingnya, yang segera mengakibatkan lingkungan backup yang menggelembung, dan prioritas pemulihan yang tidak jelas. 

Tata kelola memberikan kerangka yang memungkinkan organisasi memprioritaskan perlindungan secara tepat. Ketika dataset diklasifikasikan berdasarkan dampaknya terhadap bisnis, tingkat perlindungannya pun dapat disusun berlapis sesuai kebutuhan. Sebaliknya, dataset lain yang kurang kritis dapat dilindungi dengan pendekatan yang lebih hemat biaya atau disimpan dalam periode retensi yang lebih singkat. 

Menentukan data mana yang benar-benar penting bukan sekadar persoalan teknis. Hal ini sangat bergantung pada komitmen bisnis dan konsekuensi saat terjadi gangguan, seperti sanksi regulasi, kewajiban kontrak, risiko operasional, hingga potensi kerusakan reputasi. Konteks ini semakin relevan di Indonesia yang lanskap regulasinya terus berkembang cepat.

Dengan diberlakukannya Undang-Undang Perlindungan Data Pribadi pada Oktober 2024, organisasi yang gagal mengelola dan melindungi data dengan baik akan menghadapi konsekuensi hukum dan finansial yang signifikan. Ketika organisasi memandang keputusan terkait ketahanan data dilihat dari perspektif tata kelola, maka strategi perlindungan dan retensi menjadi keputusan yang disengaja dan selaras dengan risiko bisnis, bukan sekadar pengaturan default dalam IT. 

Stop membayar dua kali untuk data yang buruk

Ketika prioritas tata kelola tidak jelas, banyak organisasi memilih untuk menyimpan dan mencadangkan data “untuk berjaga-jaga”. Dalam jangka panjang, pendekatan ini justru menumpuk volume data dalam jumlah besar, namun nilai operasionalnya rendah. 

Riset dari IDC 2025 Survey Spotlight menunjukkan bahwa 64% organisasi belum efektif dalam mengidentifikasi, mengelola, dan menghapus data yang bersifat redundant, obsolete, and trivial (ROT). Meski demikian, data-data ini tetap disimpan dan dilindungi, sehingga memperbesar volume backup dan meningkatkan kompleksitas proses pemulihan. Lingkungan backup yang semakin besar berarti lebih banyak data yang harus divalidasi dan dipulihkan sebelum operasional dapat kembali berjalan dengan andal. Dampaknya pun tidak terhenti pada biaya infrastruktur semata. 

Dalam organisasi yang mulai mengadopsi alur kerja berbasis AI, konsekuensinya bisa semakin besar. Data yang tidak dikelola dengan baik sering kali langsung mengalir ke analytics pipeline dan model AI, membawa ‘noise’ yang pada akhirnya menurunkan kualitas dan keandalan insight yang dihasilkan. Ujung-ujungnya, organisasi seperti harus “membayar dua kali”, pertama untuk menyimpan dan melindungi data yang sebenarnya minim nilai, lalu kedua untuk memperbaiki masalah yang ditimbulkan oleh data tersebut di sistem yang ada di hilir.

Pengujian pemulihan membuktikan keputusan tata kelola benar-benar bekerja dalam kondisi nyata 

Strategi tata kelola baru terasa nilainya kalau benar-benar menghasilkan proses pemulihan yang bisa diandalkan. Di sinilah pentingnya pengujian pemulihan dan disaster recovery secara berkala untuk memastikan bahwa level perlindungan yang ditetapkan memang selaras dengan prioritas bisnis. Dari pengujian seperti ini biasanya muncul temuan-temuan yang penting. Misalnya ada data yang sudah di-backup namun ternyata tidak berkontribusi apapun saat proses pemulihan. Atau, ada juga sistem yang ternyata membutuhkan perlindungan yang lebih kuat dari yang sebelumnya diperkirakan.

Pengujian ini juga seringkali dapat menyingkapkan ketergantungan tersembunyi dalam pipeline atau alur data, di mana data lineage (asal usul data) akan membantu tim menentukan urutan pemulihan yang tepat tanpa harus memulihkan semuanya sekaligus.

Para pemimpin organisasi sebenarnya cukup memantau sejumlah indikator kunci supaya tetap fokus. Misalnya, apakah rencana disaster recovery sudah diuji secara rutin, apakah recovery time objectives (target waktu pemulihan) telah didefinisikan dengan jelas, apakah hasil pengujian secara konsisten memenuhi target tersebut, serta apa saja perbaikan yang benar-benar diterapkan setelah setiap siklus pengujian. 

Seiring waktu, hal ini akan menciptakan siklus umpan balik yang memperkuat tata kelola. Insight yang didapatkan dari pengujian pemulihan dapat digunakan untuk mendukung pembersihan data, pembaruan kebijakan, dan peningkatan operasional, sehingga membantu organisasi menjaga lingkungan backup tetap efisien dan selaras dengan kebutuhan bisnis.

Mengurangi data sprawl agar biaya ketahanan tidak terus membengkak

Di lingkungan hybrid dan multi-cloud, replikasi data yang tidak terkendali meningkatkan volume data yang harus diamankan, dikelola, dan dicadangkan. Kalau dibiarkan, hal ini langsung berdampak pada biaya adopsi AI, sebab data tersebar di terlalu banyak sistem, terlalu banyak salinan, dan jalur yang tidak terkelola.

Itulah sebabnya, perpindahan data ke platform SaaS pihak ketiga maupun layanan eksternal seharusnya diperlakukan sebagai keputusan tata kelola yang disengaja, bukan sekadar pilihan yang dianggap nyaman. Begitu data keluar dari lingkungan yang terkelola, visibilitasnya akan langsung menurun, kontrol menjadi lebih sulit ditegakkan, dan proses pemulihan menjadi lebih sulit dikoordinasikan.

Konsistensi lintas lingkungan juga sama pentingnya. Platform on-premises dan cloud perlu dikelola dengan pendekatan yang seragam agar tidak terjadi pengelolaan dan perlindungan data yang terfragmentasi, yang seringkali memicu duplikasi dataset dan lingkungan backup yang menggelembung. Standar terbuka seperti protokol Iceberg REST Catalog dapat membantu meningkatkan interoperabilitas antar engine dan katalog data, sehingga mengurangi kebutuhan untuk membuat salinan data tambahan hanya demi memastikan data dapat digunakan di berbagai platform.

Hasilnya adalah berkurangnya duplikasi, kepemilikan dan retensi data yang lebih jelas, serta jejak backup yang lebih kecil dan bersih, lebih mudah dikelola dan diatur, serta maintaining yang lebih efisien dari sisi biaya.

Apa yang perlu jadi perhatian para pemimpin

Momentum World Backup Day dan World Cloud Security Day seharusnya menjadi pengingat bahwa ketahanan dalam perusahaan modern bukan soal memperbanyak salinan data atau menumpuk lapisan kontrol keamanan. Intinya justru ada pada pengambilan keputusan yang disengaja dan berbasis tata kelola yang baik, agar organisasi tidak terus menanggung biaya yang membengkak untuk data yang redundant, obsolete, trivial, atau bahkan tidak jelas asal-usulnya.

Tata kelola merupakan mekanisme yang membantu untuk mengoptimalkan biaya backup, mempercepat proses pemulihan, sekaligus meningkatkan keandalan AI. Dengan pendekatan ini, perusahaan bisa berhenti membayar mahal untuk melindungi data yang sebenarnya tidak dipahami, tidak dibutuhkan, atau sejak awal memang tidak perlu disimpan.