
Waspadai Risiko Kebocoran Data Pribadi Saat Berinteraksi dengan AI
Penggunaan teknologi kecerdasan buatan (AI) semakin meluas dalam berbagai aspek kehidupan, mulai dari pekerjaan, pendidikan, hingga aktivitas harian. Namun, masyarakat diminta untuk lebih berhati-hati dalam membagikan informasi pribadi, terutama data medis, di platform AI. Sebab, data tersebut berpotensi bocor dan disalahgunakan oleh pihak yang tidak bertanggung jawab.
“Berbagi informasi sensitif seperti data kesehatan atau identitas pribadi dapat meningkatkan risiko kebocoran dan penyalahgunaan,” jelas Mugiya Wardhany, Kepala Dinas Komunikasi dan Informatika (Diskominfo) Kota Tangerang, seperti dikutip dari *Antara* (9/11/2025).
Jenis Data yang Harus Dihindari untuk Dibagikan ke AI
Meskipun AI menawarkan banyak kemudahan, keamanan data tetap harus menjadi prioritas. Berikut beberapa jenis informasi yang sebaiknya tidak dibagikan ke sistem AI:
- Data identitas pribadi, seperti nomor KTP, Kartu Keluarga, alamat rumah, atau nomor telepon
- Informasi medis, termasuk hasil tes kesehatan, rekam medis, foto rontgen, atau resep obat
- Kredensial login, mencakup username, password, atau kode OTP
- Rahasia perusahaan atau dokumen kerja yang bersifat internal
- Lokasi spesifik, seperti titik koordinat rumah atau kantor
- Konten pribadi sensitif, misalnya masalah keluarga atau pengalaman emosional
Data-data ini memiliki risiko tinggi untuk disalahgunakan jika jatuh ke tangan yang salah. Begitu informasi tersebut tersebar, sulit untuk mengontrol siapa saja yang dapat mengaksesnya.
Mengapa Data Medis Sangat Rentan?
Beberapa pengguna mungkin pernah mengunggah hasil pemeriksaan medis, seperti foto rontgen, ke chatbot AI untuk mendapatkan penjelasan lebih lanjut. Namun, perlu diketahui bahwa data tersebut bisa saja digunakan untuk melatih model AI tanpa izin.
Menurut *Tech Crunch*, banyak platform AI mengumpulkan data pengguna untuk meningkatkan akurasi sistem mereka. Namun, tidak selalu jelas bagaimana data tersebut akan diproses atau dibagikan ke pihak lain. Bahkan, kebijakan privasi perusahaan AI bisa berubah sewaktu-waktu.
Kasus kebocoran data medis bukanlah hal yang jarang terjadi. Beberapa orang menemukan informasi kesehatan pribadi mereka tersimpan dalam *dataset* pelatihan AI. Jika hal ini terjadi, data tersebut bisa diakses oleh berbagai pihak, termasuk perusahaan asuransi, calon pemberi kerja, atau bahkan penipu yang memanfaatkan kerentanan korban.
Tips Aman Menggunakan AI untuk Kesehatan
Mugiya Wardhany menegaskan bahwa AI tetap bisa dimanfaatkan untuk hal-hal positif, seperti mencari referensi belajar atau menyelesaikan tugas administratif. Namun, pengguna harus lebih selektif dalam membagikan informasi.
“Gunakan AI dengan bijak. Hindari mengunggah data pribadi yang berisiko merugikan,” pesannya. Keamanan data adalah tanggung jawab bersama antara pengguna dan penyedia layanan. Dengan kewaspadaan yang tinggi, risiko kebocoran informasi dapat diminimalkan.