Analisis Keamanan Sistem Informasi ChatGPT Menggunakan Algoritma Natural Language Processing (NLP)

Donny Maulana, Eko Budiarto

Abstract


ChatGPT adalah model pembuatan bahasa alami yang dapat meningkatkan kognisi manusia dan menghasilkan teks berkualitas tinggi. Namun, keamanan sistem informasi di ChatGPT menjadi perhatian utama mengingat potensi penyalahgunaan oleh mereka yang belum yakin. Maka dari itu tujuan dari penelitian ini adalah untuk mengkaji keamanan sistem informasi pada ChatGPT dengan menggunakan algoritma Natural Language Processing (NLP). Metode penelitian yang digunakan adalah survei dengan jumlah sampel 100 orang. Data dianalisis dengan menggunakan teknik statistik deskriptif dan inferensial. Hasil penelitian menunjukkan bahwa menggunakan ChatGPT aman untuk sebagian besar responden. Namun, ada masalah keamanan tertentu, seperti potensi pelanggaran data dan penyalahgunaan informasi. Untuk meningkatkan keamanan sistem informasi ChatGPT, penelitian ini merekomendasikan pengembangan algoritma NLP untuk menganalisis dan mendekode teks, serta penggunaan teknologi enkripsi untuk melindungi informasi pengguna. Selain itu, langkah-langkah harus diambil untuk meningkatkan kesadaran pengguna akan perlunya melindungi informasi pribadi.


Full Text:

PDF

References


J. H. M. Jurafsky, Daniel, “Speech and Language Processing,” 1870 Ghost Danc., pp. 301–312, 2017, doi: 10.2307/j.ctt1djmg7w.13.

A. Sahu, S. Pandey, M. Agarwal, and S. Chauhan, “Offline Virtual Chat Bot by Using Natural Language Processing,” SSRN Electron. J., pp. 2020–2023, 2023, doi: 10.2139/ssrn.4386503.

T. Mikolov, K. Chen, G. Corrado, and J. Dean, “Efficient Estimation of Word Representations in Vector Space,” Jan. 2013, [Online]. Available: http://arxiv.org/abs/1301.3781

A. Y. N. and C. P. Richard Socher, Alex Perelygin, Jean Y. Wu, Jason Chuang, Christopher D. Manning, “Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank Richard,” Empir. Methods Nat. Lang. Process., no. October, pp. 1631–1642, 2004.

Y. B. Ian Goodfellow and C. Aaron, “Deep Learning,” Prmu, pp. 1–10, 2016, [Online]. Available: www.deeplearningbook.org

A. Graves, “Generating Sequences With Recurrent Neural Networks,” pp. 1–43, 2013, [Online]. Available: http://arxiv.org/abs/1308.0850

M. Abadi et al., “TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems,” 2016, [Online]. Available: http://arxiv.org/abs/1603.04467

R. Collobert and J. Weston, “A unified architecture for natural language processing: Deep neural networks with multitask learning,” Proc. 25th Int. Conf. Mach. Learn., pp. 160–167, 2008.

B. Liu and I. Lane, “Attention-based recurrent neural network models for joint intent detection and slot filling,” Proc. Annu. Conf. Int. Speech Commun. Assoc. INTERSPEECH, vol. 08-12-September-2016, no. 1, pp. 685–689, 2016, doi: 10.21437/Interspeech.2016-135.

Y. Kim, “Convolutional neural networks for sentence classification,” EMNLP 2014 - 2014 Conf. Empir. Methods Nat. Lang. Process. Proc. Conf., pp. 1746–1751, 2014, doi: 10.3115/v1/d14-1181.

D. P. Kingma and J. L. Ba, “Adam: A method for stochastic optimization,” 3rd Int. Conf. Learn. Represent. ICLR 2015 - Conf. Track Proc., pp. 1–15, 2015.

J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova, “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,” Oct. 2018, [Online]. Available: http://arxiv.org/abs/1810.04805




DOI: https://doi.org/10.37012/jtik.v9i1.1678

Refbacks

  • There are currently no refbacks.


Copyright (c) 2023 Donny Maulana, Eko Budiarto

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

Address:
Universitas Mohammad Husni Thamrin
Jl. Raya Pd. Gede No.23-25, RT.2/RW.1, Dukuh, Kec. Kramat jati, Kota Jakarta Timur, Daerah Khusus Ibukota Jakarta 13550

Creative Commons License
Jurnal Teknologi Informatika & Komputer Mohammad Husni Thamrin is licensed under a Creative Commons Attribution 4.0 International License.

View My Stats