Analisis Keamanan Sistem Informasi ChatGPT Menggunakan Algoritma Natural Language Processing (NLP)

Authors

  • Donny Maulana Universitas Pelita Bangsa, Indonesia
  • Eko Budiarto Universitas Pelita Bangsa, Indonesia

DOI:

https://doi.org/10.37012/jtik.v9i1.1678

Abstract

ChatGPT adalah model pembuatan bahasa alami yang dapat meningkatkan kognisi manusia dan menghasilkan teks berkualitas tinggi. Namun, keamanan sistem informasi di ChatGPT menjadi perhatian utama mengingat potensi penyalahgunaan oleh mereka yang belum yakin. Maka dari itu tujuan dari penelitian ini adalah untuk mengkaji keamanan sistem informasi pada ChatGPT dengan menggunakan algoritma Natural Language Processing (NLP). Metode penelitian yang digunakan adalah survei dengan jumlah sampel 100 orang. Data dianalisis dengan menggunakan teknik statistik deskriptif dan inferensial. Hasil penelitian menunjukkan bahwa menggunakan ChatGPT aman untuk sebagian besar responden. Namun, ada masalah keamanan tertentu, seperti potensi pelanggaran data dan penyalahgunaan informasi. Untuk meningkatkan keamanan sistem informasi ChatGPT, penelitian ini merekomendasikan pengembangan algoritma NLP untuk menganalisis dan mendekode teks, serta penggunaan teknologi enkripsi untuk melindungi informasi pengguna. Selain itu, langkah-langkah harus diambil untuk meningkatkan kesadaran pengguna akan perlunya melindungi informasi pribadi.

References

J. H. M. Jurafsky, Daniel, “Speech and Language Processing,†1870 Ghost Danc., pp. 301–312, 2017, doi: 10.2307/j.ctt1djmg7w.13.

A. Sahu, S. Pandey, M. Agarwal, and S. Chauhan, “Offline Virtual Chat Bot by Using Natural Language Processing,†SSRN Electron. J., pp. 2020–2023, 2023, doi: 10.2139/ssrn.4386503.

T. Mikolov, K. Chen, G. Corrado, and J. Dean, “Efficient Estimation of Word Representations in Vector Space,†Jan. 2013, [Online]. Available: http://arxiv.org/abs/1301.3781

A. Y. N. and C. P. Richard Socher, Alex Perelygin, Jean Y. Wu, Jason Chuang, Christopher D. Manning, “Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank Richard,†Empir. Methods Nat. Lang. Process., no. October, pp. 1631–1642, 2004.

Y. B. Ian Goodfellow and C. Aaron, “Deep Learning,†Prmu, pp. 1–10, 2016, [Online]. Available: www.deeplearningbook.org

A. Graves, “Generating Sequences With Recurrent Neural Networks,†pp. 1–43, 2013, [Online]. Available: http://arxiv.org/abs/1308.0850

M. Abadi et al., “TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems,†2016, [Online]. Available: http://arxiv.org/abs/1603.04467

R. Collobert and J. Weston, “A unified architecture for natural language processing: Deep neural networks with multitask learning,†Proc. 25th Int. Conf. Mach. Learn., pp. 160–167, 2008.

B. Liu and I. Lane, “Attention-based recurrent neural network models for joint intent detection and slot filling,†Proc. Annu. Conf. Int. Speech Commun. Assoc. INTERSPEECH, vol. 08-12-September-2016, no. 1, pp. 685–689, 2016, doi: 10.21437/Interspeech.2016-135.

Y. Kim, “Convolutional neural networks for sentence classification,†EMNLP 2014 - 2014 Conf. Empir. Methods Nat. Lang. Process. Proc. Conf., pp. 1746–1751, 2014, doi: 10.3115/v1/d14-1181.

D. P. Kingma and J. L. Ba, “Adam: A method for stochastic optimization,†3rd Int. Conf. Learn. Represent. ICLR 2015 - Conf. Track Proc., pp. 1–15, 2015.

J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova, “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,†Oct. 2018, [Online]. Available: http://arxiv.org/abs/1810.04805

Downloads

Published

2023-03-30

Citation Check