Research Article
BibTex RIS Cite

DERİN ÖĞRENME YÖNTEMLERİ İLE ŞÜPHELİ DAVRANIŞ TESPİTİ

Year 2022, Volume: 3 Issue: 1, 28 - 43, 31.03.2022

Abstract

Hızla gelişen teknoloji ile birlikte askeri, güvenlik ve bilişim sektöründe bilgi güvenliği sorunları meydana gelmiş bu sorunların çözümü için donanımsal ve yazılımsal yöntemler geliştirilmiştir. Görüntü işleme teknikleri yardımıyla bu güvenlik sorununa görüntüden şüpheli davranış tespiti ile gerçek zamanlı bir çözüm getirilmeye çalışılmaktadır. Görüntüden nesne ve pozisyon tanımlama, davranış belirleme ve derin öğrenme üzerine yapılmış birçok çalışma mevcuttur. Derin öğrenme, insanın düşünce yapısını veri setlerindeki örüntüler ile deneyimleyerek bilgisayara öğreten, yapay zekâ kavramının içinde barındırdığı makine öğrenmesi konusunun özel bir halidir. Makine öğrenme algoritmaları, belirlenmiş bir denkleme dayanmaksızın doğrudan bilgi verilerinden hesaplama yöntemlerini kullanarak öğrenir ve modellenirler. Derin öğrenme, yüz tanıma, plaka tanıma, nesne algılama, insansız hava araçlarında nesne tespiti, hareket algılama, otonom sürüş teknolojileri ile şerit tespiti gibi birçok gelişmiş sürücü yardım teknolojisi gibi problemleri çözmek için kullanılır. YOLO( You Only Look Once) algoritması, konvolüsyonel sinir ağlarını (CNN) kullanarak nesne tespiti yapan bir derin öğrenme algoritmasıdır. YOLO, konvolüsyonel sinir ağları ve benzerleri algoritmalara göre daha yüksek performansa sahip bir algoritma olduğundan; çalışma kapsamında gerçek zamanlı tespite en yakın performans elde edilmek istendiğinden, bu çalışmada YOLO algoritması ile çalışılmıştır. Gerçekleştirilen tez çalışması 3 adımdan oluşmaktadır. Birinci adımda 1116 etiketli görsel ile Marmara Üniversitesi Kriminal Davranış/Nesne Veri Seti(MÜKDN) oluşturulmuş, ikinci adımda derin öğrenme için kullanılan evrişimsel sinir ağı YOLOv4 modeli tasarımı ve konfigürasyonu yapılmıştır. Son olarak üçüncü adımda sistem eğitilmiştir. Evrişimsel sinir ağı ağırlıkları farklı sistemlerde kullanılmak üzere elde edilmiş ve proaktif model gerçeklenmiştir.

References

  • Radu, R. G. (2012). The monopoly of violence in the cyber space: Challenges of cyber security. In Power in the 21st Century (pp. 137-150). Springer, Berlin, Heidelberg.
  • Bıçakcı, S. (2014). NATO’nun gelişen tehdit algısı: 21. yüzyılda siber güvenlik. Uluslararası İlişkiler Dergisi, 10(40), 100-130.
  • Lecun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278–2324. https://doi.org/10.1109/5.726791
  • Maghdid, H., Asaad, A. T., Ghafoor, K. Z. G., Sadiq, A. S., Mirjalili, S., & Khan, M. K. K. Diagnosing COVID-19 pneumonia from x-ray and CT images using deep learning and transfer learning algorithms, 26. https://doi.org/10.1117/12.2588672
  • Hassan, M., Ali, S., Alquhayz, H., & Safdar, K. (2020). Developing intelligent medical image modality classification system using deep transfer learning and LDA. Scientific Reports, 10(1), 12868. https://doi.org/10.1038/s41598-020-69813-2
  • Jaouedi, N., Boujnah, N., & Bouhlel, M. S. (2020). A new hybrid deep learning model for human action recognition. Journal of King Saud University - Computer and Information Sciences, 32(4), 447–453. https://doi.org/10.1016/j.jksuci.2019.09.004
  • T.S., A., & Guddeti, R. M. R. (2020). Affective database for e-learning and classroom environments using Indian students’ faces, hand gestures and body postures. Future Generation Computer Systems, 108, 334–348. https://doi.org/10.1016/j.future.2020.02.075
  • Jammalamadaka, N., Zisserman, A., & C.V., J. (2017). Human pose search using deep networks. Image and Vision Computing, 59, 31–43. https://doi.org/10.1016/j.imavis.2016.12.002
  • Luvizon, D. C., Tabia, H., & Picard, D. (2019). Human pose regression by combining indirect part detection and contextual information. Computers & Graphics, 85, 15–22. https://doi.org/10.1016/j.cag.2019.09.002
  • Moez Baccouche, Franck Mamalet, Christian Wolf, Christophe Garcia, and Atilla Baskurt. LNCS 7065 - Sequential Deep Learning for Human Action Recognition. Laptev, I., Marszalek, M., Schmid, C., & Rozenfeld, B. Learning realistic human actions from movies, 1–8. https://doi.org/10.1109/CVPR.2008.4587756
  • Dollar, P., Rabaud, V., Cottrell, G., & Belongie, S. Behavior Recognition via Sparse Spatio-Temporal Features, 65–72. https://doi.org/10.1109/VSPETS.2005.1570899 Ming-Yu Chen and Alexander Hauptmann. MoSIFT: Recognizing Human Actions in Surveillance Videos.
  • Liu, J., & Shah, M. Learning human actions via information maximization, 1–8. https://doi.org/10.1109/CVPR.2008.4587723
  • Daş, R., Polat, B., & Tuna, G. (2019). Derin Öğrenme ile Resim ve Videolarda Nesnelerin Tanınması ve Takibi. Fırat Üniversitesi Mühendislik Bilimleri Dergisi, 571–581. https://doi.org/10.35234/fumbd.608778
  • Yılmaz, O., Aydın, H., & Çetinkaya, A. (2020). Faster R-CNN Evrişimsel Sinir Ağı Üzerinde Geliştirilen Modelin Derin Öğrenme Yöntemleri ile Doğruluk Tahmini ve Analizi: Nesne Tespiti Uygulaması. Avrupa Bilim ve Teknoloji Dergisi, (20), 783-795.
  • Wikipedia (Ed.). (2021). Yapay zekâ. (2021, September 13). https://tr.wikipedia.org/w/index.php?title=Yapay_zekâ&oldid=25937799
  • Bonner, A. (2007). The art and logic of Ramon Lull: A user's guide. Studien und Texte zur Geistesgeschichte des Mittelalters: Bd. 95. Brill. Turing, A. M. (2009). Computing machinery and intelligence. In Parsing the turing test (pp. 23-65). Springer, Dordrecht..
  • John McCarthy, Marvin L. Minsky, Nathaniel Rochester, & and Claude E. Shannon. (1955). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence (27 Number 4(2006)). AI Magazine Volume 27 Number 4 (2006) (© AAAI).
  • McCulloch, W. (1943). A logical calculus of the ideas immanent in nervous activity, 5.
  • Rosenblatt, F. (1957). The perceptron, a perceiving and recognizing automaton Project Para. Cornell Aeronautical Laboratory.
  • Christopher, M. B. (2016). Pattern Recognıtıon And Machıne Learnıng: Springer-Verlag New York
  • Karpathy, A. (2018). Stanford university cs231n: Convolutional neural networks for visual recognition. URL: http://cs231n. stanford. edu/syllabus. html.
  • Yapay Sinir Ağları ~ Papatya Bilim Yayınevi. (2020, October 24). http://www.papatyabilim.com.tr/yapaySinirAglari.htm
  • Fırıldak, K., & Talu, M. F. (2019). Evrişimsel Sinir Ağlarında Kullanılan Transfer Öğrenme Yaklaşımlarının İncelenmesi. Computer Science, 4(2), 88-95.
  • Girshick, R., Donahue, J., Darrell, T., Malik, J., & Mercan, E. (2014). R-CNN for Object Detection. In IEEE Conference.
  • Girshick, R., Donahue, J., Darrell, T., & Malik, J. (Eds.). Rich feature hierarchies for accurate object detection and semantic segmentation.
  • Gkioxari, G., Girshick, R., & Malik, J. (Eds.). Contextual Action Recognition with R*CNN.
  • Ren, S., He, K., Girshick, R., & Sun, J. (2017). Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. IEEE Transactions on Pattern Analysis and Machine İntelligence, 39(6), 1137–1149. https://doi.org/10.1109/TPAMI.2016.2577031
  • Leibe, B., Matas, J., Sebe, N., & Welling, M. (Eds.) (2016a). Computer Vision – ECCV 2016. : Vol. 9905. Springer International Publishing.
  • Leibe, B., Matas, J., Sebe, N., & Welling, M. (2016b). Computer Vision – ECCV 2016, 9905. https://doi.org/10.1007/978-3-319-46448-0
  • Joseph Redmon, Santosh Divvala, Ross Girshick, & Ali Farhadi. You Only Look Once: Unified, Real-Time Object Detection.
  • Papers with Code - YOLOv4 Explained. (2021, September 13). https://paperswithcode.com/method/yolo4
  • bigumigu.com -Hırsızlığı % 81 Doğrulukla Önceden Tespit Edebilen Algoritma.(2021, Sebtember17).https://bigumigu.com/haber/vaakeye-hirsizligi-81-dogrulukla-onceden-tespit-edebilen-algoritma/
  • pjreddie.com, "Darknet: Open Source Neural Networks in C", (2021, September 13). https://pjreddie.com/darknet/
  • github.com,” YOLOv4 / Scaled-YOLOv4 / YOLO - Neural Networks for Object Detection (Windows and Linux version of Darknet ) “,(2021, September 13). https://github.com/AlexeyAB/Darknet
Year 2022, Volume: 3 Issue: 1, 28 - 43, 31.03.2022

Abstract

References

  • Radu, R. G. (2012). The monopoly of violence in the cyber space: Challenges of cyber security. In Power in the 21st Century (pp. 137-150). Springer, Berlin, Heidelberg.
  • Bıçakcı, S. (2014). NATO’nun gelişen tehdit algısı: 21. yüzyılda siber güvenlik. Uluslararası İlişkiler Dergisi, 10(40), 100-130.
  • Lecun, Y., Bottou, L., Bengio, Y., & Haffner, P. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278–2324. https://doi.org/10.1109/5.726791
  • Maghdid, H., Asaad, A. T., Ghafoor, K. Z. G., Sadiq, A. S., Mirjalili, S., & Khan, M. K. K. Diagnosing COVID-19 pneumonia from x-ray and CT images using deep learning and transfer learning algorithms, 26. https://doi.org/10.1117/12.2588672
  • Hassan, M., Ali, S., Alquhayz, H., & Safdar, K. (2020). Developing intelligent medical image modality classification system using deep transfer learning and LDA. Scientific Reports, 10(1), 12868. https://doi.org/10.1038/s41598-020-69813-2
  • Jaouedi, N., Boujnah, N., & Bouhlel, M. S. (2020). A new hybrid deep learning model for human action recognition. Journal of King Saud University - Computer and Information Sciences, 32(4), 447–453. https://doi.org/10.1016/j.jksuci.2019.09.004
  • T.S., A., & Guddeti, R. M. R. (2020). Affective database for e-learning and classroom environments using Indian students’ faces, hand gestures and body postures. Future Generation Computer Systems, 108, 334–348. https://doi.org/10.1016/j.future.2020.02.075
  • Jammalamadaka, N., Zisserman, A., & C.V., J. (2017). Human pose search using deep networks. Image and Vision Computing, 59, 31–43. https://doi.org/10.1016/j.imavis.2016.12.002
  • Luvizon, D. C., Tabia, H., & Picard, D. (2019). Human pose regression by combining indirect part detection and contextual information. Computers & Graphics, 85, 15–22. https://doi.org/10.1016/j.cag.2019.09.002
  • Moez Baccouche, Franck Mamalet, Christian Wolf, Christophe Garcia, and Atilla Baskurt. LNCS 7065 - Sequential Deep Learning for Human Action Recognition. Laptev, I., Marszalek, M., Schmid, C., & Rozenfeld, B. Learning realistic human actions from movies, 1–8. https://doi.org/10.1109/CVPR.2008.4587756
  • Dollar, P., Rabaud, V., Cottrell, G., & Belongie, S. Behavior Recognition via Sparse Spatio-Temporal Features, 65–72. https://doi.org/10.1109/VSPETS.2005.1570899 Ming-Yu Chen and Alexander Hauptmann. MoSIFT: Recognizing Human Actions in Surveillance Videos.
  • Liu, J., & Shah, M. Learning human actions via information maximization, 1–8. https://doi.org/10.1109/CVPR.2008.4587723
  • Daş, R., Polat, B., & Tuna, G. (2019). Derin Öğrenme ile Resim ve Videolarda Nesnelerin Tanınması ve Takibi. Fırat Üniversitesi Mühendislik Bilimleri Dergisi, 571–581. https://doi.org/10.35234/fumbd.608778
  • Yılmaz, O., Aydın, H., & Çetinkaya, A. (2020). Faster R-CNN Evrişimsel Sinir Ağı Üzerinde Geliştirilen Modelin Derin Öğrenme Yöntemleri ile Doğruluk Tahmini ve Analizi: Nesne Tespiti Uygulaması. Avrupa Bilim ve Teknoloji Dergisi, (20), 783-795.
  • Wikipedia (Ed.). (2021). Yapay zekâ. (2021, September 13). https://tr.wikipedia.org/w/index.php?title=Yapay_zekâ&oldid=25937799
  • Bonner, A. (2007). The art and logic of Ramon Lull: A user's guide. Studien und Texte zur Geistesgeschichte des Mittelalters: Bd. 95. Brill. Turing, A. M. (2009). Computing machinery and intelligence. In Parsing the turing test (pp. 23-65). Springer, Dordrecht..
  • John McCarthy, Marvin L. Minsky, Nathaniel Rochester, & and Claude E. Shannon. (1955). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence (27 Number 4(2006)). AI Magazine Volume 27 Number 4 (2006) (© AAAI).
  • McCulloch, W. (1943). A logical calculus of the ideas immanent in nervous activity, 5.
  • Rosenblatt, F. (1957). The perceptron, a perceiving and recognizing automaton Project Para. Cornell Aeronautical Laboratory.
  • Christopher, M. B. (2016). Pattern Recognıtıon And Machıne Learnıng: Springer-Verlag New York
  • Karpathy, A. (2018). Stanford university cs231n: Convolutional neural networks for visual recognition. URL: http://cs231n. stanford. edu/syllabus. html.
  • Yapay Sinir Ağları ~ Papatya Bilim Yayınevi. (2020, October 24). http://www.papatyabilim.com.tr/yapaySinirAglari.htm
  • Fırıldak, K., & Talu, M. F. (2019). Evrişimsel Sinir Ağlarında Kullanılan Transfer Öğrenme Yaklaşımlarının İncelenmesi. Computer Science, 4(2), 88-95.
  • Girshick, R., Donahue, J., Darrell, T., Malik, J., & Mercan, E. (2014). R-CNN for Object Detection. In IEEE Conference.
  • Girshick, R., Donahue, J., Darrell, T., & Malik, J. (Eds.). Rich feature hierarchies for accurate object detection and semantic segmentation.
  • Gkioxari, G., Girshick, R., & Malik, J. (Eds.). Contextual Action Recognition with R*CNN.
  • Ren, S., He, K., Girshick, R., & Sun, J. (2017). Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. IEEE Transactions on Pattern Analysis and Machine İntelligence, 39(6), 1137–1149. https://doi.org/10.1109/TPAMI.2016.2577031
  • Leibe, B., Matas, J., Sebe, N., & Welling, M. (Eds.) (2016a). Computer Vision – ECCV 2016. : Vol. 9905. Springer International Publishing.
  • Leibe, B., Matas, J., Sebe, N., & Welling, M. (2016b). Computer Vision – ECCV 2016, 9905. https://doi.org/10.1007/978-3-319-46448-0
  • Joseph Redmon, Santosh Divvala, Ross Girshick, & Ali Farhadi. You Only Look Once: Unified, Real-Time Object Detection.
  • Papers with Code - YOLOv4 Explained. (2021, September 13). https://paperswithcode.com/method/yolo4
  • bigumigu.com -Hırsızlığı % 81 Doğrulukla Önceden Tespit Edebilen Algoritma.(2021, Sebtember17).https://bigumigu.com/haber/vaakeye-hirsizligi-81-dogrulukla-onceden-tespit-edebilen-algoritma/
  • pjreddie.com, "Darknet: Open Source Neural Networks in C", (2021, September 13). https://pjreddie.com/darknet/
  • github.com,” YOLOv4 / Scaled-YOLOv4 / YOLO - Neural Networks for Object Detection (Windows and Linux version of Darknet ) “,(2021, September 13). https://github.com/AlexeyAB/Darknet
There are 34 citations in total.

Details

Primary Language Turkish
Subjects Engineering
Journal Section Original Research
Authors

Duygu Çalışkan 0000-0003-4523-2967

Önder Demir 0000-0003-4540-663X

Early Pub Date March 24, 2022
Publication Date March 31, 2022
Published in Issue Year 2022 Volume: 3 Issue: 1

Cite

APA Çalışkan, D., & Demir, Ö. (2022). DERİN ÖĞRENME YÖNTEMLERİ İLE ŞÜPHELİ DAVRANIŞ TESPİTİ. International Periodical of Recent Technologies in Applied Engineering, 3(1), 28-43.
AMA Çalışkan D, Demir Ö. DERİN ÖĞRENME YÖNTEMLERİ İLE ŞÜPHELİ DAVRANIŞ TESPİTİ. PORTA. March 2022;3(1):28-43.
Chicago Çalışkan, Duygu, and Önder Demir. “DERİN ÖĞRENME YÖNTEMLERİ İLE ŞÜPHELİ DAVRANIŞ TESPİTİ”. International Periodical of Recent Technologies in Applied Engineering 3, no. 1 (March 2022): 28-43.
EndNote Çalışkan D, Demir Ö (March 1, 2022) DERİN ÖĞRENME YÖNTEMLERİ İLE ŞÜPHELİ DAVRANIŞ TESPİTİ. International Periodical of Recent Technologies in Applied Engineering 3 1 28–43.
IEEE D. Çalışkan and Ö. Demir, “DERİN ÖĞRENME YÖNTEMLERİ İLE ŞÜPHELİ DAVRANIŞ TESPİTİ”, PORTA, vol. 3, no. 1, pp. 28–43, 2022.
ISNAD Çalışkan, Duygu - Demir, Önder. “DERİN ÖĞRENME YÖNTEMLERİ İLE ŞÜPHELİ DAVRANIŞ TESPİTİ”. International Periodical of Recent Technologies in Applied Engineering 3/1 (March 2022), 28-43.
JAMA Çalışkan D, Demir Ö. DERİN ÖĞRENME YÖNTEMLERİ İLE ŞÜPHELİ DAVRANIŞ TESPİTİ. PORTA. 2022;3:28–43.
MLA Çalışkan, Duygu and Önder Demir. “DERİN ÖĞRENME YÖNTEMLERİ İLE ŞÜPHELİ DAVRANIŞ TESPİTİ”. International Periodical of Recent Technologies in Applied Engineering, vol. 3, no. 1, 2022, pp. 28-43.
Vancouver Çalışkan D, Demir Ö. DERİN ÖĞRENME YÖNTEMLERİ İLE ŞÜPHELİ DAVRANIŞ TESPİTİ. PORTA. 2022;3(1):28-43.

International Periodical of Recent Technologies in Applied Engineering