ผู้เขียนบทความ : นาย เชิดเกียรติ แก้วมี
1. ความเป็นมา
Deep Learning หรือการเรียนรู้เชิงลึก เป็นหนึ่งในฟังก์ชันของปัญญาประดิษฐ์ (AI) ที่เรียนแบบการทำงานของสมองมนุษย์ในกระบวนการประมวลผลข้อมูลและเป็นการสร้างรูปแบบ สำหรับใช้ในการตัดสินใจ นอกจากนี้ Deep Learning ยังเป็นเซตย่อนของ Machine Learning ใน Artificial Intelligence (AI) เป็นเครือข่ายที่มีประสิทธิภาพของการเรียนรู้ที่ไม่มีผู้สอน หรือ Unsupervised Learning จากข้อมูลแบบไม่มีโครงสร้างและแบบที่ไม่กำกับข้อมูล ทั่งนี้เป็นที่รู้จักกันในชื่อ Deep Neural Learning และ Deep Neural Network
Deep Learning เป็นเซตย่อยของ Machine Learning หรือการเรียนรู้ด้วยเครื่อง ซึ่งเป็นลำดับชั้นของเครือข่ายประสามเทียม (Artificial Neural Network) โดยดำเนินการด้วย Machine Learning เนื่องจากเครือข่ายประสามเทียมถูกสร้างมาเหมือนสมองของมนุษย์มี Nodes เชื่อมต่อกันเหมือนเว็บไซต์ แม้ว่าโปรแกรมแบบเก่าจะสร้างการวิเคราะห์ข้อมูลเชิงเส้น โดยฟังก์ชันลำดับชั้นของระบบ Deep Learning ช่วยให้เครื่องประมวลผลข้อมูลด้วยวิธีการไม่ใช่เชิงเส้น ซึ่งเป็นเทคนิคการเรียนรู้เชิงลึก เพื่อกำจัดสิ่งแปลกปลอมในการทำธุรกรรมที่เสี่ยงต่อการหลอกลวงจะประกอบด้วยเวลา, ที่ตั้งทางภูมิศาสตร์, IP address, ประเภทของธุรกิจค้าปลีก และคุณลักษณะอื่น ๆ ที่ก่อให้เกิดวิธีการหลอกลวงจากบุคคลที่ 3
นอกจากนี้การเรียนรู้เชิงลึกยังถูกนำมาใช้ในทุกอุตสาหกรรม สำหรับงานที่มีความแตกต่างกันจำนวนมาก ทั้ง Facebook ที่แยกความแตกต่างของใบหน้า เพื่อใช้ติดแท็กเพื่อนในรูปภาพ หรือแอปพลิเคชัน e-commerce ที่ใช้จดจำภาพ และอื่น ๆ
2. วัตถุประสงค์
1. เพื่อเพิ่มประสิทธิภาพของระบบโดยการปรับใช้ AI ให้มีความหลากหลายในการแยกประเภทของสัตว์หลายชนิด
2. เพื่อเป็นการต่อยอดความรู้และพัฒนาให้ตัวระบบเพื่อการนำไปใช้ในการทำงานในอนาคต
3. ขอบเขต
1. สามารถจำแนกและแยกประเภทของสัตว์ตั้งแต่ 2 ชนิดขึ้นไป
2. AI มีความแม่นยำในการประมวลผลสูง
4. ประโยชน์ที่คาดว่าจะได้รับ
1. ทำให้มีความรู้ความเข้าใจในด้าน Image Processing เรื่อง การเรียนรู้เชิงลึก (Deep Learning) มากขึ้น
2. เข้าใจง่ายไม่ซับซ้อน สามารถนำไปดัดแปลงและต่อยอดความรู้ได้ง่าย
5. ความรู้ที่เกี่ยวข้อง
- Object Detection คือ การตรวจจับวัตถุด้วยเทคโนโลยีในทางคอมพิวเตอร์ โดยใช้หลักการของ
Computer Vision และ Image Processing ที่ใช้ในงาน AI ตรวจจับวัตถุชนิดที่กำหนด เช่น มนุษย์
สัตว์ วัตถุ ที่อยู่ในรูปภาพ วิดีโอ หรือการแสดงผลแบบเรียลไทม์ -
Image Processing คือ กระบวนการจัดการและวิเคราะห์รูปภาพให้เป็นข้อมูลในแบบดิจิทัลโดยใช้คอมพิวเตอร์ เพื่อให้ได้ข้อมูลที่เราต้องการทั้งในเชิงคุณภาพและปริมาณ โดยมีขั้นตอนที่สำคัญคือ การทำให้ภาพมีความคมชัด การกำจัดสัญญาณรบกวน การแบ่งส่วนของวัตถุที่สนใจออกมาจากภาพ เพื่อนำวัตถุที่ได้ไปวิเคราะห์หาข้อมูลเช่น ขนาด รูปร่าง และทิศทางการเคลื่อนของวัตถุ
- computer vision เป็นศาสตร์ที่ใช้ในการประมวลผล เพื่อให้คอมพิวเตอร์สามารถเข้าใจทัศนียภาพ หรือ แยกแยะวัตถุต่างๆ จากภาพหรือวิดีโอ ในรูปแบบเดียวกับที่ระบบการมองเห็นของมนุษย์ โดยมีขั้นตอน การประมวลผลภาพนั้นจะได้มาจากการนำภาพหรือวีดีโอมาประมวลผล วิเคราะห์และเข้าใจสิ่งที่สามารถ นำข้อมูลออกมาใช้ในการคำนวณหรือการตัดสินใจ
- Selective search เป็นอัลกอริทึม region proposal ที่ใช้ตรวจจับวัตถุ ถูกออกแบบมาให้รวดเร็วพร้อมเรียกคืนข้อมูล ขึ้นอยู่กับการคำนวณการจัดกลุ่มลำดับชั้นของส่วนที่คล้ายกัน รวมถึงสี พื้นผิว ขนาดและความเข้ากันของ รูปร่าง การค้นหาจะทำโดยการแบ่งส่วนภาพตามความเข้มของพิกเซลโดยใช้วิธีการแบ่งกลุ่มตามกราฟ
- Support Vector Machine : SVM เป็น Al ที่สามารถนำมาช่วยแก้ปัญหาการจำแนกข้อมูล ใช้ในการวิเคราะห์ ข้อมูลและจำแนกข้อมูล โดยอาศัยหลักการของการหาสัมประสิทธิ์ของสมการเพื่อสร้างเส้นแบ่งแยกกลุ่มข้อมูลที่ถูก ป้อนเข้าสู่กระบวนการสอนให้ระบบเรียนรู้ โดยเน้นไปยังเส้นแบ่งแยกแยะกลุ่มข้อมูลได้ดีที่สุด
- Deep Learning คือ วิธีการเรียนรู้แบบอัตโนมัติด้วยการ เลียนแบบการทำงานของโครงข่ายประสาทของมนุษย์ โดยนำระบบโครงข่ายประสาท (Neural Network) มาซ้อนกัน หลายชั้น (Layer) และทำการเรียนรู้ข้อมูลตัวอย่าง ซึ่งข้อมูล ดังกล่าวจะถูกนำไปใช้ในการจัด หมวดหมู่ข้อมูล (Classify The Data)
- Google Colab คือ Jupyter notebook ดัดแปลงที่รันอยู่บนคราวด์และไม่จำเป็นต้องติดตั้งโปรแกรมใด ๆ ก่อนใช้งาน ซึ่งทุกคนสามารถใช้งานได้ เพียงแค่มีบัญชี Google Drive เพื่อใช้ในการจัดเก็บตัวโค้ดเท่านั้น โดยภาษา Python เป็นภาษาหลักที่ใช้ในการเขียนและรันงานบนเว็บ Colab นี้
- BOTNOI OpenAI API คือ platform ที่จะรวบรวม API ต่าง ๆ ไว้ เน้น API ที่เป็น AI โดยในระยะแรก API ที่สร้างขึ้น จะมาจากทีมงาน BOTNOI แต่จุดประสงค์ที่แท้จริงคือ อยากจะเชิญชวนนักพัฒนา AI มาฝาก API ที่ตัวเองสร้างขึ้น และหากมีคนใช้งานเยอะ ก็จะเปิดสิทธิ์ให้ขาย API ของตัวเองได้ ซึ่งน่าจะเป็นช่องทางในการสร้างรายได้ให้กับนักพัฒนา AI
6.ผลการดำเนินงาน
การทำงานโดยรวมของระบบ แบ่งออกเป็น 5 ส่วน ดังนี้
Source Code
ส่วนที่ 1 Get data
ส่วนที่ 2 Extract Feature
ส่วนที่ 3 และ ส่วนที่ 4 Train Model & Test Model
ส่วนที่ 5 Deploy Model
ผลจากการทดสอบ
Tools
7.สรุปผลและข้อเสนอแนะ
สรุปผล จากการทำการทดลองพบว่าโปรแกรมมีความแม่นยำสูง แต่จะมีปัญหาเล็กน้อยในเรื่องของการเลิก Model AI มาใช้งานโดยความฉลาดของ Model AI แต่ละตัวมีผลต่อการประมวลผลอาจใช้เวลานาน ข้อเสนอแนะ 1. ยิ่งมีตัวอย่างของข้อมูลมากเท่าไหร่ ยิ่งมีความแม่นยำสูง แต่จะใช้เวลาในการ Extract Feature นาน 2. ตัวโปรแกรมสามารถดัดแปลงไปใช้ในเรื่องการเรียนรู้เชิงลึก (Deep Learning) ได้เยอะมาก
8. ข้อมูลอ้างอิง
1.) https://keras.io/api/applications/
2.) https://colab.research.google.com/drive/1W5qg87P5_NeDxK 93vXeWpoC9XPHap27u#scrollTo=coo-C95JCL1O