บันทึกการปฎิบัติงานประจำวัน โครงการ 2B-KMUTT รุ่นที่ 19 โดย ปุณณะ เขมะสิงคิ

บันทึกการปฎิบัติงานประจำวัน โครงการ 2B-KMUTT รุ่นที่ 19 โดย ปุณณะ เขมะสิงคิ

Brainstorm นวัตกรรมล้ำยุค (19/3/2025 )

ในการระดมสมองวันแรก เราได้คัดเลือกไอเดียที่น่าสนใจเกี่ยวกับการผสานเทคโนโลยี Robotics, AI และ VR เพื่อสร้างนวัตกรรมใหม่ที่สามารถใช้งานได้จริง หลังจากพิจารณาอย่างรอบคอบ สุดท้ายเหลือ 3 ไอเดียหลัก ได้แก่

1. ระบบนำทางอัจฉริยะผ่าน VR และหุ่นยนต์ควบคุมระยะไกล

ไอเดียนี้ออกแบบมาเพื่อช่วยให้ผู้คนสามารถสำรวจและเดินทางในสถานที่ที่ไม่คุ้นเคย โดยใช้ VR และหุ่นยนต์นำทาง ผู้ใช้สามารถสวมใส่อุปกรณ์ VR เพื่อควบคุมหุ่นยนต์ให้สำรวจพื้นที่จริงแบบเรียลไทม์ ฟีเจอร์หลัก ได้แก่

– นำทางในอาคารขนาดใหญ่ เช่น ห้างสรรพสินค้า สนามบิน หรือโรงพยาบาล

– ช่วยเหลือผู้พิการทางสายตาหรือผู้ที่มีข้อจำกัดในการเคลื่อนไหว

– ใช้งานในพื้นที่อันตราย เช่น เขตภัยพิบัติหรือพื้นที่ที่เข้าถึงยาก

2. หุ่นยนต์จำลองภารกิจเสี่ยงภัย ควบคุมด้วยมนุษย์ผ่าน AI และ VR

แนวคิดนี้มุ่งเน้นการใช้หุ่นยนต์ในงานที่มีความเสี่ยงสูง โดยมนุษย์สามารถควบคุมหุ่นยนต์ให้เคลื่อนไหวตามได้แบบเรียลไทม์ผ่าน VR พร้อมระบบ AI ที่ช่วยแนะนำการเคลื่อนไหวที่ปลอดภัย ตัวอย่างการใช้งาน ได้แก่

– ช่วยเหลือภารกิจกู้ภัย เช่น การค้นหาผู้รอดชีวิตในซากอาคาร

– ทำงานในพื้นที่อันตราย เช่น โรงงานสารเคมีหรือเขตกัมมันตรังสี

– ฝึกซ้อมภารกิจสำคัญ เช่น การปฏิบัติการทางทหารหรืออุตสาหกรรมหนัก

3. หุ่นยนต์ดูแลผู้สูงอายุและเชื่อมต่อกับญาติผ่าน VR

ไอเดียนี้ออกแบบมาเพื่อช่วยดูแลผู้สูงอายุทั้งด้านสุขภาพและความปลอดภัย พร้อมทั้งให้ญาติสามารถพบปะพูดคุยผ่านเทคโนโลยี VR ฟีเจอร์หลัก ได้แก่
แจ้งเตือนการใช้ยาและติดตามสุขภาพ ให้ผู้สูงอายุได้รับการดูแลอย่างสม่ำเสมอ
เฝ้าระวังอุบัติเหตุหรือเหตุการณ์ผิดปกติ พร้อมแจ้งเตือนญาติหรือเจ้าหน้าที่ทันที
ระบบ VR เชื่อมต่อกับญาติ ให้ครอบครัวสามารถพบปะผู้สูงอายุผ่านมุมมอง First-Person View (FPV) เสมือนอยู่ในห้องเดียวกัน

ระบบนี้ช่วยให้ผู้สูงอายุได้รับการดูแลใกล้ชิด ขณะเดียวกันก็ช่วยลดช่องว่างระหว่างครอบครัว ทำให้สามารถดูแลกันได้แม้อยู่ห่างไกลนั้นเป็นว่าทำไมผมถึงเลือกจะทำโปรเจกต์นี้ร่วมกับเพื่อนรวมทีมอีก 2 คน รวมเป็นสาม

เจาะลึกนวัตกรรม ความเป็นไปได้และการพัฒนา (20/3/2025)

วันที่สองเริ่มเจาะลึกเกี่ยวกับโปรเจกต์ที่สนใจ ซึ่งเลือกเป็น หุ่นยนต์ดูแลผู้สูงอายุและเชื่อมต่อกับญาติผ่าน VR

ซึ่งมีการออกเเบบร่างโปรโตไทป์ของตัวหุ่นยนต์ รวมถึงวัสดุอุปกรณ์

วางแผนโครงสร้างโครงงานอย่างละเอียด (21/3/2025)

VR (Virtual Reality)

Oculus Quest: อุปกรณ์ VR ที่ใช้แสดงผลและควบคุมประสบการณ์เสมือนจริง

Unity: แพลตฟอร์มที่ใช้พัฒนาแอปพลิเคชัน

VRUser : เป็นศูนย์กลางของระบบ ที่ใช้ VR และมีปฏิสัมพันธ์กับระบบ AI และหุ่นยนต์

AI (Artificial Intelligence)

Mediapipe: ไลบรารี AI ที่ใช้สำหรับประมวลผลภาพและตรวจจับเหตุการณ์

Accident Detect: ระบบตรวจจับอุบัติเหตุหรือสถานการณ์ผิดปกติ

AI Detect: ตัวกลางที่เชื่อมต่อระหว่างการตรวจจับอุบัติเหตุและการแจ้งเตือน

Robotic

Webcam: กล้องที่ใช้รับภาพเพื่อให้ Raspberry Pi ประมวลผล

Raspberry Pi: คอมพิวเตอร์ขนาดเล็กที่ควบคุมอุปกรณ์ต่าง ๆ ของหุ่นยนต์

  • Mic : รับเสียงจากสภาพแวดล้อม
  • Speaker : ใช้ส่งเสียงตอบกลับ
  • LCD : แสดงข้อมูลที่จำเป็น
  • Servo : ใช้ควบคุมการเคลื่อนไหวของหุ่นยนต์

การทำงานโดยรวม

  1. ผู้ใช้สวม Oculus Quest และโต้ตอบผ่าน Unity
  2. ข้อมูลจากกล้อง Webcam ถูกส่งไปที่ Raspberry Pi เพื่อประมวลผล
  3. ระบบ AI Detect ใช้ Mediapipe เพื่อตรวจจับเหตุการณ์ เช่น อุบัติเหตุ
  4. หากเกิดอุบัติเหตุ ระบบจะแจ้งเตือนหรือให้หุ่นยนต์ทำงานผ่าน Raspberry Pi
  5. หุ่นยนต์สามารถใช้ลำโพง, จอ LCD หรือเซอร์โวมอเตอร์เพื่อโต้ตอบ

จำกัดขอบเขตโครงงาน และเลือกแนวทางที่เป็นไปได้ (24/3/2025)

ในวันนี้มีประเด็นสำคัญที่เกิดขึ้นภายในทีม คือ สมาชิกจากเดิมจำนวน 3 คน ลดเหลือ 2 คน ซึ่งส่งผลต่อขอบเขตของโครงงานโดยตรง ทีมจึงได้มีการปรับแผนงานและลดขนาดโครงงานลง เพื่อให้สอดคล้องกับทรัพยากรและกำลังคนที่มีอยู่ในปัจจุบัน

โครงสร้างนวัตกรรมหลังการลดสเกล

โครงงานนวัตกรรมที่ได้รับการปรับลดขนาดนั้น แบ่งออกเป็น 2 ส่วนหลัก ดังนี้

VR (Virtual Reality)

  • พัฒนาเกม VR สำหรับผู้สูงอายุที่อยู่บ้านเพียงลำพัง
  • ออกแบบเพื่อส่งเสริมสุขภาพทางกาย (Physical Health) โดยเฉพาะผู้ที่ไม่สามารถออกกำลังกายกลางแจ้ง
  • เกมจะช่วยกระตุ้นการเคลื่อนไหวและสร้างแรงจูงใจในการดูแลสุขภาพ

AI (Artificial Intelligence)

AI Detect (ระบบตรวจจับอุบัติเหตุ)

  • ตรวจจับเหตุการณ์ผิดปกติ เช่น การหกล้มของผู้สูงอายุ
  • ส่งสัญญาณเตือนหรือแจ้งเตือนเพื่อป้องกันความสูญเสียที่อาจเกิดขึ้น

AI Chatbot (ระบบสนทนาเพื่อดูแลสุขภาพจิต)

  • พัฒนาแชตบอทที่สามารถสนทนาโต้ตอบกับผู้ใช้งานได้อย่างเป็นธรรมชาติ
  • ช่วยบรรเทาความเหงา และดูแลสุขภาพจิต (Mental Health) ของผู้สูงอายุ

บทบาทหน้าที่ของสมาชิกในทีม

  • AI (ระบบตรวจจับและแชตบอท) : รับผิดชอบโดยผม
  • VR (เกมออกกำลังกายสำหรับผู้สูงอายุ) : รับผิดชอบโดยเพื่อนร่วมทีมอีก 1 คน

AI Detect: ระบบตรวจจับอุบัติเหตุด้วยกล้องและ AI (25–27/3/2025)

ในช่วงวันที่ 25–27 มีนาคม 2025 ได้เริ่มต้นการพัฒนาและทดสอบระบบ AI Detect ซึ่งเป็นหนึ่งในองค์ประกอบสำคัญของโครงการนวัตกรรมเพื่อดูแลผู้สูงอายุ โดยมีเป้าหมายในการตรวจจับอุบัติเหตุที่อาจเกิดขึ้น เช่น การหกล้ม และส่งสัญญาณเตือนเพื่อป้องกันอันตรายที่อาจเกิดขึ้นจากการช่วยเหลือไม่ทันท่วงที

เทคโนโลยีที่ใช้

  • Webcam: ทำหน้าที่รับภาพจากผู้ใช้งานแบบเรียลไทม์
  • Visual Studio Code (VS Code): ใช้เป็นสภาพแวดล้อมหลักในการเขียนและรันโปรแกรม
  • MediaPipe Pose: ไลบรารีสำหรับตรวจจับโครงร่างของมนุษย์จากภาพวิดีโอ โดยสามารถแสดงจุดสำคัญ (keypoints) บนร่างกาย เช่น ศีรษะ ไหล่ สะโพก เข่า และข้อเท้า

เหตุผลที่ไม่ใช้ Raspberry Pi

เนื่องจากการลดขนาดของโครงการจากข้อจำกัดด้านจำนวนสมาชิกในทีม ทำให้พิจารณาตัดการใช้งาน Raspberry Pi ออก เพราะต้องการลดความซับซ้อนในการตั้งค่าระบบ รวมถึงข้อจำกัดด้านประสิทธิภาพของอุปกรณ์ จึงเลือกใช้คอมพิวเตอร์ทั่วไปที่สามารถรันระบบผ่าน VS Code และ Webcam ได้อย่างราบรื่น

หลักการทำงานของระบบ

ระบบจะนำข้อมูลจาก MediaPipe Pose มาวิเคราะห์ตำแหน่งและมุมของส่วนต่าง ๆ ของร่างกาย เพื่อประเมินท่าทางของผู้ใช้งาน โดยมีการคำนวณ องศาระหว่างข้อต่อ เช่น สะโพก-เข่า-ข้อเท้า และพิจารณาความสูงของจุดสำคัญ เช่น ศีรษะและสะโพก โดยมีตรรกะเบื้องต้นในการจำแนกสถานะของร่างกายดังนี้:

  • ยืน (Standing):
    • มุมระหว่างสะโพก เข่า และข้อเท้าอยู่ในแนวตรงหรือเกือบตรง (ประมาณ 160–180 องศา)
    • จุดสะโพกอยู่สูงจากพื้นในระดับปกติ
  • นั่ง (Sitting):
    • มุมระหว่างเข่ากับสะโพกอยู่ในช่วงประมาณ 70–120 องศา
    • จุดสะโพกอยู่ต่ำลงมาใกล้ระดับเข่า
  • ล้ม (Fallen):
    • จุดสะโพกและศีรษะอยู่ใกล้ระดับพื้นมากกว่าปกติ
    • มุมข้อต่อต่าง ๆ อาจอยู่ในลักษณะที่ผิดปกติ หรือร่างกายอยู่ในแนวนอน
    • ลำตัวอาจไม่มีความต่อเนื่องในแนวตั้ง หรือไม่แสดงโครงสร้างท่าทางที่ชัดเจน

สรุปผลการพัฒนาและทดลองระบบ AI Detect (25–28/3/2025)

ในวันที่ 28 มีนาคม 2025 ได้มีการทดลองปรับเปลี่ยนโมเดลจากเดิมที่ใช้ MediaPipe ไปเป็น MoveNet ซึ่งเป็นโมเดลตรวจจับท่าทางที่มีความแม่นยำและเร็วกว่าในบางด้าน อย่างไรก็ตาม ผลการทดลองพบว่า MoveNet ไม่สามารถให้ผลลัพธ์ที่เสถียรและมีความแม่นยำในสภาพแวดล้อมที่ใช้งานจริง ได้ตามต้องการ ทั้งในด้านการตรวจจับ keypoints และความเสถียรของข้อมูลเมื่อใช้งานต่อเนื่อง จึงตัดสินใจ เปลี่ยนกลับมาใช้ MediaPipe Pose เหมือนเดิม โดยเน้นไปที่การปรับปรุงตรรกะ (logic) ของการตรวจจับแทน

การปรับปรุง Logic ตรวจจับใหม่

หลังจากทดสอบหลายแนวทาง ทีมได้พัฒนา ตรรกะใหม่โดยใช้จุดสำคัญหลักคือ Nose และ Hip (จมูกและสะโพก) เพื่อวิเคราะห์ตำแหน่งของร่างกาย และตรวจจับว่ามีการล้มหรือไม่ โดยอาศัยแนวคิดเรื่อง ความขนานกับพื้นดิน:

  • หาก จุด Nose และ Hip มีแนวระนาบที่ขนานกับพื้นมากผิดปกติ แสดงว่าร่างกายอยู่ในแนวนอน ซึ่งเป็นสัญญาณสำคัญของการล้ม
  • ตรงกันข้าม หาก Nose อยู่สูงกว่า Hip อย่างชัดเจน (แนวตั้ง) จะถือว่าเป็นท่ายืนหรือนั่งตามปกติ

Logic นี้จึงถูกใช้เป็น เกณฑ์หลักในการตรวจจับการล้ม แทนการอิงมุมระหว่างข้อต่อแบบเดิม

การทดลองและเก็บข้อมูล

มีการทดลองซ้ำหลายรอบในหลากหลายท่าทาง ได้แก่:

  • นอนคว่ำ
  • นอนหงาย
  • ยืน
  • นั่งบนเก้าอี้

เพื่อรวบรวมข้อมูลเชิงสถิติสำหรับทดสอบความแม่นยำของระบบ AI Detect

ผลลัพธ์และข้อจำกัด

ผลการทดสอบระบบ AI Detect หลังปรับปรุง logic พบว่า:

  • การตรวจจับมี ความแม่นยำสูง เมื่ออยู่ในเงื่อนไขที่เหมาะสม
  • อย่างไรก็ตาม ยังมีข้อจำกัดที่สำคัญ 2 ข้อคือ:
    1. ระบบตรวจจับจะให้ผลแม่นยำที่สุดเมื่อกล้องอยู่ในตำแหน่งมุมตรงขนานกับช่วงตัวของผู้ใช้งาน (ไม่ควรเป็นมุมเฉียงหรือมุมสูงต่ำเกินไป)
    2. จำกัดเฉพาะรูปแบบท่าทางที่ไม่ซับซ้อนและอยู่ในกรอบ logic ปกติ เช่น นอน ยืน นั่งอย่างชัดเจน หากเป็นท่าทางที่ซับซ้อนหรือไม่ชัดเจน เช่น กึ่งนั่งกึ่งนอน หรือขยับตัวกลางคัน อาจทำให้ระบบวิเคราะห์ผิดพลาดได้

พัฒนา ChatBot เพื่อบรรเทาความเหงาของผู้สูงอายุ (31-1/3-4/2025)

ในวันที่ 31-1 มีนาคม-เมษายน 2025 ได้เริ่มต้นพัฒนาระบบ AI ChatBot ซึ่งเป็นอีกหนึ่งองค์ประกอบสำคัญของโครงงาน โดยมีวัตถุประสงค์เพื่อสร้าง ระบบสนทนาอัตโนมัติ ที่สามารถพูดคุยกับผู้สูงอายุ เพื่อช่วยลดความเหงา และสนับสนุนสุขภาพจิตในชีวิตประจำวัน

เครื่องมือและสภาพแวดล้อมที่ใช้

เนื่องจากข้อจำกัดด้านเวลาและทรัพยากรอุปกรณ์ การพัฒนาถูกออกแบบให้ทำงานภายในคอมพิวเตอร์ทั่วไป โดยใช้:

  • Visual Studio Code (VS Code) เป็นสภาพแวดล้อมหลักในการเขียนและรันโปรแกรม
  • ไมโครโฟนและลำโพง เป็นอุปกรณ์พื้นฐานสำหรับอินพุตและเอาต์พุตเสียง

การเลือกใช้โมเดลและ API

ในขั้นต้น ได้ทำการเชื่อมต่อกับ OpenAI API เพื่อใช้ความสามารถของ GPT ในการตอบสนองอย่างเป็นธรรมชาติ แต่พบข้อจำกัดเรื่อง ค่าใช้จ่าย ที่ต้องจ่ายต่อคำถามหรือการใช้งาน จึงได้มีการพิจารณาทางเลือกอื่น ๆ ดังนี้:

  1. DeepSeek (แบบออฟไลน์)
    • ทดลองใช้งานโมเดลขนาดกลางที่รันภายในเครื่องแบบออฟไลน์
    • อย่างไรก็ตาม คอมพิวเตอร์ที่ใช้ไม่สามารถรองรับการประมวลผลโมเดลขนาดใหญ่ได้อย่างมีประสิทธิภาพ
  2. Groq API
    • พบว่า Groq ให้บริการ API ที่รองรับโมเดลโอเพนซอร์ส เช่น Mixtral และ LLaMA ได้ฟรี
    • มีความรวดเร็วในการตอบสนอง และตรงกับความต้องการด้านต้นทุนและความง่ายในการใช้งาน
    • จึงตัดสินใจเลือกใช้ Groq API เป็นแกนกลางของระบบ ChatBot

หลักการทำงานของระบบ

ระบบ ChatBot ถูกออกแบบให้สามารถสนทนาเสียงกับผู้ใช้งานได้อย่างต่อเนื่อง โดยใช้กระบวนการทำงาน 3 ขั้นตอน ดังนี้:

  1. Speech-to-Text
    • แปลงเสียงพูดของผู้ใช้งานให้เป็นข้อความโดยใช้ไลบรารีเช่น speech_recognition
  2. ส่งข้อความไปยัง Groq API
    • ข้อความที่ได้จากการแปลงเสียงจะถูกส่งไปยังโมเดลผ่าน Groq API
    • โมเดลจะประมวลผลและส่งข้อความตอบกลับกลับมา
  3. Text-to-Speech
    • ข้อความตอบกลับจาก AI จะถูกแปลงเป็นเสียงพูดด้วยไลบรารี pyttsx3
    • เพื่อให้ผู้ใช้งานได้รับประสบการณ์สนทนาอย่างเป็นธรรมชาติ

สรุปผลการทดลองระบบ AI ChatBot

จากการพัฒนาและทดสอบระบบ AI ChatBot พบว่าสามารถใช้งานได้จริงในบริบทของการพูดคุยกับผู้ใช้งาน โดยเฉพาะเพื่อสนับสนุนด้านสุขภาพจิต เช่น การพูดคุยเบื้องต้นเพื่อบรรเทาความเหงา

ข้อดีของระบบ

  • ระบบสามารถรับเสียงจากผู้ใช้งาน แปลงเป็นข้อความ และตอบกลับด้วยเสียงได้อย่างราบรื่น
  • สามารถใช้งานบนคอมพิวเตอร์ทั่วไป โดยไม่ต้องใช้ทรัพยากรพิเศษ
  • ความเร็วในการตอบสนองจาก Groq API อยู่ในระดับที่เหมาะสมต่อการใช้งานจริง

ข้อจำกัดที่พบ

  1. ลักษณะการตอบสนองของ ChatBot มีความจริงจังและเน้นเนื้อหาสาระ
    จึงอาจไม่เหมาะสำหรับการพูดคุยเล่นสนุก หรือสร้างอารมณ์ขันแบบเป็นธรรมชาติ
  2. ระบบรับคำสั่งได้แบบทีละรอบการสนทนาเท่านั้น
    กล่าวคือ ผู้ใช้งานต้องรอให้ ChatBot พูดจบก่อน จึงจะสามารถพูดคำสั่งหรือข้อความใหม่ได้
    ทำให้ยังไม่สามารถสนทนาโต้ตอบได้อย่างต่อเนื่องแบบ real-time เต็มรูปแบบ

ผลการทดลอง

  • ระบบสามารถประมวลผลคำสั่งเสียงของผู้ใช้ได้ถูกต้องในระดับที่น่าพอใจ
  • การแปลงข้อความเป็นเสียง (Text-to-Speech) ด้วย pyttsx3 ทำงานได้เสถียร
  • ไม่มีปัญหาการเชื่อมต่อกับ Groq API ในการตอบคำถาม
  • ระบบสามารถใช้ในชีวิตประจำวันเพื่อพูดคุยทั่วไปกับผู้สูงอายุได้ในระดับพื้นฐาน

เตรียมเนื้อหาสำหรับการนำเสนอ และสรุปบทคัดย่อโครงงาน (2–3/4/2025)

ในช่วงวันที่ 2–3 เมษายน 2025 ได้มีการจัดเตรียมเนื้อหาสำหรับการนำเสนอผลงานต่อคณะกรรมการและอาจารย์ที่ปรึกษา ซึ่งครอบคลุมทั้งส่วนของเทคโนโลยีที่พัฒนา แนวคิดเบื้องหลัง ตลอดจนผลการทดลองและข้อค้นพบสำคัญ นอกจากนี้ยังได้มีการสรุปและเรียบเรียง บทคัดย่อ (Abstract) เพื่อใช้อธิบายภาพรวมของโครงงานอย่างกระชับและชัดเจน

การเตรียมการนำเสนอ

  • สรุปภาพรวมโครงงานให้ชัดเจน ครอบคลุมทั้งปัญหา แนวคิด วิธีการ และผลลัพธ์
  • จัดลำดับเนื้อหาให้ไหลลื่น โดยแยกส่วน AI Detect, AI Chatbot และ VR ออกอย่างชัดเจน
  • นำเสนอผลการทดลองแต่ละส่วน พร้อมข้อดีและข้อจำกัดของเทคโนโลยีที่เลือกใช้
  • เตรียมคำอธิบายเชิงเทคนิคที่สามารถสื่อสารกับผู้ไม่เชี่ยวชาญได้เข้าใจง่าย
  • จัดทำสไลด์ประกอบการพรีเซนต์ให้มีจุดเน้นที่ชัดเจน เช่น การแจ้งเตือนอัตโนมัติ, การพูดคุยกับ Chatbot, และการออกกำลังกายผ่าน VR

นำเสนอผลงานและสรุปประสบการณ์จากค่าย 2B-KMUTT รุ่นที่ 19 (5/4/2025)

วันนี้เป็นวันสุดท้ายของการเข้าค่าย 2B-KMUTT รุ่นที่ 19 และเป็นวันที่พวกเราทุกคนได้มีโอกาสนำเสนอผลงานโครงงานนวัตกรรมที่ร่วมกันพัฒนามาตลอดระยะเวลาของค่าย ซึ่งถือเป็นช่วงเวลาที่มีทั้งความเข้มข้น ความท้าทาย และความประทับใจ

ผมรับผิดชอบในส่วนของ ระบบ AI Detect และ AI Chatbot ซึ่งเป็นส่วนที่ใช้เทคโนโลยีปัญญาประดิษฐ์เพื่อดูแลผู้สูงอายุ ทั้งในด้านความปลอดภัยจากการหกล้ม และด้านสุขภาพจิตผ่านการพูดคุยกับระบบสนทนาอัตโนมัติ ก่อนเข้าค่าย ผมไม่เคยมีประสบการณ์ในการทำโปรเจกต์ลักษณะนี้มาก่อน ไม่เคยเขียนระบบตรวจจับคนล้ม ไม่เคยใช้ API อย่าง Groq หรือแม้แต่การแปลงเสียงพูดเป็นข้อความและในทางกลับกัน ทุกอย่างล้วนเป็นเรื่องใหม่สำหรับผม

แม้ว่าระหว่างทำโครงงาน ทีมของเราจะเจอกับปัญหาหลายอย่าง ทั้งเรื่องเวลา อุปกรณ์ และจำนวนสมาชิกที่ลดลงจาก 3 คนเหลือ 2 คน แต่สิ่งที่ทำให้พวกเรายังสามารถเดินหน้าต่อได้ก็คือ “ความร่วมมือและทีมเวิร์ก”
เราช่วยกันคิด ช่วยกันทดลอง และแก้ไขปัญหาไปด้วยกันตลอด ไม่ว่าจะเหนื่อยหรือล้าแค่ไหน ทุกคนก็พยายามสนับสนุนกันจนสุดทาง ซึ่งเป็นสิ่งที่ผมรู้สึกภูมิใจมาก เเละได้รับรางวัล outstanding award มาอย่างภาคภูมิใจครับ

การเข้าร่วมค่ายในครั้งนี้ นอกจากความรู้ด้านเทคนิคที่ได้เรียนรู้จากการลงมือทำจริง ผมยังได้เรียนรู้ถึง ความสำคัญของการทำงานร่วมกับผู้อื่น การสื่อสาร การเข้าใจซึ่งกันและกัน รวมถึงการปรับตัวในสถานการณ์ที่ไม่เป็นไปตามแผน ซึ่งล้วนเป็นทักษะสำคัญที่ไม่สามารถเรียนรู้ได้จากในห้องเรียนเพียงอย่างเดียว

สุดท้ายนี้ ผมอยากขอบคุณโครงการ 2B-KMUTT ที่เปิดโอกาสให้ได้เรียนรู้ เติบโต และได้ค้นพบศักยภาพของตัวเองผ่านประสบการณ์ที่ทรงคุณค่าในค่ายครั้งนี้ครับ

ผู้จัดทำโครงงาน

เนื้อหาและผลงานที่ปรากฏในรายงาน/บล็อกนี้ เป็นส่วนหนึ่งของโครงงานนวัตกรรมเรื่อง
CareBot: ระบบอัจฉริยะเพื่อดูแลผู้สูงอายุด้วยเทคโนโลยี AI และ VR
ซึ่งได้รับการพัฒนาภายใต้โครงการ 2B-KMUTT รุ่นที่ 19 ประจำปี พ.ศ. 2568

โดยโครงงาน CareBot แบ่งการพัฒนาออกเป็นหลายส่วน อาทิ ระบบ VR Game, ระบบ AI ตรวจจับการล้ม, และระบบ AI Chatbot เพื่อสนับสนุนสุขภาพจิตของผู้สูงอายุ

เนื้อหาในบล็อกฉบับนี้ มุ่งเน้นไปที่ งานในส่วนของระบบ AI Detect และ AI Chatbot ซึ่งเป็นผลงานที่
นาย ปุณณะ เขมะสิงคิ นักเรียนโรงเรียนรุ่งอรุณ
รับผิดชอบโดยตรง ทั้งในด้านการวางแนวคิด การเขียนโปรแกรม ทดลองระบบ และจัดทำสรุปรายงานทั้งหมด

รายงานฉบับนี้จัดทำขึ้นเพื่อสะท้อนประสบการณ์การเรียนรู้เชิงลึกของผู้จัดทำ จากการลงมือทำโครงงานจริง และเพื่อใช้เป็นข้อมูลประกอบในการนำเสนอผลงานในโครงการ 2B-KMUTT