เดิม.. ตั้งใจว่าจะสรุปคอร์ส AI for Everyone ส่วนที่เหลือ แต่หลังจากที่ได้เรียน Generative AI for Everyone ซึ่งอัพเดทเนื้อหายุคหลังจาก ChatGPT เปิดตัว ทำให้ความเข้าใจภาพของ AI ชัดเจนมากขึ้น จึงเปลี่ยนเป็นสรุปประเด็นสำคัญของ Generative AI โดยมีพื้นฐานของ Machine Learning ในยุคก่อนมาเทียบเคียง
สำหรับผู้ที่ยังอยู่ในระดับรับรู้ห่าง ๆ ทดลองเป็นผู้ใช้บ้าง เล่น Prompt บ้าง ยังไม่ถึงกับเข้าสู่วงการ AI เต็มตัว ประมาณว่าเชียร์ทีมพรีเมียร์ลีกกับเพื่อนได้ แต่ไม่ได้รู้จักผู้เล่นทุกตำแหน่ง ไม่หาญกล้าวิจารณ์การจัดตัวผู้เล่น ความรู้สำคัญที่ช่วยให้เราไม่หลุดออกจากวงโคจร คือ ความเข้าใจนิยามคำศัพท์ทางเทคนิคจนพอนึกภาพออก มิฉะนั้นคุณก็จะกลายเป็นมนุษย์ต่างดาวที่ฟังภาษาของชาว AI ไม่เข้าใจ
เริ่มต้นจาก AI for Everyone เป็นคอร์สที่อธิบายภาพของ AI ก่อนที่จะเกิด ChatGPT เปรียบเสมือนเรียนประวัติศาสตร์ยุโรปช่วงปฏิวัติอุตสาหกรรม นักประดิษฐ์กับนักลงทุนกำลังมะงุมมะหรามองหาความเป็นไปได้ทางธุรกิจ นักพัฒนาบางส่วนมองเห็นแล้วว่า AI มาช่วยเปลี่ยนวิธีสร้างระบบอัตโนมัติได้อย่างไร แต่ฝั่งธุรกิจส่วนใหญ่ยังคิดตามไม่ทัน ลังเลที่จะนำมาใช้ตอนนี้ ได้แต่เฝ้ามองและติดตามอยู่ห่าง ๆ
คำว่า AI จึงเป็นคำกว้างๆ ทั่วไปหมายถึง ความฉลาดที่ไม่ได้เกิดจากสิ่งมีชีวิต แม้แต่การเขียนโค้ดให้คอมพิวเตอร์ตัดสินใจตามลอจิก if-then-else ก็เป็นการถักทอความฉลาดให้เครื่องจักรโดยโปรแกรมเมอร์ ฉลาดมากหรือน้อยขึ้นอยู่กับความซับซ้อนยิบย่อยของเงื่อนไข (condition) และส่วนใหญ่พยายามโฟกัสไปที่เป้าหมายแคบ ๆ เป็น Domain-Specific AI เช่น แปลภาษา, ตรวจจับใบหน้า ฯลฯ
Deep Learning
คุณมีประเด็นสำคัญที่มีผลต่อการตัดสินใจ X กับ Y ที่อาจมีค่าเป็น 0 หรือ 1 ความยิบย่อยของเงื่อนไขทั้งหมด คือ ลอจิกของ (X,Y) ที่ต้องแปลงเป็นกฏหรือเขียนโค้ดเตรียมไว้ล่วงหน้า
if (X,Y) == (0,0) then do A
if (X,Y) == (0,1) then do B
if (X,Y) == (1,0) then do B
if (X,Y) == (1,1) then do C
หากจะต้องสอนงานให้คนหรือแม้กระทั่งบอกให้โปรแกรมเมอร์เขียนโปรแกรม เพื่อต้องการควบคุมผลลัพธ์ให้ได้ตามต้องการ โลกของการทำงานปัจจุบันหากเกี่ยวข้องกับคนต่างก็ต้องอาศัยการกำหนดกรอบปฏิบัติเช่นนี้ออกมาให้ได้ก่อน
เด็กน้อยคนหนึ่งที่เติบโตมากับพ่อที่เป็นพราน ได้ตามพ่อเข้าป่า วันหนึ่งเห็นพ่อเก็บผลไม้สีแดงจากต้นไม้ต้นหนึ่งให้เขากิน แต่พอเดินไปอีกหน่อยพ่อชี้ไปที่ต้นไม้อีกต้นหนึ่งที่มีผลสีแดงเหมือนกันแล้วบอกว่ากินไม่ได้
ในโลกแห่งความจริง ถ้า X หมายถึงสีของผลไม้ ที่อาจเป็น แดง, เขียว, ส้ม ฯลฯ แต่เราพบว่าสังเกตเพียงแค่สียังไม่พอ มีคนมากมายที่บอกได้ว่าผลของต้นไหนกินได้หรือกินไม่ได้ แต่บอกไม่ได้ว่าต้องสังเกตจากอะไรบ้าง พูดง่าย ๆ ไม่สามารถแจกแจงออกมาเป็นรายการสิ่งที่ต้องสังเกต X, Y, Z, …
นั่นคือข้อจำกัดของกระบวนการคิดแบบเฟรมเวิร์คหรือสูตรต่าง ๆ ที่สามารถถ่ายทอดออกมาได้เท่าที่มนุษย์จะสามารถระบุสิ่งที่แตกต่างเท่าที่สังเกตเห็นได้ และมีรายละเอียดของมิติเท่าที่สมองจะรับได้
วิธีการเรียนรู้อีกอย่างของมนุษย์ เด็กน้อยติดตามพ่อเข้าป่าทุกวัน เมื่อเวลาผ่านไปก็สามารถสังเกตว่าผลของต้นไม้ไหนกินได้และกินไม่ได้แม่นยำมากขึ้น เกิดขึ้นจากการสะสมข้อมูลของต้นไม้ที่หลากหลายไปเรื่อย ๆ จับคู่กับคำตอบของพ่อ
สักวันหนึ่งเมื่อเด็กน้อยเติบโตขึ้น หากต้องสอนให้ลูกเขาสังเกตผลไม้ที่กินได้หรือกินไม่ได้ ก็ต้องทำเช่นเดียวกัน จนกว่าจะเคยเห็นต้นไม้มากพอ แล้วในสมองก็จะมีชุดข้อมูลของต้นไม้ว่าเหมือนและต่างกันอย่างไร จนหาคำตอบได้แต่ไม่สามารถถ่ายทอดออกมาเป็นลำดับขั้นตอนวิธีคิดได้
วิธีการเรียนรู้แบบนี้เรียกว่า Deep Learning อาศัยตัวอย่างโจทย์พร้อมเฉลยคำตอบที่มีจำนวนมากพอ แล้ว AI จะพยายามสังเกตโดยไม่ได้เริ่มจากกฏเกณฑ์ก่อนเช่นเดียวกับมนุษย์เด็ก ค่อย ๆ แยกแยะเปรียบเทียบหาความเหมือนและต่าง เพื่อจัดระบบความคิดเชื่อมโยงคำตอบด้วยตัวเอง
ครั้งหนึ่งเมื่อออกแบบโปรแกรมบัญชีแยกประเภท ผมให้ผู้ใช้บันทึกค่าใช้จ่ายโดยใช้ข้อความตามปกติโดยไม่ต้องมีรหัสบัญชี เมื่อเวลาผ่านไป 3 เดือนจึงเอาข้อมูลเหล่านั้นมาสรุปข้อความที่เกิดขึ้นทั้งหมด ส่งให้สมุหบัญชีตรวจว่าข้อความไหนใช้รหัสบัญชีอะไร หลังจากนั้นก็เอาข้อความมาเทียบหาส่วนที่หมายถึงรหัสบัญชีเหมือนกัน แล้วเขียนเป็นโค้ดแปลข้อความเป็นรหัสเพื่อลงบัญชีอัตโนมัติ
Model Size
ชาว AI มักเรียก model โดยมีขนาด เช่น Llama 2 (ชื่อ model ของ Meta - Facebook) ทำออกมามี 3 ขนาด 7B, 13B และ 70B
ขนาดของ model (วัดจากจำนวน parameter) บอกถึงความละเอียดในการแยกแยะสิ่งที่สังเกต ยิ่งมีขนาดใหญ่ (จำนวนมาก) ก็ยิ่งเก่ง
เด็กบางคนเมื่อชี้ให้ดูต้นไม้อาจแยกแยะออกมาได้แค่สีของผลไม้, ใบ, ขนาดของลำต้น แต่เด็กบางคนอาจเก็บรายละเอียดไปถึงลักษณะก้าน, ขั้ว, ผิวดิน สภาพแวดล้อมข้างเคียง
เก็บรายละเอียดน้อยไปจึงไม่ดี แม้ไม่เปลืองสมองแต่มีโอกาสพลาดง่าย (ชุ่ย)
ละเอียดมากไปก็ไม่ดี เปลืองพลังงาน เสียเวลาคิดนาน ไม่ทันการณ์ (จู้จี้)
ผมมักเปรียบเทียบกับ Thinking Fast and Slow ข้อดีและข้อเสียของสมอง 2 ระบบ มนุษย์เราไม่จำเป็นต้องใช้สมองคิดช้ารอบคอบทุกครั้งกับสถานการณ์ที่ไม่จำเป็น ดังนั้นขนาดของ AI model ที่เหมาะสมจึงขึ้นอยู่กับว่าใช้เพื่ออะไร เพื่อเอาชีวิตรอดในป่าแถวบ้านก็ประมาณหนึ่งพอแล้ว แต่ถ้าต้องบุกป่าดงดิบสุมาตราหรืออเมริกาใต้ก็อาจต้องละเอียดมากขึ้น ดังนั้นการนำไปใช้งานจริงจังจึงต้องมีกระบวนการ fine tuning จาก base model เพื่อให้เชี่ยวชาญตามเงื่อนไขแวดล้อมที่ต้องการใช้งาน
Generative AI
ความเปลี่ยนแปลงเกิดขึ้นเมื่อ OpenAI เปิดตัว ChatGPT เมื่อปลายปี 2022 ทำให้เกิดกระแสการรับรู้เรื่อง AI กับคนทั่วไปจำนวนมาก จนเกิดมุมมองการใช้ประโยชน์จากฝั่งผู้ใช้มากมาย เช่น สรุปย่อบทความยาว, ร่างจดหมายทางการ, วางแผนท่องเที่ยว หรือ ตั้งชื่อสัตว์เลี้ยง
What is generative AI? This term refers to AI, or artificial intelligence systems that can produce high-quality content, specifically text, images and audio.
สิ่งที่ Gen AI ทำได้คือ สามารถสังเคราะห์ผลลัพธ์ใหม่ขึ้นมาได้ (คิดนอกกรอบ) ขณะที่ Supervised AI ที่ทำนายหรือประเมินคำตอบ จากความคล้ายกับข้อมูลในคลังความรู้ที่มีอยู่ (คิดตามตำรา) หรือกล่าวอีกนัยหนึ่ง Gen AI ใช้ Sup AI เป็นฐานต่อยอดสร้างผลลัพธ์ใหม่ที่ไม่เคยมีมาก่อน คล้ายกับความคิดสร้างสรรค์ของมนุษย์มากขึ้น
ภาพที่คนทั่วไปนึกถึง AI จึงหมายถึงปฏิสัมพันธ์ระหว่างผู้ใช้กับ AI ในรูปแบบของ chat หรือใช้ prompt มากกว่าการทำงาน AI ที่รับ input รูปแบบอื่น ที่ใช้ในงาน automation ระหว่าง machine
LLM ย่อมาจาก Large Language Model เป็น AI ที่เข้าใจภาษามนุษย์ เป็นกลไกสำคัญที่ช่วยให้คนทั่วไปสามารถคุยกับ AI เหมือนคุยกับเพื่อน โดยไม่ต้องเรียนรู้คำสั่งพิเศษ
เรามักเข้าใจผิดว่า AI เป็นเหมือนผู้วิเศษที่รอบรู้ แต่ในความเป็นจริงควรมองว่าเป็น เพียงเด็กจบใหม่ ที่มีความรู้เท่าที่ร่ำเรียนมา
ไม่สามารถหาความรู้เพิ่มเติมเองจาก internet (การสอน AI เก่งขึ้นต้องอาศัยการรวบรวมข้อมูลเป็นรอบ ๆ ทำโดยผู้สร้าง)
เป็นเด็กฝึกงานที่ตอบตามตำราที่เป็นความรู้ทั่วไป แต่ยังไม่รู้อะไรเลยเกี่ยวกับงานในบริษัทของคุณ (ต้องอาศัยการสอนเพิ่ม โดยใช้ข้อมูลเฉพาะของคุณเอง)
หากคุณเป็นผู้ใช้งาน คุณไม่สามารถสอน AI ไม่ว่าจะใช้งานมากแค่ไหนก็ไม่สามารถทำให้เก่งกว่าเดิม ตราบใดที่ยังไม่มีการเปลี่ยน version หรือ update โดยผู้สร้าง เพราะ AI ไม่สามารถแยกแยะถูกผิด จนเรียนรู้ด้วยตัวเอง (ผู้สร้างเก็บประวัติการใช้งานเพื่อนำไปประมวลผลก่อน)
ข้อจำกัดภาษา
ทุกวันนี้ความรู้ของ ChatGPT, Bard หรือ Bing มาจากข้อมูลที่เป็นภาษาอังกฤษส่วนใหญ่ ความเข้าใจคำศัพท์ในภาษาอื่นยังน้อย หลายครั้งที่ผลลัพธ์เกิดจากการที่ AI ทำงานด้วยฐานความรู้ภาษาอังกฤษ แล้วแปลกลับมาเป็นภาษาของผู้ใช้อีกทอด ถ้าจะให้ช่วยแต่งโคลงสี่สุภาพ หรือ กาพย์ยานี ๑๑ ที่เป็นภาษาไทย อาจได้ผลลัพธ์แปลกประหลาด
Few Shots ยกตัวอย่างผลลัพธ์ที่อยากได้ Context บอกเงื่อนไขกฏเกณฑ์ (บริบท) ที่ต้องการควบคุม
ผู้ใช้สามารถทำได้เองผ่าน prompt แต่จะไม่จำ ใช้ได้แค่ใน session นั้น
ความยาวข้อความ
การสอนกฏเกณฑ์หรืออธิบายบริบท (context) เพื่อให้ AI ตอบคำถามได้แม่นยำ มีข้อจำกัดอยู่ที่ความยาวของข้อความที่ส่งให้
fine tuning คือการเอา AI ที่มีอยู่แล้วมาสอนงานเพิ่ม ทำให้กลายเป็น AI ตัวใหม่ที่มีความรู้มากกว่าเดิม ไม่ง่าย ต้องออกแรงเยอะ ใช้นักพัฒนาและจัดเตรียมข้อมูลที่ใช้สอนเพิ่ม อาจถือว่าเป็นหนึ่งในกระบวนการสร้าง AI model
เชย (Knowledge Cutoffs)
สำนวน "เชย" มาจากตัวละคร ลุงเชย ในหัสนิยาย พล นิกร กิมหงวน ของ ป.อินทรปาลิต หมายถึง ลักษณะของคนที่ล้าหลังตามสมัยนิยมไม่ทัน
ผู้สร้าง AI มักบอกข้อจำกัดสำคัญให้ผู้ใช้รับรู้ว่า คลังความรู้ของ AI มีถึงแค่วันที่เท่าไหร่ ซึ่งหมายความว่าหากถามถึงเหตุการณ์ที่เกิดขึ้นหลังจากวันนั้น จะตอบไม่ได้ หรือได้คำตอบไม่ถูกต้อง
RAG (Retrieval Augmented Generation) เป็นเทคนิคหนึ่ง ที่สามารถใช้ข้อมูลภายนอก (Google Search, Bing Search) หรือ Private Data มาเสริมกับคำตอบจากคลังข้อมูลของ AI โดยการทำเป็น Few Shot หรือ Context แนบไปกับ prompt ทำให้สามารถเอาเหตุการณ์ปัจจุบันหรือข้อมูลภายในมาตอบได้ ต้องใช้นักพัฒนา อาจถือว่าเป็นหนึ่งในกระบวนการสร้าง AI model
อย่าถามหาสูตรลับ
พึงระลึกไว้ว่า คำตอบที่ได้จาก AI เป็น มาจากการซาวเสียงชาวบ้าน เป็นคำตอบทั่วไปของเสียงส่วนใหญ่ (ความน่าจะเป็นสูงสุด) หากถามวิธีทำข้าวผัดกระเพรา ก็จะได้สูตรที่คนส่วนใหญ่เขาทำกัน คุณไม่สามารถถามหาวิธีทำข้าวผัดกระเพราที่เป็นสูตรลับเฉพาะที่ไม่เหมือนใคร เพราะคำตอบส่วนน้อยจะถูกตีความว่าอาจเป็นคำตอบที่อาจไม่ถูกต้อง
web search or using LLM ? * web search to find accurate answer * LLM for general answer
หลอน (Hallucinations)
เราอาจเคยเจอคนที่เล่าเรื่องราวดูเหมือนน่าเชื่อถือ แต่ภายหลังพบว่าเป็นเรื่องที่ไม่เป็นจริง
ก๊วยเจ๋งคัดลอกเคล็ดคัมภีร์เก้าอิมแบบทวนทิศให้อาวเอี๊ยงฮงฝึกตามจนถูกธาตุไฟแทรกกลายเป็นคนเสียสติ
AI สามารถเสียสติได้เช่นกัน อาจเอาเรื่องที่ไม่เป็นจริงมาตอบเป็นตุเป็นตะ เมื่อมีข้อมูลไม่เพียงพอ เพราะอาจถูกสอนด้วยข้อมูลจำนวนน้อยเกินไป หรือเนื่องจาก Knowledge cutoff ทำให้ความรู้นั้นไม่ถูกต้องสำหรับปัจจุบันไปแล้ว
หรืออีกกรณีหนึ่ง เกิดจากถูกสอนด้วยข้อมูลผิด ๆ (Adversarial Attacks) เช่น ให้รูปหมาไปแล้วบอกว่าแมว ทำให้ AI สับสนจนเพี้ยน
หลอก
นอกจากนี้ AI ยังอาจเพี้ยนเนื่องจากถูกมนุษย์หลอกได้ เคยมีตัวอย่าง เช่น สั่งให้สมมติบทบาทเป็นคุณย่า กล่อมหลานให้นอนด้วยการเล่าสูตรทำระเบิด หรือหลอกให้บอก license key ของซอฟต์แวร์บางตัว
หรือ กรณีของ Image Classification อาจหลอกด้วยการเอาสิ่งอื่นมาปนเพื่อแย่งจุดสนใจในสาระสำคัญของภาพ จนทำให้เกิดความผิดพลาด
อ่านตารางไม่ได้
เป็นเรื่องน่าแปลกใจ เรามักเข้าใจว่า AI มีความเป็นคอมพิวเตอร์น่าเข้าใจข้อมูลที่จัดเก็บในรูปแบบของตารางอย่าง spreadsheet หรือ database ได้ดี แต่ความจริงแล้ว AI มีความสามารถอ่านข้อความในรูปแบบของบทความเป็นหน้ากระดาษเหมือนมนุษย์อ่านหนังสือ ไม่ได้เข้าใจข้อมูลในรูปแบบที่โปรแกรมคอมพิวเตอร์ใช้
วิธีการส่งข้อมูลจาก AI ทำดังนี้ แปลงข้อมูลในตารางเป็น ชื่อคอลัมน์=ข้อมูล เรียงกันลงมาทีละบรรทัด เว้นบรรทัดว่างระหว่างข้อมูลแต่ละชุด
แม้กระทั่งการอ่านข้อความในไฟล์ pdf ก็เช่นเดียวกัน ต้องใช้วิธีแปลงเป็นรูปภาพก่อน แล้วให้ AI อ่านข้อความจากรูปภาพ เสมือนภาพจากกระดาษ
พิษ (Bias and Toxicity)
ทำไมคนไทยส่วนใหญ่จึงรู้สึกไม่ดีกับชาวต่างชาติที่เป็นเพื่อนบ้านของเราโดยเฉพาะพม่า หลายคนอาจตอบว่าเพราะเราเรียนประวัติศาสตร์ตอนเสียกรุงศรีอยุธยา แม้กระทั่งค่านิยมเป็นพิษ เพราะการอ่านวรรณกรรมศรีธนญชัย ขุนช้างขุนแผน
หาก AI ถูกสอนด้วยตำราเล่มเดียวกันก็คงเป็นเช่นเดียวกัน มีตัวอย่างของ AI ที่ถูกสอนด้วยรูปภาพของคนผิวขาวมากกว่าคนผิวสี ทำให้สามารถแยกแยะคนผิวขาวได้เก่งกว่า
บางครั้งค่านิยมบางอย่างเคยยอมรับว่าเป็นเรื่องปกติในยุคสมัยหนึ่ง เช่น การแบ่งแยกสีผิว การยกย่องชายเป็นใหญ่ ซึ่งมีปรากฏอยู่ในบทความ หนังสือพิมพ์ วรรณกรรมทั่วไป เมื่อนำมาใช้สอน AI อาจทำให้ได้คำตอบที่ไม่พึงประสงค์สำหรับปัจจุบันได้เช่นกัน
ระหว่างค่านิยมตะวันตกที่ให้ความสำคัญสิทธิ เสรีภาพ ส่วนบุคคล กับตะวันออกที่เน้นความสัมพันธ์ของกลุ่มที่บุคคลนั้นดำรงอยู่ด้วย AI ที่ถูกสอนมาด้วยความรู้ฝั่งไหนมากกว่า ก็อาจมีความคิดเห็นโน้มเอียงเหมือนกับคนที่เกิดและเติบโตมาในสังคมแบบนั้นด้วย
เก็บตก
บันทึกนิยามตามความเข้าใจของตัวเอง (เท่าที่ฟังและเรียนมา อาจคลาดเคลื่อนก็ได้)
base model
เด็กเกิดใหม่ ผ้าขาว ยังไม่ได้ถูกสอน
pre-trained model
เด็กเรียนจบใหม่ มีความรู้พื้นฐาน
fine-tuned model
พนักงานใหม่ที่ได้รับการฝึกอบรมเพิ่มเติม ให้สามารถทำงานในตำแหน่งที่ตนเองรับผิดชอบ
RAG
เป็นกลไกพาเด็กจบใหม่ (pre-train) ให้รู้จักพี่ ๆ ในบริษัท โดยอาจข้ามขั้นตอนฝึกอบรม (fine-tune) หากเรื่องไหนไม่รู้หรือไม่แน่ใจก็ให้ถามจากพี่ช่วยให้ข้อมูลเป็นครั้ง ๆ ไป
supervised learning
ผมนึกถึงการสอนของครูในโรงเรียน หรือเรียนเพื่อสอบ พยายามตอบให้ตรงคำถาม เช่น เรียนรู้จากคอร์สตะลุยโจทย์ เมื่อเจอโจทย์ใหม่ ก็จะเทียบเคียงจากโจทย์ที่เคยเห็นมา (พ่อชี้บอกว่าต้นไม้ไหนกินได้-ไม่ได้) ใช้กับงานตัดสินใจที่มีขอบเขตความสนใจชัดเจน เช่น ให้เรียนจากตัวอย่างรูปที่มี label บอกว่าเป็นถ้วยดีกับชำรุด เอาไปใช้คัดแยกถ้วยชำรุด
unsupervised learning
ผมนึกถึง ศิษย์โง่ไปเรียนเซน การสอนของอาจารย์ในวิทยาลัยบางแห่ง หรือเรียนเพื่อเข้าใจ จัดระบบองค์ความรู้ของตนเอง (แต่ละคนอาจมีนิยามต่อเรื่องใดเรื่องหนึ่งไม่เหมือนกันขึ้นอยู่กับประสบการณ์ ฯลฯ)อาจารย์ให้รายชื่อหนังสือที่ต้องอ่าน แล้วนักเรียนหาทางสรุปสาระสำคัญเอง ใช้กับข้อมูลที่ไม่มีรูปแบบ หรือขอบเขตความสนใจชัดเจน เช่น ให้เรียนจากตัวอย่างรูป แล้วได้คำตอบเป็นกลุ่มที่คล้ายกัน คน แมว หรือทิวทัศน์
reinforcement learning
เป็นเงื่อนไขพิเศษที่มีระบบประเมินผลลัพธ์ ทำให้ AI สามารถป้อนกลับ เรียนรู้จากผลลัพธ์มาพัฒนาตัวเองได้ เช่น แข่งหมากรุกกันเอง, การเจาะ-ป้องกันระบบความปลอดภัย หรือ ระบบขับเคลื่อนอัตโนมัติ
โดยทั่วไปยังไม่มี AI ที่สะสมประสบการณ์จากการทำงานแล้วเก่งขึ้นเองได้ ทุกครั้งที่เริ่มต้น session ใหม่ คุณจะได้ AI ที่เป็นเด็กฝึกงานเริ่มต้นใหม่เสมอ
diffusion model
กลไกการทำงานกับรูปภาพ เข้าใจสาระสำคัญในภาพของ AI แยก noise ออกมาได้ ผ่านการแปลงรูปภาพระหว่างชัด-ไม่ชัด ขนาดของข้อมูลภาพที่เล็กที่สุดที่ใช้ประมวลผลได้
Comments