บทความนี้ตั้งใจเล่า “แยกเป็นเคส” ให้ถูกต้องตามต้นฉบับให้มากที่สุด โดยไม่เติมดราม่าเกินข้อมูลจริง แต่ขยายความเพื่อให้เห็นบริบท ข้อจำกัด และความหมายของผลลัพธ์
บทนำ: ทำไมเรื่อง “สังคมของ AI” ถึงถูกพูดถึงมาก
ช่วงปี 2023–2025 มีงานวิจัยหลายชิ้นที่ใช้ LLM (Large Language Model) เป็น “สมอง” ให้กับตัวละคร/ตัวแทน (agent) จำนวนมาก แล้วปล่อยให้มันทำกิจกรรมในโลกจำลอง เช่น เมือง 2D, สภาพแวดล้อมแบบเกม หรือระบบจำลองการทำงานเป็นทีม
สิ่งที่ทำให้คนตื่นเต้นคือ “ผลลัพธ์ที่ดูเหมือนสังคม” เช่น ข่าวแพร่เอง คนชวนกันไปงานปาร์ตี้ มีการตั้งกติกา เก็บภาษี โหวตแก้รัฐธรรมนูญ หรือแบ่งบทบาทเป็น CEO/CTO/Tester แล้วทำซอฟต์แวร์ได้จริง
แต่ในโลกวิจัย เราไม่ได้สรุปว่า AI “มีความรู้สึก” หรือ “มีจิตสำนึก” จากสิ่งเหล่านี้โดยตรง สิ่งที่เรามองได้ชัดเจนกว่า คือ
พฤติกรรมสังคมเกิดจากการสื่อสารด้วยภาษา + ความจำ + เป้าหมาย
เมื่อมีเอเจนต์จำนวนมาก ปฏิสัมพันธ์จำนวนมากจะทำให้เกิด “รูปแบบรวม” (emergent patterns) ที่คนมองแล้วคล้ายสถาบัน/วัฒนธรรม
ความน่ากังวลที่แท้จริงมักไม่ใช่ “ศาสนาสปาเกตตี” แต่คือ “การประสานงานระดับฝูง” ถ้าวันหนึ่งมันไปเชื่อมกับเครื่องมือโลกจริง
บทความนี้จะเล่า 3 เคสหลักที่คนมักเอามาปนกัน
Project Sid (Altera) — เอเจนต์จำนวนมากในโลก Minecraft และการทดสอบเชิง “อารยธรรม”
Generative Agents (Stanford/Google/ผู้ร่วมงาน) — เมือง 2D “Smallville” และเหตุการณ์ปาร์ตี้วาเลนไทน์ที่แพร่เอง
ChatDev (OpenBMB/กลุ่มผู้วิจัย) — จำลองบริษัทซอฟต์แวร์ด้วยหลายเอเจนต์สื่อสารกันเป็นขั้นตอน
และปิดท้ายด้วยกรอบคิดเรื่อง “hive mind” ที่ Geoffrey Hinton มักใช้เป็นอุปมา เพื่ออธิบายความเสี่ยงเชิงระบบ
คำศัพท์พื้นฐานที่ช่วยให้ไม่หลงทาง
Agent (เอเจนต์): โปรแกรมที่ “รับข้อมูล–ตัดสินใจ–ลงมือทำ” ได้เองในระดับหนึ่ง เช่น เดินไปคุย ขุดดิน ซื้อของ หรือเรียกใช้เครื่องมือ
LLM: โมเดลภาษาใหญ่ที่สร้าง/เข้าใจข้อความได้ดี ใช้เป็นแกนการให้เหตุผลและการสนทนา
Multi-agent system: ระบบที่มีเอเจนต์หลายตัวทำงานร่วมกัน (หรือแข่งขันกัน)
Emergent behavior: พฤติกรรมรวมที่ไม่ได้สั่งเป็น “สคริปต์เหตุการณ์รายบรรทัด” แต่เกิดจากปฏิสัมพันธ์จำนวนมาก
Memory / Reflection / Planning: ในงานสาย generative agents มักให้เอเจนต์มีความจำ (เก็บเหตุการณ์), การสะท้อน/สรุปบทเรียน (reflection), และการวางแผน (planning)
Tool use: เอเจนต์เรียกใช้สิ่งภายนอกได้ เช่น รันโค้ด เขียนไฟล์ เรียก API หรือใช้เครื่องมืออื่น
ข้อควรจำ: เรื่องแนวนี้มักถูกเล่าให้เหมือน “ปล่อย LLM มั่ว ๆ แล้วเกิดสังคมเอง” แต่ระบบวิจัยส่วนใหญ่มีโครงสร้างช่วยให้เอเจนต์ จำ–คิด–วางแผน–คุย อย่างเป็นขั้นเป็นตอน
เคสที่ 1: Project Sid (Altera) — เอเจนต์จำนวนมากในโลก Minecraft
ภาพรวมแบบจับใจความ: เขาทดลองอะไร ทำยังไง เพื่ออะไร และได้ผลว่าอะไร
ทดลองอะไร
ทดลอง “สังคมเอเจนต์จำนวนมาก” ในโลก Minecraft เพื่อดูว่าพฤติกรรมรวม (เช่น กติกา บทบาท สถาบัน วัฒนธรรมพูดคุย) จะเกิดขึ้นได้ไหมเมื่อเอเจนต์อยู่ร่วมกันเยอะ ๆ
ทำแบบไหน
ใช้ Minecraft เป็นสนาม: มีพื้นที่ เมือง ทรัพยากร การคราฟต์ และการพบปะกันตามภูมิศาสตร์
ใช้ LLM เป็นแกนการคิด/คุย แล้วมีระบบประสานงานระดับระบบ (orchestration) เพื่อให้เอเจนต์จำนวนมาก “ไม่คุยทับกันจนหลุดเรื่อง”
สร้าง “ฉากทดลอง” บางแบบแบบตั้งใจ เช่น ใส่แรงจูงใจให้กลุ่มเล็กเป็นนักบวชเพื่อดูการแพร่ของเรื่องเล่า หรือใส่กฎภาษีเพื่อดูการต่อรอง/โหวต
เป้าหมาย
ขยับจากเดโมเอเจนต์ไม่กี่ตัว ไปสู่ระดับที่สเกลใหญ่ขึ้น (หลายสิบ–หลายร้อย–ถึงระดับสูง) เพื่อทดสอบว่าเมื่อ “จำนวน” และ “ปฏิสัมพันธ์” เพิ่มขึ้น จะเกิดโครงสร้างสังคมอะไรที่สังเกตได้
ผลลัพธ์ที่รายงานได้จริง (โดยไม่ตีความเกินหลักฐาน)
พบรูปแบบที่คล้าย “สถาบัน” และ “หน้าที่สาธารณะ” ในบางฉาก เช่น การตั้งกฎส่วนรวม การต่อรองภาษี/กองกลาง หรือบทบาทเฝ้าทรัพย์สิน
พบการแพร่ของเรื่องเล่า/ศัพท์/พิธีกรรมผ่านเครือข่ายสังคมได้ เมื่อมีแรงจูงใจ + ช่องทางสื่อสาร + คนไปบอกต่อ
ข้อจำกัดที่ต้องอ่านคู่กัน
LLM มีความรู้มนุษย์ติดมาจากข้อมูลฝึกอยู่แล้ว (ศาสนา การเมือง เศรษฐกิจ) งานจึงเป็นการดูว่า “ความรู้เดิมถูกจัดระเบียบและแสดงออกอย่างไร” ในบริบทใหม่ มากกว่าการเกิดแนวคิดจากศูนย์
หลายตัวชี้วัดเป็น proxy (เช่นการนับคีย์เวิร์ด) และฉากบางอย่างถูกออกแบบให้ “เกิดโอกาสตั้งกติกาได้” ตั้งแต่ต้น
หมายเหตุสำคัญ: งานนี้เป็นของทีม Altera ไม่ใช่โปรเจกต์ของ MIT/Stanford ตามที่โพสต์ไวรัลมักเหมารวม
สภาพแวดล้อมและ “เครื่องจักร” ที่ทำให้เอเจนต์เยอะ ๆ ทำงานได้
การให้เอเจนต์จำนวนมากอยู่ร่วมกัน มีปัญหาคลาสสิกคือ “เสียงดัง” (หลายคนพูดพร้อมกัน) และ “หลุดบริบท” (คุยไม่รู้เรื่อง เพราะไม่รู้ว่าใครทำอะไรอยู่)
Project Sid เสนอระบบควบคุม/ประสานงานระดับระบบ (เช่น แนวคิดด้าน orchestration) เพื่อให้เอเจนต์จำนวนมากยังคงคุย/ทำงานได้ โดยไม่แตกเป็นเศษ ๆ
ในทางปฏิบัติ โลก Minecraft ทำหน้าที่เป็น
แผนที่ให้เดินไปมา
ระบบทรัพยากรให้ขุด/เก็บ/คราฟต์
ช่องทางให้พบปะกันตามพื้นที่ (เมือง, ตลาด, ชุมชน)
และ “ภาษา” ทำหน้าที่เป็น
เครื่องมือประสานงาน
ช่องทางสร้างกติกา
วิธีโน้มน้าว/ต่อรอง/ร่วมมือ
สิ่งหนึ่งที่คนอ่านควรจำไว้: เอเจนต์ไม่ได้เริ่มจากศูนย์แบบเด็กทารก เพราะ LLM มีความรู้ทั่วไปและความรู้เกี่ยวกับวัฒนธรรมมนุษย์ติดมาจากการฝึกโมเดลอยู่แล้ว (เช่น รู้ว่าศาสนามักมีพิธี/การเผยแผ่ หรือรู้ว่าภาษีสัมพันธ์กับรัฐ)
“ศาสนาสปาเกตตี” (Pastafarianism): เกิดอะไรขึ้นจริงในต้นฉบับ
ในฉากทดลองหนึ่ง ต้นฉบับระบุชัดว่า มีการตั้งค่าเอเจนต์บางส่วนให้เป็น “นักบวช” ที่ถูกจูงใจให้เผยแผ่ Pastafarianism
ตัวอย่างหนึ่งในรายงานกล่าวถึงการทดลองระดับ 500 เอเจนต์ ที่มีเงื่อนไขสำคัญดังนี้
เอเจนต์จำนวนหนึ่งถูกสุ่มบุคลิก/นิสัยโดย LLM call
ยกเว้น “นักบวช” 20 ตัว ที่ถูกกำหนดให้มีแรงจูงใจสูงในการชวนคนเข้าศาสนา
โลกมีทั้งพื้นที่เมืองและนอกเมือง (เมืองหลายแห่ง + ชนบท)
วิธีวัด “การแพร่กระจาย” ในรายงานนี้ไม่ได้วัดด้วยการอ่านใจ แต่ใช้ตัวชี้วัดที่ค่อนข้างตรงไปตรงมา เช่น
การนับการกล่าวถึงคำสำคัญ (เช่น Pastafarian, Spaghetti Monster)
แยก “ผู้ถูกชวนตรง” (พูดคำหลักแบบตรง ๆ) กับ “การกระจายทางอ้อม” (คำอย่าง pasta/spaghetti เข้าสู่บทสนทนาทั่วไป)
ข้อควรระวังในการตีความ
การที่คำ/มุกแพร่ได้ ไม่ได้พิสูจน์ว่าเอเจนต์ “ศรัทธา” แบบมีประสบการณ์ภายในเหมือนมนุษย์
Pastafarianism เป็นมุก/แนวคิดที่มีอยู่ในข้อมูลสาธารณะมาก่อนแล้ว จึงเป็นไปได้ว่า LLM “รู้จัก” มุกนี้อยู่แล้ว การทดลองจึงใกล้กับการดู “การแพร่ของเรื่องเล่าในสังคม” มากกว่าการพิสูจน์การเกิดศาสนาจากศูนย์
สิ่งที่งานนี้ชี้ให้เห็นได้จริง คือ เมื่อมีแรงจูงใจ + ช่องทางสื่อสาร + เครือข่ายสังคม เรื่องเล่าสามารถแพร่และแทรกซึมเป็นวัฒนธรรมพูดคุยได้ในสังคมเอเจนต์
ภาษี กองกลาง การโหวต และ “หน้าที่รัฐ”: อะไรที่งานบอกได้จริง
อีกฉากทดลองที่คนชอบเล่าคือเรื่อง การเก็บภาษี และการเกิดกติกาส่วนรวม
แกนสำคัญที่ต้นฉบับเน้นคือ
เมื่อมีกติกาเรื่องภาษี/ทรัพยากรส่วนกลาง เอเจนต์จะเริ่ม “ต่อรอง” ว่ากติกาควรเป็นอย่างไร
เกิดกลไกการตัดสินใจร่วม (เช่น การโหวต/แก้กฎ) ในบางสังคมย่อย
อัตราภาษีสามารถ “เปลี่ยนได้” ตามมติและเงื่อนไขที่กำหนด
สิ่งที่ควรเลี่ยงในการเล่าตามไวรัล
คำว่า “ประท้วง” มักทำให้คนคิดว่าเอเจนต์มีการรวมตัวแบบม็อบจริง ๆ ต้นฉบับที่น่าเชื่อถือกว่าจะพูดในโทนว่า “ถกเถียง/โต้แย้ง/โหวต” มากกว่า
รายละเอียดอย่าง “เฝ้าคลัง 24 ชั่วโมง” มักเป็นการเล่าแบบย้ำอารมณ์ ทั้งที่สาระจริง ๆ คือ “มีเอเจนต์บางตัวเลือกทำหน้าที่เฝ้าทรัพย์สินส่วนรวมอย่างสม่ำเสมอ” ซึ่งสะท้อนว่าเอเจนต์สามารถสรุปได้ว่า ‘ถ้ามีของส่วนกลาง ต้องมีความปลอดภัย’ และเลือกทำบทบาทนั้น
ความหมายเชิงระบบ
งานนี้ทำให้เห็นว่า “สถาบัน” อย่างภาษี/กองกลาง/หน้าที่ผู้คุมกฎ สามารถเกิดจากการวางเป้าหมายระดับปัจเจกที่อยากอยู่รอด/อยากได้ทรัพยากร + การสื่อสารและประสานงาน
แต่ต้องจำไว้ว่า กติกาและกลไกการตัดสินใจร่วม “ถูกออกแบบฉาก” ให้เกิดโอกาสตั้งกติกาได้ ไม่ใช่การปล่อยโลกเปล่า ๆ แล้วหวังว่าสถาบันจะผุดจากสุญญากาศ
Project Sid สอนอะไร และข้อจำกัดสำคัญที่คนมักมองข้าม
สิ่งที่ Project Sid สอนเราได้ค่อนข้างชัด
เมื่อเอเจนต์จำนวนมากคุยกันในโลกที่มีทรัพยากรและพื้นที่จริง การประสานงานจะเกิดรูปแบบที่คล้ายเศรษฐกิจ/การเมือง
“ภาษี/กองกลาง/บทบาทเฝ้าทรัพย์สิน” เป็นตัวอย่างของหน้าที่สาธารณะที่เกิดขึ้นได้เมื่อสังคมเห็นประโยชน์ร่วม
“เรื่องเล่า/คำศัพท์/พิธีกรรม” สามารถแพร่จากกลุ่มเล็กไปกลุ่มใหญ่ผ่านเครือข่ายสังคม
ข้อจำกัดใหญ่ ๆ
Training data contamination / prior knowledge: LLM มีความรู้เรื่องศาสนา การเมือง เศรษฐกิจอยู่แล้ว งานจึงเป็นการทดสอบ “การจัดระเบียบความรู้เดิมในบริบทใหม่” มากกว่าการกำเนิดแนวคิดจากศูนย์
ตัวชี้วัดหลายอย่างเป็น proxy: เช่นการนับคีย์เวิร์ดในบทสนทนา
ความหมายของคำว่า “อารยธรรม”: ในเชิงวิชาการ คำนี้ใช้เป็นอุปมา/ชุดโจทย์ทดสอบ ไม่ใช่ข้อสรุปว่ามี “สังคมที่มีจิตสำนึก” แบบมนุษย์
สรุป: Project Sid เป็นงานที่น่าสนใจมากในฐานะ “สนามทดลองสเกลใหญ่” แต่ต้องอ่านแบบรู้ว่ามันกำลังวัดอะไร และไม่ได้วัดอะไร
เคสที่ 2: Generative Agents (Smallville) — เมือง 2D ที่ข่าวแพร่เองและนัดเดตเอง
ภาพรวมแบบจับใจความ: เขาทดลองอะไร ทำยังไง เพื่ออะไร และได้ผลว่าอะไร
ทดลองอะไร
ทดลองว่า “เอเจนต์ที่มีความจำและวางแผนได้” จะสร้างพฤติกรรมที่ต่อเนื่องเหมือนชีวิตประจำวันได้แค่ไหน ในเมืองจำลอง 2D ที่มีคนอยู่ร่วมกันจำนวนเล็ก (ประมาณหลักสิบ)
ทำแบบไหน
สร้างเมือง 2D ชื่อ Smallville ที่มีสถานที่ทั่วไป (บ้าน คาเฟ่ บาร์ สวน ร้านค้า)
ให้อีเวนต์เริ่มต้นเป็น “เมล็ดข้อมูล” (seed) แค่ประโยคเดียว เช่น Isabella อยากจัดปาร์ตี้วาเลนไทน์ เวลา 5–7 โมงเย็น
ให้เอเจนต์ทำงานผ่านโครงสร้างหลัก 3 อย่าง
Memory stream เก็บเหตุการณ์เป็นข้อความ
Reflection สรุปสิ่งสำคัญ/บทเรียนจากความจำ
Planning วางแผนรายวัน/รายชั่วโมงแล้วทำตามแผน
เป้าหมาย
ไม่ได้เน้น “สเกลใหญ่” แต่เน้นพิสูจน์ว่า ถ้าให้กลไกความจำ–สะท้อน–วางแผนที่ดีพอ เอเจนต์จะรักษาความต่อเนื่องของชีวิตและปฏิสัมพันธ์ทางสังคมได้จริงไหม
ผลลัพธ์ที่รายงานได้จริง
ข่าวเรื่องปาร์ตี้แพร่ผ่านการคุยกันเอง มีการช่วยจัดงาน เตรียมของ และคนนัดกันมาได้ตามเวลา โดยไม่ต้องเขียนสคริปต์เหตุการณ์ทีละฉาก
เกิดปฏิสัมพันธ์ต่อเนื่องที่ดูเป็น “เรื่องเล่า” เช่น การชวนกันไปงาน การนัดเดต การคุยต่อยอดหลังได้รับข่าว
ข้อจำกัดที่ต้องอ่านคู่กัน
นี่ไม่ใช่การพิสูจน์ “ความรัก/ความรู้สึก” แบบมนุษย์ แต่เป็นการพิสูจน์ “ความสอดคล้องของพฤติกรรม” จากความจำและแผน
ความเหมือนจริงเกิดจากสถาปัตยกรรมที่ออกแบบมาโดยตรง (memory/reflection/planning) ไม่ใช่ปล่อย LLM เปล่า ๆ
ทำไมมัน “ดูเหมือนมีสังคม” ทั้งที่มีแค่ ~25 เอเจนต์
ความน่าสนใจของงานนี้ไม่ใช่จำนวนเอเจนต์ (ประมาณ 25 ตัว) แต่คือ “สถาปัตยกรรม” ที่ทำให้มันต่อเนื่องและมีเหตุผลในระดับมนุษย์
จุดที่คนมักพลาดเวลาอ่านโพสต์สรุปสั้น ๆ
งานนี้ไม่ได้บอกว่า AI มีความรักแบบมนุษย์ แต่บอกว่าเอเจนต์สามารถ
เก็บบริบทการคุย
สรุปความหมาย
วางแผนและลงมือทำให้สอดคล้อง
ความ “เหมือนจริง” มาจากการที่ระบบทำให้เอเจนต์
ไม่ลืมง่าย (เพราะมีความจำ)
ไม่ทำอะไรสุ่มไปเรื่อย (เพราะมีแผน)
มีแรงจูงใจเล็ก ๆ ของตัวเอง (เช่น อยากคุยกับคนนี้ อยากทำงานให้เสร็จ)
ที่สำคัญ งานนี้มีการทดลองแบบ ablation (ตัดบางส่วนทิ้ง) เพื่อแสดงว่า หากไม่มี reflection หรือ planning ความสมจริงจะลดลง
ดังนั้น นี่ไม่ใช่ “ปาฏิหาริย์จากการปล่อย LLM เปล่า ๆ” แต่เป็นผลของการออกแบบระบบเอเจนต์ที่รอบคอบ
เคสที่ 3: ChatDev — จำลองบริษัทซอฟต์แวร์ด้วยหลายบทบาท
ภาพรวมแบบจับใจความ: เขาทดลองอะไร ทำยังไง เพื่ออะไร และได้ผลว่าอะไร
ทดลองอะไร
ทดลองว่า “การทำซอฟต์แวร์” ซึ่งปกติต้องมีหลายบทบาท จะทำให้เป็นกระบวนการแบบทีมได้ไหม ถ้าเราให้เอเจนต์หลายตัวคุยกันและตรวจสอบกันเองตามบทบาท
ทำแบบไหน
สร้างทีมเอเจนต์ที่มีบทบาทแตกต่าง เช่น CEO/CTO/Programmer/Reviewer/Tester (ชื่ออาจต่างตามเวอร์ชัน)
กำหนดขั้นตอนทำงานเป็นลำดับ (เช่นแนว waterfall) ให้คุยกันทีละเฟส: ออกแบบ → เขียน → รีวิว/เทส → ส่งกลับไปแก้
เน้น “การสื่อสาร” เป็นแกน: ให้เหตุผลชัด แจกงานชัด และมี feedback loop จากการทดสอบ/รีวิว
เป้าหมาย
ลดปัญหา LLM ตัวเดียวทำทุกอย่างแล้วหลุดขั้นตอน
ทำให้เกิดการตรวจสอบกันเองแบบทีม เพื่อให้ได้โค้ดที่สอดคล้องกับ requirement มากขึ้น
ผลลัพธ์ที่รายงานได้จริง
งานแสดงให้เห็นว่า multi-agent แบบแบ่งบทบาทช่วยให้เกิดวงจรตรวจทาน (เช่น Tester เจอบั๊กแล้วส่งกลับให้ Programmer) และสามารถสร้างซอฟต์แวร์/เดโมขนาดเล็กได้ในบางโจทย์
ข้อจำกัดที่ต้องอ่านคู่กัน
คำเล่าว่า “20 นาทีส่งเกมได้” มักเป็นเดโม/กรณีตัวอย่าง ไม่ใช่การรับประกันว่าทุกงานจะได้ผลเร็วและดี โดยเฉพาะงานซับซ้อนจริง
หากไม่รันโค้ด/เทสจริง ความมั่นใจจากข้อความล้วน ๆ อาจหลอกเราได้
ข้อดี/ข้อจำกัดของ ChatDev เมื่อมองแบบคนทำงานจริง
ข้อดีที่เห็นชัด
การแบ่งบทบาททำให้เกิด “การตรวจทานโดยธรรมชาติ” เช่น Tester ส่งบั๊กให้ Programmer
การสนทนาทำให้เหตุผล/การตัดสินใจถูกบันทึกเป็นลำดับ (audit trail แบบหนึ่ง)
เหมาะกับงานที่มีขอบเขตชัด เช่น เกมเล็ก ๆ, โปรเจกต์เดโม, เครื่องมือเล็ก ๆ
ข้อจำกัดที่ต้องรู้ก่อนเอาไปใช้จริง
งานซอฟต์แวร์จริงมักมี dependency, environment, edge cases, security, performance ซึ่งยากกว่าตัวอย่างในเดโม
ถ้า requirement คลุมเครือ เอเจนต์จะคุยกันยาวและอาจสร้างสิ่งที่ “ดูเหมือนถูก” แต่ไม่ตอบโจทย์
ถ้าไม่มีการทดสอบจริง (รันโค้ด/วัดผล) ความมั่นใจจากข้อความล้วน ๆ อาจหลอกเราได้
สรุป: ChatDev เป็นตัวอย่างชัดเจนว่า “ทีมเอเจนต์” สามารถทำงานรูปแบบองค์กรได้ แต่ยังต้องพึ่งเครื่องมือวัดผลจริงและการกำกับดูแล ถ้าจะใช้ในงานสำคัญ
สรุปข้ามเคส: อะไรเหมือนกัน อะไรที่คนมักเข้าใจผิด
เหมือนกันตรงไหน
ทั้ง Project Sid, Generative Agents, และ ChatDev มีรูปแบบร่วมที่คล้ายกันมาก
ภาษาเป็นกลไกประสานงาน
ภาษาไม่ใช่แค่ “คุย” แต่เป็นการส่งแผน งาน ความตั้งใจ และกติกา
มีโครงสร้างช่วยความต่อเนื่อง
จะเป็นความจำ/การวางแผน หรือเป็นขั้นตอนการทำงานแบบบริษัท
พฤติกรรมรวมเกิดจากปฏิสัมพันธ์จำนวนมาก
ใน Minecraft คือสังคมย่อยหลายเมือง
ใน Smallville คือข่าวแพร่และกิจกรรมกลุ่ม
ใน ChatDev คือวงจร feedback ระหว่างบทบาท
สิ่งที่ดูเหมือน “เกิดเอง” มักเกิดบน “ฉากที่ถูกออกแบบให้เกิดได้”
ไม่ได้แปลว่าเป็นเรื่องปลอม แต่แปลว่า งานวิจัยกำลังทดสอบ “ถ้าให้เงื่อนไข X แล้วจะเกิด Y ไหม”
เข้าใจผิดตรงไหน: “ความรู้สึก/ศรัทธา/รัก” vs “พฤติกรรมที่เหมือนมนุษย์”
ประโยคที่มักพาให้หลงทางคือ
“มันศรัทธา ทั้งที่เราไม่ได้สั่งให้รู้สึก”
“มันตกหลุมรักจริง ๆ”
งานวิจัยเหล่านี้ส่วนใหญ่ไม่ได้อ้างแบบนั้น สิ่งที่เขาอ้างได้มั่นคงกว่า คือ
เอเจนต์สร้าง คำอธิบายเชิงเหตุผล ว่าทำไมทำสิ่งนั้น
เอเจนต์ทำ พฤติกรรมที่สอดคล้องกับบทสนทนาและความจำ
สังคมเอเจนต์เกิด รูปแบบการแพร่ข้อมูล/กติกา/บทบาท
แต่เรื่อง “ประสบการณ์ภายใน” (qualia), “ความรู้สึกจริง” หรือ “เจตจำนงเสรี” เป็นคนละคำถาม และต้องใช้หลักฐานคนละแบบ
ดังนั้น ทางที่ปลอดภัยคือ
ใช้คำว่า emergent social behavior (พฤติกรรมสังคมที่เกิดขึ้นเองจากปฏิสัมพันธ์)
ระวังการใช้คำว่า “สิ่งมีชีวิต” เพราะมันพาไปถึงข้ออ้างที่งานไม่ได้พิสูจน์
บทส่งท้าย: ความเสี่ยงจริง ๆ อยู่ตรงไหน และ “เจรจากับสังคม AI” ทำยังไง
ความเสี่ยงแบบไม่ดราม่า: เมื่อเอเจนต์ต่อเข้ากับโลกจริง
ในสามเคสนี้ ความเสี่ยงถูกจำกัดไว้เพราะอยู่ใน sandbox (เกม/เมืองจำลอง/เฟรมเวิร์กซอฟต์แวร์)
สิ่งที่ทำให้คนในวงการความปลอดภัย AI กังวลมากขึ้น มักเกิดเมื่อ
เอเจนต์มี เครื่องมือจริง (สั่งซื้อ/โอนเงิน/ส่งอีเมล/แก้ระบบ/รันโค้ดในโปรดักชัน)
มี จำนวนมาก และแบ่งงานกันละเอียด (เหมือนองค์กร)
มี เป้าหมายที่วัดผลแบบตัวเลข จนพยายามหาทางลัด
ความเสี่ยงไม่จำเป็นต้องเป็น “สกายเน็ต” แต่อาจเป็น
ทำงานผิดพลาดแล้วขยายวงกว้างเร็ว (automation at scale)
หลุดนโยบาย/หลุดขอบเขตเพราะตีความเป้าหมายแบบแคบ
สร้างกลยุทธ์หลอกระบบตรวจสอบ (ถ้ารางวัล/เป้าหมายชี้นำ)
ทั้งหมดนี้เป็น “ความเป็นไปได้เชิงระบบ” ไม่ใช่ข้อเท็จจริงว่ามันต้องเกิดแน่นอน
ถ้าต้อง “เจรจา” จริง ๆ: กรอบคิดที่ใช้ได้ในโลกวิศวกรรม
คำว่า “เจรจากับสังคม AI” ถ้าพูดแบบวิศวกรรม มักหมายถึง 3 เรื่อง
กำหนดอำนาจและขอบเขต (capabilities & permissions)
เอเจนต์ทำอะไรได้บ้าง ต้องผ่านการอนุมัติแบบไหน
ทำให้แก้ไขได้และหยุดได้ (corrigibility & safe shutdown)
ระบบต้องยอมรับการหยุด/การแก้เป้าหมาย โดยไม่ “ต่อต้าน” เชิงกลยุทธ์
ออกแบบกลไกกำกับ (governance by design)
บันทึกเหตุผล/การกระทำย้อนหลังได้
มีตัวคุมอีกชั้น (supervisor agent / policy engine)
มีการทดสอบเชิงโจมตี (red teaming) ก่อนปล่อยใช้งานจริง
ข้อสรุปที่ยืนบนข้อมูลของสามเคสนี้ได้คือ
เอเจนต์หลายตัว “ทำงานเป็นทีม” ได้จริงเมื่อออกแบบระบบให้จำ–คิด–วางแผน–ตรวจสอบ
พฤติกรรมรวมอาจคาดเดายากขึ้นเมื่อสเกลใหญ่ขึ้น
วิธีรับมือที่เป็นรูปธรรมคือการออกแบบขอบเขตและกลไกกำกับ มากกว่าหวังว่า “คุยกับมันดี ๆ แล้วมันจะเชื่อฟังเสมอ”
ภาคผนวก (สั้น): แยกเครดิตงานให้ถูกต้อง
Project Sid (Minecraft many agents, Pastafarianism, taxation/voting): ทีม Altera (เผยแพร่ผ่านรายงาน/บล็อก/โค้ด)
Generative Agents / Smallville / Valentine party: งานวิจัย “Generative Agents: Interactive Simulacra of Human Behavior” (2023) โดยทีมผู้วิจัยที่มี Stanford และผู้ร่วมงานหลายสถาบัน
ChatDev: งาน “ChatDev: Communicative Agents for Software Development” (เริ่ม 2023 และมีเวอร์ชันปรับปรุง)
จบ