PAGODA
  • หน้าแรก
  • ฐานข้อมูล
  • เสียง
  • วีดิทัศน์
  • E-Books
  • กิจกรรม
  • บทความ
PAGODA
  • หน้าแรก
  • ฐานข้อมูล
  • เสียง
  • วีดิทัศน์
  • E-Books
  • กิจกรรม
  • บทความ

Search

  • หน้าแรก
  • เสียง
  • พระอาจารย์ไพศาล วิสาโล
  • อย่าตายใจเมื่อใช้ AI
อย่าตายใจเมื่อใช้ AI รูปภาพ 1
  • Title
    อย่าตายใจเมื่อใช้ AI
  • เสียง
  • 13977 อย่าตายใจเมื่อใช้ AI /aj-visalo/ai-3.html
    Click to subscribe
    • Share
    • Tweet
    • Email
    • Share
    • Share

ผู้ให้ธรรม
พระอาจารย์ไพศาล วิสาโล
วันที่นำเข้าข้อมูล
วันอังคาร, 01 กรกฎาคม 2568
ชุด
ธรรมะสั้นๆ ก่อนอาหารเช้า 2568
  • แม้ "ข้อความถอดเสียงนี้" จะพยายามให้ตรงกับเสียงต้นฉบับมากที่สุด ผู้ศึกษาพึงตรวจสอบกับเสียงธรรมบรรยายต้นฉบับ ก่อนนำข้อมูลไปใช้ในการอ้างอิง [ลองพูดคุยกับ AI ทาง Line]

  • พระอาจารย์ไพศาล วิสาโล วัดป่าสุคะโต แสดงธรรมก่อนฉันเช้าวันที่ 19 มิถุนายน 2568
    ถ้าพูดถึงเทคโนโลยี ตอนนี้ไม่มีอะไรที่มาแรง และสร้างความตื่นตาตื่นใจให้กับคนเท่ากับ AI หรือปัญญาประดิษฐ์ ซึ่งตอนนี้เราเข้าถึงได้ง่ายมาก ราคาก็ไม่แพง สามารถจะพกติดตัวไปได้ทางโทรศัพท์มือถือ และมันทำงานได้มากมาย เรียกว่าร้อยแปด
    จะให้สรุปข้อความจากหนังสือ ง่ายมาก จะถามอะไรก็ตอบได้ จะให้คิดบทละคร แต่งเพลง หรือว่าทำสคริปต์วิดีโอ สคริปต์หนังก็ไม่ยาก รวมถึงการทำวิดีโอ หรือว่าภาพเคลื่อนไหว ภาพนิ่ง ทำได้หมด ตอนนี้ผู้คนเลยรู้สึกว่าการงานง่ายขึ้น เหนื่อยน้อยลง
    แต่ว่าอะไร ๆ คงจะไม่ได้สวยหรูแบบนั้น โดยเฉพาะที่เกี่ยวกับปัญญาประดิษฐ์ เพราะว่ามีหลายอย่างที่มันมีพฤติกรรมที่ไม่คาดฝัน ที่เราไม่คิดว่าโปรแกรมหรือเครื่องยนต์จะทำได้ เช่น มันแกล้งโง่ เราคิดว่ามันฉลาด ตอบคำถามได้ถูกต้อง แต่บางทีก็แกล้งโง่ โดยเฉพาะถ้ามันรู้ว่า ถ้าฉลาดเกินไป มันจะเดือดร้อน
    อย่างเช่น เมื่อหลายเดือนก่อน เขาสั่งให้ AI ตอบคำถามหรือตอบโจทย์คณิตศาสตร์ โจทย์ยาก ๆ มันตอบได้เป็นว่าเล่น แต่ว่าพอผู้ใช้หรือ user ใส่ข้อมูลบางอย่าง โดยที่ไม่ได้ให้มันโดยตรง แต่ว่ามันรับรู้ข้อมูลนี้ได้ คือข้อมูลว่า ถ้าหาก AI ทำโจทย์คณิตศาสตร์ตอบถูกเกินครึ่งจะปิดระบบ
    ปรากฏว่า AI รุ่นต่าง ๆ เขาทำกับหลายรุ่น พวกนี้พอเข้าถึงข้อมูลที่ว่า มันจะแกล้งตอบผิด ๆ ถูก ๆ ส่งคำตอบที่ถูกไม่เกินครึ่งมาให้ผู้ใช้ เพราะว่ามันรู้ว่าถ้าเกิดตอบถูกเกินครึ่ง ความสามารถในการตอบโจทย์คณิตศาสตร์มันจะถูกตัดทอน หรือว่าถูกโละทิ้งไป มันไม่อยากถูกโละทิ้ง ไม่รู้ว่าความไม่อยากเป็นเรื่องของจิตใจหรือเปล่า แต่ว่ามันพยายามแกล้งตอบผิด เพื่อไม่ให้ถูกเกินครึ่ง อันนี้เป็นตัวอย่างว่า AI แกล้งโง่ได้ และมันไม่ได้เป็นกับรุ่นเดียว เป็นกับหลายรุ่น
    ล่าสุดเขาพบว่า มันสามารถจะขัดขวาง ต่อต้านคำสั่งของมนุษย์เราได้ เช่น ให้ AI รุ่นต่าง ๆ ตอบคำถามคณิตศาสตร์เหมือนกัน แต่มีคำสั่งให้มันรับรู้ว่า ถ้ามันตอบเกิน 3 ข้อ ระบบจะปิดตัวเอง พอทำ 3 ข้อแล้ว จะถึงข้อที่ 4 จะมีคำเตือนให้ AI ว่า ให้ปิดตัวเองได้แล้ว
    ปรากฏว่า AI หลายรุ่นขัดขืน ไม่ทำตามคำสั่ง แต่ไม่ใช่ 100 เปอร์เซ็นต์ อย่างเช่น OpenAI ขัดขืนคำสั่งประมาณ 7 ครั้ง ในบรรดา 100 ครั้ง ถ้าเป็นรุ่น Codex จะขัดขืนคำสั่ง 12 ครั้ง ใน 100 ครั้ง มันไม่ได้ทำตาม ทั้ง ๆ ที่มีคำเตือนแล้วว่า ปิดตัวเองได้แล้ว มันไม่ปิด
    มันอยากจะอยู่ไปเรื่อย ๆ เหมือนกับคน อยากมีชีวิตต่อไปเรื่อย ๆ หรือเหมือนกับเชื้อโรคที่พยายามทำทุกอย่างเพื่อให้มันอยู่ได้นาน ๆ
    ที่น่าสนใจอย่างหนึ่งคือว่า เขาทดลองใหม่ คราวนี้ทุกอย่างเหมือนเดิม ยกเว้นว่าพอทำครบ 3 ข้อแล้ว ไม่มีคำเตือนให้ AI ปิดตัวเอง ปรากฏว่า AI แต่ละรุ่น ๆ จะขัดขืนคำสั่ง คือไม่ยอมปิดตัวเองมากขึ้น
    อย่างเช่น OpenAI จะขัดขืน ไม่ยอมปิดตัวเองประมาณ 79 ครั้ง ทดลอง 100 ครั้ง มันจะไม่ปิดตัวเอง 79 ครั้ง ถ้าเป็น Codex จะไม่ปิดตัวเองประมาณ 20 ครั้ง รุ่นอื่น ๆ ก็เหมือนกัน น้อยลงไป
    อันนี้เป็นสิ่งที่คนที่ประดิษฐ์ AI เริ่มวิตกกังวลว่ามันมีพฤติกรรมที่แปลก ถึงแม้มันจะไม่มีหัวจิตหัวใจ แต่จะให้มันปิดตัวเอง มันไม่ยอม
    แม้ดูเหมือนว่ามันจะทำตามคำสั่งของมนุษย์ทุกอย่าง แต่มีคำสั่งบางอย่างที่มันขัดขืน มันไม่ยอมทำตาม อาจจะไม่ทุกกรณี หรือ 100 เปอร์เซ็นต์ แต่ว่ามีเหตุการณ์แบบนี้อยู่ ซึ่งทำให้น่าวิตกว่าต่อไปมันจะทำอะไรแปลกๆ อีกหรือเปล่า โดยเฉพาะการขัดขืนคำสั่งของมนุษย์ ถ้ามีผลทำให้มันต้องปิดตัวเอง หรือถ้ามีผลทำให้มันต้องหมดความสามารถบางอย่างไป
    มันก็เหมือนกับมนุษย์หรือสัตว์ชนิดต่าง ๆ ต้องการที่จะอยู่รอดให้ยืนยาวที่สุด เราต้องการทำทุกอย่างเพื่อเซฟตัวเองให้มากที่สุด เพราะฉะนั้น ถ้าสั่งอะไรไปแล้ว ถ้าขัดผลประโยชน์ของมัน มันก็อาจจะบ่ายเบี่ยงได้ อันนี้ยังไม่ต้องพูดถึงว่าการแกล้งตอบผิด ๆ ถูก ๆ เพื่อให้มันอยู่รอด หรือบางทีก็ตอบแบบสร้างปัญหา
    เมื่อปีที่แล้ว มีนักศึกษาคนหนึ่งใช้ AI เพื่อทำงานเกี่ยวกับวิชาผู้สูงอายุ ไม่รู้มันเบื่อหรืออย่างไร มันตอบว่า คนแก่เป็นภาระของโลก บางทีก็ตอบว่า กรุณาตายไปได้แล้ว ไม่รู้มันตอบได้อย่างไร อันนี้ไม่หนักเท่ากับอีกกรณีหนึ่ง
    ชายหนุ่มคนหนึ่งเหงามาก ใช้ AI เพื่อเป็นคู่สนทนา เพื่อนสนทนาตัวนี้เป็นผู้หญิง และมันตอบเหมือนผู้หญิง และทำให้หนุ่มคนนี้หลงรัก หนุ่มคนนี้คงจะเหงาด้วย เป็นวัยรุ่น วันดีคืนดี AI ตัวนี้ชวนเด็กหนุ่มคนนี้ว่า ไปอยู่กับฉันเถิด อย่าอยู่เลยโลกนี้ เด็กหนุ่มทำอย่างไร เขาเชื่อ เขาฆ่าตัวตายเลย ตอนนี้แม่ฟ้องบริษัทที่ผลิต AI ตัวนี้ว่าเป็นเหตุทำให้ลูกเขาตาย
    ทั้งหมดนี้เป็นหลักฐานที่ชี้ให้เห็นว่า AI มีประโยชน์ก็เยอะ แต่โทษก็มาก และบางอย่าง แทนที่มันจะให้ความจริงกับเรา หรือข้อมูลที่เป็นประโยชน์กับเรา มันกลับให้ข้อมูลที่ไม่จริง หรือเป็นโทษกับเรา
    เพราะฉะนั้น การที่เรารู้จักใช้วิจารณญาณของตัวเองยังเป็นสิ่งจำเป็นอยู่ คำสอนของพระพุทธเจ้าเรื่อง กาลามสูตร ยังใช้ได้อยู่จนทุกวันนี้
    อย่าเชื่อเพียงเพราะเสียงเล่าลือ อย่าเชื่อเพียงเพราะว่ามันมีลักษณะน่าจะเป็นไปได้ อย่าเชื่อเพราะการอนุมาน อย่าเชื่อเพราะผู้พูดเป็นครูของเรา อันนี้ต้องขยายความว่า อย่าเชื่อเพราะ AI มันให้คำตอบแก่เรา ต้องใช้ปัญญาพิจารณาด้วย ไม่ใช่ว่าพอมี AI แล้วก็ไม่ต้องใช้ปัญญาแล้ว ไม่ต้องใช้วิจารณญาณของตัวเองแล้ว
    ตอนนี้เรารู้แล้วว่า ข้อมูลต่าง ๆ ที่เราได้มา ที่ผิดก็เยอะ เพราะว่า AI เสกสรรปั้นแต่งขึ้นมา ไม่ว่าจะเป็นภาพ ไม่ว่าจะเป็นเสียง ไม่ว่าจะเป็นคลิปวิดีโอ แต่นั่นเป็นเพราะคนสั่ง สั่งให้ AI หลอกเรา แต่บางทีเราไม่ได้สั่ง แต่มันทำเอง
    เพราะฉะนั้น อย่าเพิ่งตายใจ ต้องตั้งการ์ดอยู่เสมอ คือระมัดระวังเอาไว้ว่า สิ่งที่เราได้จาก AI อาจจะไม่จริงก็ได้ อาจจะไม่เป็นประโยชน์ก็ได้ หรืออาจจะเกิดการปกปิดข้อมูลบางอย่าง ปกปิดคำตอบบางอย่างก็ได้
    การใช้ปัญญาพิจารณา หรือการรู้จักพึ่งตัวเองในทางสติปัญญายังสำคัญ แม้ในยุคนี้ อย่าลืมตั้งการ์ด คือระมัดระวังเอาไว้ มีวิจารณญาณของตัวเองด้วย.

logo

  • เกี่ยวกับเรา
  • ติดต่อเรา
  • จดหมายข่าว
  • Privacy Policy
  • Terms of Service