การแข่งขันเพื่อสร้างระบบปัญญาประดิษฐ์ (AI) ให้ฉลาดและมีความสามารถมากยิ่งขึ้นกำลังพัฒนาไปอย่างรวดเร็ว แต่นักวิทยาศาสตร์และผู้นำอุตสาหกรรมเทคโนโลยีชื่อดังหลายคนได้ออกมาเรียกร้องให้หยุดการพัฒนาไว้ชั่วคราวในจดหมายเปิดผนึกที่เผยแพร่เมื่อวันพุธ (29 มี.ค.) ที่ผ่านมา โดยมีผู้ลงนามมากกว่าหนึ่งพันคนในสาขาวิชาชีพต่างๆ จากนานาประเทศ รวมถึง Elon Musk และ Steve Wozniak จดหมายเปิดผนึกฉบับนี้ได้เรียกร้องให้เว้นวรรคการพัฒนาและการใช้เทคโนโลยี AI ขั้นสูงเป็นเวลาหกเดือน

จดหมายนี้กล่าวถึงความกังวลเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้น และผลกระทบที่ไม่อาจคาดการณ์ได้จาก AI โดยมีตัวอย่างที่เห็นได้อย่างชัดเจนจาก GPT-4 ซึ่งเป็น AI รุ่นล่าสุดของ OpenAI ที่กล่าวว่าจะมีประสิทธิภาพและมีความสามารถหลากหลายมากกว่า ChatGPT

ผู้ลงนามในจดหมายกล่าวว่าการหยุกพัฒนาชั่วคราวจะช่วยให้สามารถทบทวน หารือ และร่วมมือกันรับมือผลกระทบของ AI ในเชิงสังคมและจริยธรรมได้มากยิ่งขึ้น และช่วยให้สามารถพัฒนาระบบการกำกับดูแลและกฎระเบียบที่ดีขึ้นได้อีกด้วย

Source

จดหมายนี้กลายเป็นที่ถกเถียงถึงอนาคตของ AI และความรับผิดชอบของผู้สร้างและผู้ที่จะนำไปใช้

จดหมายเปิดผนึกนี้คืออะไร?

จดหมายดังกล่าวออกโดย Future of Life Institute ซึ่งเป็นองค์กรไม่แสวงหาผลกำไรที่มุ่งเน้นในการลดความเสี่ยงด้านภัยพิบัติและการดำรงอยู่ทั่วโลกที่เกิดจากเทคโนโลยีขั้นสูง โดยได้เรียกร้องให้หยุดการฝึกระบบ AI ที่มีประสิทธิภาพสูงกว่า GPT-4 เป็นเวลาหกเดือน

โดยจดหมายได้ระบุว่าระบบ AI ที่มีความฉลาดในการแข่งขันแบบมนุษย์นั้นมีความเสี่ยงอย่างมากต่อสังคมและมนุษยชาติ AI ขั้นสูงสามารถเปลี่ยนแปลงในประวัติศาสตร์ของสิ่งมีชีวิตบนโลกได้ และควรมีการจัดการด้วยความระมัดระวังพร้อมทรัพยากรที่จำเป็น แต่แม้จะทราบถึงความเสี่ยง การพัฒนา AI ก็ขาดการวางแผนและการจัดการที่เพียงพอ

นอกจากนี้ จดหมายฉบับนี้ยังวิพากษ์วิจารณ์การแข่งขันในการพัฒนา AI เพื่อพัฒนาและใช้งานระบบการคิดแบบดิจิทัลที่ทรงพลังยิ่งขึ้นโดยไร้การควบคุมใดๆ และยังเสริมว่าควรมีการพัฒนาระบบ AI ที่มีประสิทธิภาพเมื่อมั่นใจว่าผลกระทบของระบบ AI จะเป็นไปในเชิงบวก และจะสามารถจัดการความเสี่ยงของระบบดังกล่าวได้

ด้วยเหตุนี้ กลุ่มนักวิทยาศาสตร์จึงได้เรียกร้องให้ผู้พัฒนา AI ทั้งหมดหยุดฝึกระบบ AI ที่ประสิทธิภาพสูง GPT-4 ชั่วคราวเป็นเวลาอย่างน้อย 6 เดือน เพื่อร่วมกันพัฒนาและใช้กฎเกณฑ์ด้านความปลอดภัยสำหรับออกแบบและพัฒนา AI ขั้นสูงที่ได้รับการตรวจสอบและดูแลอย่างเข้มงวดโดยผู้เชี่ยวชาญที่ไม่ฝักใฝ่ฝ่ายใด จดหมายระบุอีกว่า “หากไม่สามารถการหยุดพัฒนาชั่วคราวได้ในเร็วๆ นี้ รัฐบาลควรเข้ามามีบทบาทและกำหนดให้มีการหยุดพักชั่วคราว”

จดหมายระบุว่าการวิจัยและพัฒนา AI ควรมุ่งเน้นไปที่การทำให้ระบบที่มีประสิทธิภาพและทันสมัยในปัจจุบันมีความถูกต้องแม่นยำ ปลอดภัย ตีความได้ โปร่งใส แข็งแกร่ง สอดคล้องกัน เชื่อถือได้ และตรงไปตรงมา และควรเร่งพัฒนาระบบการกำกับดูแล AI อีกด้วย

มนุษยชาติสามารถสร้างอนาคตที่เฟื่องฟูได้ด้วย AI แต่ต้องเป็นไปด้วยความระมัดระวังและระมัดระวัง

สามารถอ่านจดหมายฉบับเต็มได้ที่นี่

ผู้ลงนามในจดหมายเปิดผนึก

กลุ่มนักวิทยาศาสตร์ ผู้นำธุรกิจ และนักวิชาการที่มีชื่อเสียง รวมถึงวิศวกรส่วนหนึ่งจาก Meta และ Google รวมถึงบุคคลที่ไม่ได้อยู่ในแวดวงเทคโนโลยีต่างลงนามในจดหมายเปิดผนึกนี้

ผู้มีชื่อเสียงจากรายชื่อผู้ลงนามนี้มีทั้งผู้ชนะรางวัล Turing Prize อย่าง Yoshua Bengio, Stuart Russell ศาสตราจารย์จาก Berkeley, Elon Musk, Steve Wozniak, Yuval Noah Harari, Andrew Yang, Jaan Tallinn, Max Tegmark และ Tristan Harris นอกจากนี้ยังมีบุคคลจากแวดวงเทคโนโลยีชั้นนำอีกกว่า 1100 ราย รวมถึงผู้ร่วมก่อตั้ง Pinterest อย่าง Evan Sharp, Chris Larsen ผู้ร่วมก่อตั้ง Ripple และ Craig Peters ซีอีโอของ Getty Images

ผู้ลงนามทั้งหมดนี้เรียกร้องให้มีการพัฒนาระบบการกำกับดูแล AI ที่เข้มแข็ง ซึ่งรวมถึงหน่วยงานกำกับดูแลใหม่ที่มุ่งเน้นในการกำกับดูแลและการติดตามระบบ AI ที่มีความสามารถสูง รวมถึงการรับผิดชอบในกรณีที่มีอันตรายที่เกิดจาก AI

ดูรายชื่อผู้ลงนามทั้งหมดได้ที่นี่

ใจความสำคัญในการโต้แย้งครั้งนี้

ประเด็นสำคัญของจดหมายนี้คือการเรียกร้องให้หยุดพัฒนาระบบ AI ที่มีประสิทธิภาพมากกว่า GPT-4 ชั่วคราว และเรียกร้องให้สร้างและใช้กฎเกณฑ์ด้านความปลอดภัยสำหรับการออกแบบและพัฒนา AI ขั้นสูง โดยให้มีการตรวจสอบและดูแลอย่างเข้มงวดโดยผู้เชี่ยวชาญภายนอกที่เป็นอิสระ โดยจดหมายได้ระบุว่าการวางแผนและการจัดการระบบเหล่านี้ที่มีปัจจุบันนั้นยังไม่เพียงพอ

เหล่าผู้ลงนามเสนอให้หยุดการพัฒนาระบบเหล่านี้ชั่วคราว พร้อมกับใช้กฎเกณฑ์ด้านความปลอดภัยและระบบการกำกับดูแล AI ที่แข็งแกร่ง ที่จะช่วยให้อนาคตกับ AI เป็นไปอย่างสดใส พร้อมทั้งยังสามารถหลีกเลี่ยงผลกระทบร้ายแรงที่อาจเกิดขึ้นกับสังคมได้

การวิพากษ์วิจารณ์จดหมายเปิดผนึก

Venture Beats รายงานว่า นักวิจารณ์หลายคนมองว่าจดหมายนี้มุ่งเน้นไปที่ความเสี่ยงระยะยาวที่คาดการณ์ไว้ของ AI มากเกินไป และไม่สนใจความเสี่ยงในระยะสั้น เช่น อคติและข้อมูลผิดๆ ที่ได้เกิดขึ้นแล้ว

Arvind Narayanan ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่ Princeton ระบุว่าจดหมายนี้เป็นตัวเร่งให้เกิดกระแสของ AI และเอื้อประโยชน์ต่อบริษัทที่ควรจะควบคุม มากกว่าที่จะเป็นประโยชน์ต่อสังคม

Source

Alex Engler นักวิจัยจาก Brookings Institution กล่าวกับ Tech Policy Press ถึงข้อเรียกร้องให้มีการแทรกแซงที่น่าเชื่อถือและมีประสิทธิภาพมากขึ้น เช่น การเข้าถึงโดยบุคคลภายนอกที่เป็นอิสระและการตรวจสอบแบบจำลองการเรียนรู้ของเครื่อง (Machine Learning) ขนาดใหญ่ เพื่อตรวจสอบคำร้องขององค์กร เปิดใช้งานแบบปลอดภัย และระบุภัยคุกคามที่เกิดขึ้นใหม่

นักวิจารณ์ยังชี้ให้เห็นว่า แทนที่จะชะลอการพัฒนา AI โดยพลการ ควรทำให้ AI มีความปลอดภัย โดยใช้กฎระเบียบและการตรวจสอบตามแนวปฏิบัติที่ดีมากกว่า

“จดหมายนี้ยังมีข้อบกพร่อง แต่แก่นสำคัญนั้นมาถูกทางแล้ว นั่นคือเราต้องชะลอการพัฒนาให้ช้าลงจนกว่าเราจะเข้าใจการขยายตัวของระบบได้ดียิ่งขึ้น” Gary Marcus ศาสตราจารย์จาก New York University ผู้ลงนามในจดหมายกล่าว

Marcus ยังแสดงความกังวลเกี่ยวกับการขาดความโปร่งใสที่มากยิ่งขึ้นในหมู่ผู้พัฒนารายใหญ่ด้าน AI จึงเป็นเรื่องยากที่สังคมจะเตรียมพร้อมและป้องกันอันตรายที่อาจเกิดขึ้นได้

AI จะเป็นอันตรายได้อย่างไร?

แม้ว่า AI มีศักยภาพที่จะสร้างประโยชน์มากมาย แต่ก็มีความเสี่ยงและความท้าทายที่อาจเกิดขึ้นด้วยเช่นกัน จากเว็บไซต์ของ Future of Life Institute หากมองว่า AI อาจกลายเป็นความเสี่ยงได้ มีความเป็นไปได้ว่าจะเกิดสถานการณ์สองแบบนี้มากที่สุด:

  1. AI ถูกตั้งโปรแกรมให้ทำสิ่งที่ร้ายแรง: อาวุธอิสระจากระบบปัญญาประดิษฐ์ที่ถูกตั้งโปรแกรมให้ฆ่าหรือทำลาย อาวุธเหล่านี้อาจสร้างความเสียหายร้ายแรงได้ หากอยู่ในมือของคนที่ไม่เหมาะสม
  2. AI ถูกตั้งโปรแกรมให้ทำสิ่งที่เป็นประโยชน์ แต่ก็พัฒนาวิธีการทำลายล้างเพื่อให้บรรลุเป้าหมาย: กรณีนี้สามารถเกิดขึ้นได้ หากเราไม่สามารถปรับเป้าหมายของ AI ให้สอดคล้องกับเป้าหมายของเราได้ ซึ่งนับเป็นเป็นเรื่องยากอย่างยิ่ง

AI จะเข้ามาแทนที่อาชีพต่างๆ หรือไม่?

นี่เป็นหนึ่งในความกังวลเกี่ยวกับการพัฒนา AI คือ AI อาจแทนที่หรือลดจำนวนอาชีพที่มีอยู่ในปัจจุบันได้ เมื่อเทคโนโลยี AI ก้าวหน้าขึ้น การใช้เครื่องจักรแทนคนงานสำหรับงานบางประเภทก็อาจทำให้บริษัทมีประสิทธิภาพและลดค่าใช้จ่ายได้มากขึ้น

แม้แต่ Sam Altman ซีอีโอของ OpenAI ที่สร้าง ChatGPT ก็ยังแสดงความกลัวเกี่ยวกับการสูญเสียงานเช่นกัน ไม่นานมานี้ Altman ให้สัมภาษณ์กับ ABC News โดยเขาคาดการณ์ว่า AI จะเข้ามาแทนที่งานบางอย่างในที่สุด และเขาก็กังวลว่าจะเกิดขึ้นได้เร็วแค่ไหน

“ผมคิดว่าภายในช่วงสองสามชั่วอายุคนที่ผ่านมา มนุษยชาติได้พิสูจน์แล้วว่าเราสามารถปรับตัวให้เข้ากับการเปลี่ยนแปลงทางเทคโนโลยีครั้งใหญ่ๆ ได้อย่างยอดเยี่ยม” Altman กล่าว

“แต่ถ้าการเปลี่ยนแปลงทางเทคโนโลยีแบบนี้เกิดขึ้นในเวลาน้อยกว่าสิบปี นั่นแหละคือที่ผมกลัวมากที่สุด”

Altman แนะนำว่าผู้คนควรมอง AI เป็นเครื่องมือ ไม่ใช่สิ่งที่จะมาทดแทน เขาย้ำว่าความคิดสร้างสรรค์ของมนุษย์ไร้ขอบเขต และเมื่อมีงานแบบใหม่ๆ เกิดขึ้น ผู้คนจะพบสิ่งใหม่ๆ ที่ต้องทำ

โดยสรุปแล้วการพัฒนา AI นั้นมีทั้งประโยชน์และความเสี่ยง แม้ว่า AI จะมีศักยภาพในการปฏิวัติอุตสาหกรรมและพัฒนาคุณภาพชีวิตของเรา แต่ก็สามารถทำลายตลาดงาน สร้างอุปสรรคทางจริยธรรมใหม่ๆ และก่อให้เกิดความเสี่ยงต่อความเป็นส่วนตัวและความปลอดภัยของเราอย่างมากได้เช่นกัน และจดหมายจากผู้เชี่ยวชาญเป็นเพียงสัญญาณของการรับรู้ถึงความสามารถของ AI เท่านั้น

Avatar

Title:EXPLAINED: ทำไม Elon Musk และผู้เชี่ยวชาญอีกหลายรายถึงต้องการให้หยุดพัฒนา AI ชั่วคราว?

By: FC Team

Result: Explainer