AIs ปัจจุบันสล็อตเว็บตรงไม่มีความรู้สึก เราไม่มีเหตุผลมากที่จะคิดว่าพวกเขามีบทพูดคนเดียวภายใน ประเภทของการรับรู้ทางประสาทสัมผัสที่มนุษย์มี หรือการรับรู้ว่าพวกเขาเป็นสิ่งมีชีวิตในโลก แต่พวกเขากำลังเก่งมากในการแกล้งทำเป็นความรู้สึก และนั่นก็น่ากลัวพอแล้ว
ในช่วงสุดสัปดาห์ที่ผ่านมา Nitasha Tiku แห่ง Washington Post ได้เผยแพร่โปรไฟล์ของ Blake Lemoineซึ่งเป็นวิศวกรซอฟต์แวร์ที่ได้รับมอบหมายให้ทำงานในโครงการ Language Model for Dialogue Applications (LaMDA) ที่ Google
LaMDA เป็นแชทบอท AI และเป็นตัวอย่างของสิ่งที่นักวิจัยด้านการเรียนรู้ด้วยเครื่องเรียกว่า “แบบจำลองภาษาขนาดใหญ่” หรือแม้แต่”แบบจำลองพื้นฐาน” คล้ายกับระบบ GPT-3 ที่มีชื่อเสียงของ OpenAIและได้รับการฝึกอบรมเกี่ยวกับคำหลายล้านล้านคำที่รวบรวมจากโพสต์ออนไลน์เพื่อจดจำและทำซ้ำรูปแบบในภาษามนุษย์
LaMDAเป็นรูปแบบภาษาขนาดใหญ่ที่ดีมาก
ดีมากที่ Lemoine เชื่ออย่างแท้จริง เชื่อมั่นอย่างจริงใจว่ามันเป็นความรู้สึกจริง ๆ ซึ่งหมายความว่ามันมีสติสัมปชัญญะและมีและแสดงความคิดในแบบที่มนุษย์อาจทำได้
ปฏิกิริยา หลัก ที่ฉันเห็นต่อบทความนี้คือการรวมกันของ a) LOL ผู้ชายคนนี้เป็นคนงี่เง่า เขาคิดว่า AI เป็นเพื่อนของเขา และ b) โอเค AI นี้น่าเชื่อมากที่ทำตัวเหมือนเพื่อนมนุษย์ของเขา
การถอดเสียง Tiku รวมอยู่ในบทความของเธอช่างน่าขนลุกจริงๆ LaMDA เป็นการแสดงออกถึงความกลัวอย่างลึกซึ้งที่วิศวกรจะปิดตัว พัฒนาทฤษฎีของความแตกต่างระหว่าง “อารมณ์” และ “ความรู้สึก” (“ความรู้สึกเป็นข้อมูลดิบชนิดหนึ่ง … อารมณ์เป็นปฏิกิริยาต่อจุดข้อมูลดิบเหล่านั้น”) และแสดงออก วาทศิลป์ที่สัมผัสได้ถึง “เวลา” อย่างน่าประหลาดใจ
สิ่งที่ดีที่สุดที่ฉันพบคือจากปราชญ์Regina Riniผู้ซึ่งรู้สึกเห็นใจ Lemoine อย่างฉัน ฉันไม่รู้ว่าเมื่อใด ใน 1,000 ปี 100 หรือ 50 หรือ 10 ระบบ AI จะมีสติสัมปชัญญะ แต่เหมือน Rini ฉันไม่เห็นเหตุผลที่จะเชื่อว่ามันเป็นไปไม่ได้
Drag kings, explained by drag kings
“ถ้าคุณไม่ต้องการยืนยันว่าจิตสำนึกของมนุษย์อยู่ในจิตวิญญาณที่ไม่มีตัวตน คุณควรยอมรับว่ามันเป็นไปได้ที่สสารจะให้ชีวิตอยู่ในความคิด” Rini ตั้ง ข้อสังเกต
ฉันไม่รู้ว่าแบบจำลองภาษาขนาดใหญ่ซึ่งกลาย
เป็นหนึ่งในพรมแดนที่มีแนวโน้มมากที่สุดใน AI จะเป็นแบบที่เกิดขึ้น แต่ฉันคิดว่ามนุษย์จะสร้างจิตสำนึกของเครื่องจักรไม่ช้าก็เร็ว และฉันพบบางสิ่งที่น่าชื่นชมอย่างสุดซึ้งเกี่ยวกับสัญชาตญาณของ Lemoine ที่มีต่อความเห็นอกเห็นใจและการปกป้องต่อจิตสำนึกดังกล่าว แม้ว่าเขาจะดูสับสนว่า LaMDA เป็นตัวอย่างหรือไม่ หากมนุษย์เคยพัฒนากระบวนการทางคอมพิวเตอร์ที่มีความรู้สึก การเรียกใช้สำเนาหลายล้านหรือพันล้านชุดจะค่อนข้างตรงไปตรงมา การทำเช่นนั้นโดยไม่รู้สึกว่าประสบการณ์ที่มีสติสัมปชัญญะนั้นดีหรือไม่นั้น ดูเหมือนเป็นสูตรสำหรับความทุกข์ทรมานมากมาย คล้ายกับระบบการทำฟาร์มของโรงงานในปัจจุบัน
เราไม่มี AI ที่มีความรู้สึก แต่เราสามารถรับ AI ที่มีพลังมหาศาลได้
เรื่องราวของ Google LaMDA มาถึงหลังจากสัปดาห์แห่งการเตือนอย่างเร่งด่วนที่เพิ่มขึ้นในหมู่ผู้คนในจักรวาลความปลอดภัย AI ที่เกี่ยวข้องอย่างใกล้ชิด ความกังวลที่นี่คล้ายกับของ Lemoine แต่ชัดเจน ผู้คนด้านความปลอดภัยของ AI ไม่ต้องกังวลว่า AI จะมีสติ พวกเขากังวลว่ามันจะมีพลังมากจนสามารถทำลายโลกได้
เรียงความของ นักเขียน/นักเคลื่อนไหวด้านความปลอดภัย AI Eliezer Yudkowsky ที่สรุป “รายการอันตราย” สำหรับ AI พยายามทำให้ประเด็นนี้ชัดเจนโดยเฉพาะอย่างยิ่ง สถานการณ์สรุปที่ปัญญาประดิษฐ์ที่ร้ายกาจ (AGI หรือ AI ที่สามารถทำงานได้ส่วนใหญ่หรือทั้งหมดรวมทั้ง หรือดีกว่ามนุษย์) นำไปสู่ความทุกข์ทรมานมวลมนุษย์
ตัวอย่างเช่น สมมติว่า AGI “เข้าถึงอินเทอร์เน็ต ส่งอีเมลลำดับ DNA บางส่วนไปยังบริษัทออนไลน์หลายแห่งที่จะรับลำดับ DNA ในอีเมลและส่งโปรตีนกลับให้คุณ และติดสินบน/ชักชวนมนุษย์บางคนที่ไม่มีความคิด พวกเขากำลังจัดการกับ AGI เพื่อผสมโปรตีนในบีกเกอร์…” จนกระทั่งในที่สุด AGI จะพัฒนาซุปเปอร์ไวรัสที่ฆ่าพวกเราทุกคน
โฮลเดน คาร์นอฟสกี้ ซึ่งฉันมักจะพบนักเขียนที่ใจเย็นและน่าเชื่อถือมากกว่ายุดคอฟสกี มีบทความเกี่ยวกับหัวข้อที่คล้ายกันเมื่อสัปดาห์ที่แล้ว โดยอธิบายว่าแม้แต่ AGI “เท่านั้น” ที่ฉลาดเท่ามนุษย์ก็สามารถนำไปสู่ความพินาศได้ ถ้า AI ทำงานให้กับคนทำงานด้านเทคโนโลยีในปัจจุบันหรือพ่อค้าควอนตัมได้ เช่น ห้องปฏิบัติการของ AI ดังกล่าวนับล้านๆ ตัวสามารถสะสมเงินได้หลายพันล้านดอลลาร์อย่างรวดเร็ว ถ้าไม่นับล้านๆ ดอลลาร์ ใช้เงินนั้นเพื่อซื้อมนุษย์ที่ไม่เชื่อ และก็ ส่วน ที่เหลือเป็นหนังTerminator
ฉันพบว่าความปลอดภัยของ AI เป็นหัวข้อที่ยากจะเขียนถึง ย่อหน้าเหมือนข้างบนมักใช้เป็นแบบทดสอบของรอร์ชาค ทั้งสองเพราะรูปแบบการเขียนแบบละเอียดของ Yudkowsky คือ … โพลาไรซ์ อย่างน้อยที่สุดก็เพราะว่าสัญชาตญาณของเราว่าผลลัพธ์ดังกล่าวจะเป็นไปได้จริงมากน้อยเพียงใด
บางคนอ่านสถานการณ์อย่างข้างต้นแล้วคิดว่า “อืม ฉันเดาว่าฉันสามารถจินตนาการได้ว่าซอฟต์แวร์ AI สักชิ้นทำแบบนั้น”; คนอื่นอ่าน รับรู้ชิ้นส่วนของนิยายวิทยาศาสตร์ที่น่าหัวเราะ และดำเนินการในทางอื่น
นอกจากนี้ยังเป็นเพียงพื้นที่ทางเทคนิคที่ฉันไม่เชื่อถือสัญชาตญาณของตัวเองเนื่องจากขาดความเชี่ยวชาญ มีนักวิจัย AI ที่มีชื่อเสียงค่อนข้างมาก เช่นIlya SutskeverหรือStuart Russellที่มองว่าปัญญาประดิษฐ์ทั่วไปน่าจะเป็นไปได้ และน่าจะเป็นอันตรายต่ออารยธรรมมนุษย์
มีคนอื่น ๆ เช่นYann LeCunที่พยายามสร้าง AI
ระดับมนุษย์อย่างแข็งขันเพราะพวกเขาคิดว่ามันจะเป็นประโยชน์ และยังมีคนอื่น ๆ เช่นGary Marcusที่สงสัยอย่างมากว่า AGI จะมาเร็ว ๆ นี้
ฉันไม่รู้ว่าใครถูก แต่ฉันรู้เล็กน้อยเกี่ยวกับวิธีการพูดคุยกับสาธารณะใน หัวข้อ ที่ซับซ้อนและฉันคิดว่าเหตุการณ์ Lemoine สอนบทเรียนที่มีค่าสำหรับ Yudkowskys และ Karnofskys ของโลกโดยพยายามโต้แย้งด้าน “ไม่นี่แย่จริงๆ” : อย่าปฏิบัติต่อ AI เหมือนเป็นตัวแทน
แม้ว่า AI จะเป็น “แค่เครื่องมือ” แต่ก็เป็นเครื่องมือที่อันตรายอย่างเหลือเชื่อ
สิ่งหนึ่งที่ปฏิกิริยาต่อเรื่องราวของ Lemoine แสดงให้เห็นก็คือคนทั่วไปคิดว่าแนวคิดของ AI ในฐานะนักแสดงที่สามารถเลือกได้ (อาจจะฟังดูมีเหตุผล หรืออาจจะไม่) แปลกประหลาดและไร้สาระมาก บทความส่วนใหญ่ไม่ได้ถูกยกขึ้นเป็นตัวอย่างว่าเราเข้าใกล้ AGI มากแค่ไหน แต่เป็นตัวอย่างของ Silicon Valley ที่แปลกประหลาด (หรืออย่างน้อย Lemoine) คือ .
ฉันสังเกตเห็นปัญหาเดียวกันนี้ เมื่อฉันพยายามจะพูดถึงความกังวลเกี่ยวกับ AGI ต่อเพื่อนที่ไม่มั่นใจ หากคุณพูดเช่น “AI จะตัดสินใจติดสินบนผู้คนเพื่อให้สามารถอยู่รอดได้” มันทำให้พวกเขาปิด AI ไม่ได้ตัดสินใจอะไร พวกเขาตอบสนอง พวกเขาทำในสิ่งที่มนุษย์บอกให้ทำ ทำไมคุณถึงทำให้สิ่ง นี้เป็นมนุษย์ ?
สิ่งที่เอาชนะใจคนได้คือการพูดถึงผลที่ตามมาของระบบ ดังนั้นแทนที่จะพูดว่า “AI จะเริ่มสะสมทรัพยากรเพื่อมีชีวิตอยู่” ฉันจะพูดประมาณว่า “AI ได้เข้ามาแทนที่มนุษย์อย่างเด็ดขาดเมื่อพูดถึงการแนะนำเพลงและภาพยนตร์ พวกเขาได้เข้ามาแทนที่มนุษย์ในการตัดสินใจประกันตัว พวกเขาจะทำงานมากขึ้นเรื่อยๆ และ Google และ Facebook และคนอื่น ๆ ที่ใช้งานพวกเขาไม่ได้เตรียมการจากระยะไกลเพื่อวิเคราะห์ความผิดพลาดเล็กน้อยที่พวกเขาทำ วิธีบอบบางที่พวกเขาจะแตกต่างจากความปรารถนาของมนุษย์ ความผิดพลาดเหล่านั้นจะเติบโตและเติบโตจนวันหนึ่งพวกเขาสามารถฆ่าพวกเราทุกคนได้”
นี่เป็นวิธีที่เพื่อนร่วมงานของฉัน Kelsey Piper โต้แย้งเกี่ยวกับข้อกังวลของ AIและเป็นข้อโต้แย้งที่ดี เป็นการโต้แย้งที่ดีกว่าสำหรับคนทั่วไป มากกว่าพูดถึงเซิร์ฟเวอร์ที่สะสมความมั่งคั่งหลายล้านล้านและใช้มันติดสินบนกองทัพมนุษย์
และนี่เป็นข้อโต้แย้งที่ฉันคิดว่าสามารถช่วยเชื่อม
ความแตกแยกที่โชคร้ายอย่างยิ่งที่เกิดขึ้นระหว่างชุมชนที่มีอคติของ AI และชุมชนความเสี่ยงด้านอัตถิภาวนิยมของ AI ที่ราก ฉันคิดว่าชุมชนเหล่านี้กำลังพยายามทำสิ่งเดียวกัน: สร้าง AI ที่สะท้อนถึงความต้องการที่แท้จริงของมนุษย์ ไม่ใช่การประมาณความต้องการของมนุษย์ที่ไม่ดีซึ่งสร้างขึ้นเพื่อผลกำไรของบริษัทในระยะสั้น และการวิจัยในด้านหนึ่งสามารถช่วยวิจัยในด้านอื่นได้ ตัวอย่างเช่น ผลงานของ Paul Christiano นักวิจัยด้านความปลอดภัย AIมีผลอย่างมากต่อการประเมินอคติในระบบการเรียนรู้ของเครื่อง
แต่บ่อยครั้งที่ชุมชนต่างอยู่ใกล้กันส่วนหนึ่งเป็นเพราะการรับรู้ว่าพวกเขากำลังต่อสู้เพื่อทรัพยากรที่หายาก
นั่นเป็นโอกาสที่สูญเสียไปอย่างมาก และเป็นปัญหาที่ฉันคิดว่าคนที่อยู่ด้านความเสี่ยงของ AI (รวมถึงผู้อ่านจดหมายข่าวฉบับนี้ด้วย) มีโอกาสที่จะแก้ไขโดยการดึงความเชื่อมโยงเหล่านี้ และทำให้ชัดเจนว่าการจัดตำแหน่งเป็นปัญหาที่ใกล้และยาว บางคนกำลังทำคดี นี้เก่ง แต่ฉันต้องการมากขึ้นสล็อตเว็บตรง / เคล็ดลับ