เทคโนโลยีและแอปพลิเคชันที่หลากหลายซึ่งสอดคล้องกับเกณฑ์ของ “ปัญญาประดิษฐ์” ได้เริ่มมีบทบาทสำคัญในชีวิตและสถาบันทางสังคมของเรา แต่สามารถใช้ในทางที่เป็นอันตรายซึ่งเราเริ่มเห็นแล้ว ตัวอย่างเช่นในเรื่อง “หนี้นอกระบบ” หน่วยงานสวัสดิการของรัฐบาลออสเตรเลีย Centrelink ใช้การจับคู่ข้อมูลและการตัดสินใจโดยอัตโนมัติเพื่อออกหนังสือแจ้งหนี้ (มักไม่ถูกต้อง) ให้กับผู้รับสวัสดิการ ยิ่งไปกว่านั้น ภาระการพิสูจน์ก็กลับกัน: บุคคลต้องพิสูจน์ว่าตนไม่ได้เป็นหนี้ที่อ้างสิทธิ์
รัฐบาลนิวเซาท์เวลส์ได้เริ่มใช้ AI เพื่อตรวจจับผู้ขับขี่ด้วยโทรศัพท์มือถือ
สิ่งนี้เกี่ยวข้องกับการเฝ้าระวังสาธารณะที่เพิ่มขึ้นผ่านกล้องตรวจจับโทรศัพท์มือถือที่ใช้ AI เพื่อตรวจจับวัตถุสี่เหลี่ยมในมือคนขับโดยอัตโนมัติและจัดประเภทเป็นโทรศัพท์ การจดจำใบหน้าเป็นอีกหนึ่งแอปพลิเคชัน AIภายใต้การตรวจสอบอย่างเข้มงวดทั่วโลก นี่เป็นเพราะศักยภาพในการบ่อนทำลายสิทธิมนุษยชน : สามารถใช้เพื่อเฝ้าระวังและปราบปรามการประท้วง ในที่สาธารณะ อย่าง กว้างขวาง และโปรแกรมอคติสามารถนำไปสู่ความไม่ถูกต้องและการเลือกปฏิบัติทางเชื้อชาติ บางคนถึงกับเรียกร้องให้เลื่อนการชำระหนี้หรือแบนทันทีเพราะมันอันตรายมาก
ใน หลายประเทศ รวมถึงออสเตรเลีย มีการใช้ AI เพื่อคาดการณ์ว่าบุคคลนั้นมีแนวโน้มที่จะก่ออาชญากรรม มากน้อยเพียงใด วิธีการทำนายดังกล่าวแสดงให้เห็นว่าส่งผลกระทบต่อเยาวชนพื้นเมืองอย่างไม่สมส่วนและนำไปสู่การปฏิบัติที่เข้มงวด
AI ที่ช่วยคนขับรถไฟก็ถูกนำมาใช้เช่นกัน และในอนาคตเราคาดว่าจะเห็นรถยนต์ไร้คนขับและยานพาหนะอัตโนมัติอื่นๆบนท้องถนนของเรา ชีวิตจะขึ้นอยู่กับซอฟต์แวร์นี้
เมื่อเราตัดสินใจแล้วว่า AI จำเป็นต้องได้รับการควบคุม แต่ก็ยังมีคำถามว่าจะทำอย่างไร เจ้าหน้าที่ในสหภาพยุโรปเพิ่งจัดทำข้อเสนอเกี่ยวกับวิธีการควบคุม AI
พวกเขาให้เหตุผลว่าขั้นตอนแรกคือการประเมินความเสี่ยงที่ AI เกิดขึ้นในภาคส่วนต่างๆ เช่น การขนส่ง การดูแลสุขภาพ และการใช้งานของรัฐบาล เช่น การโยกย้ายถิ่นฐาน ความยุติธรรมทางอาญา และประกันสังคม พวกเขายังพิจารณาการใช้งาน AI ที่เสี่ยงต่อการเสียชีวิตหรือบาดเจ็บ หรือมีผลกระทบต่อสิทธิมนุษยชน เช่น สิทธิในความเป็นส่วนตัว ความเสมอภาค
เสรีภาพและความปลอดภัย เสรีภาพในการเคลื่อนไหวและการชุมนุม
ความมั่นคงทางสังคมและมาตรฐานการครองชีพ และ ข้อสันนิษฐานของความบริสุทธิ์
ยิ่งแอปพลิเคชัน AI มีความเสี่ยงมากเท่าใด ก็ยิ่งต้องเผชิญกับกฎระเบียบมากขึ้นเท่านั้น กฎระเบียบจะครอบคลุมทุกอย่างตั้งแต่ข้อมูลที่ใช้ในการฝึก AI และวิธีการจัดเก็บบันทึก ไปจนถึงความโปร่งใสของผู้สร้างและผู้ควบคุมระบบ การทดสอบความทนทานและความแม่นยำ และข้อกำหนดสำหรับการกำกับดูแลโดยมนุษย์ ซึ่งจะรวมถึงการรับรองและการรับรองว่าการใช้ระบบ AI นั้นปลอดภัย และไม่นำไปสู่การเลือกปฏิบัติหรือผลลัพธ์ที่เป็นอันตราย
แม้ว่าแนวทางของสหภาพยุโรปจะมีจุดแข็ง แม้แต่การใช้งาน AI ที่ “มีความเสี่ยงต่ำ” ก็สามารถก่อให้เกิดอันตรายได้ ตัวอย่างเช่น อัลกอริทึมคำแนะนำในเครื่องมือค้นหาก็เลือกปฏิบัติเช่นกัน ข้อเสนอของสหภาพยุโรปยังถูกวิพากษ์วิจารณ์ว่าพยายามควบคุมเทคโนโลยีการจดจำใบหน้าแทนที่จะห้ามทันที
สหภาพยุโรปเป็นผู้นำโลกด้านกฎระเบียบการคุ้มครองข้อมูล หากสิ่งเดียวกันนี้เกิดขึ้นกับ AI ข้อเสนอเหล่านี้น่าจะเป็นต้นแบบสำหรับประเทศอื่นๆ และนำไปใช้กับทุกคนที่ทำธุรกิจกับสหภาพยุโรปหรือแม้แต่พลเมืองของสหภาพยุโรป
เกิดอะไรขึ้นในออสเตรเลีย
ในประเทศออสเตรเลียมีกฎหมายและระเบียบข้อบังคับบางอย่างที่บังคับใช้ แต่มีช่องว่างมากมายและไม่ได้ถูกบังคับใช้เสมอไป สถานการณ์ยิ่งยากขึ้นเนื่องจากขาดการคุ้มครองสิทธิมนุษยชนในระดับรัฐบาลกลาง
ความพยายามที่โดดเด่นอย่างหนึ่งในการร่างกฎบางอย่างสำหรับ AI มาจาก Data61 ซึ่งเป็นหน่วยงานด้านข้อมูลและดิจิทัลของ CSIRO เมื่อปีที่แล้ว พวกเขาพัฒนากรอบจริยธรรมของ AIซึ่งสร้างขึ้นจากหลักจริยธรรมแปดประการสำหรับ AI
หลักการทางจริยธรรมเหล่านี้ไม่เกี่ยวข้องโดยสิ้นเชิง (เช่น ข้อสองคือ “ห้ามทำอันตราย” เป็นต้น) แต่หลักการเหล่านี้ไม่สามารถบังคับใช้ได้ ดังนั้นจึงไร้ความหมายอย่างมาก กรอบจริยธรรมเช่นนี้สำหรับ AI ได้รับการวิพากษ์วิจารณ์ว่าเป็น ” การล้างจริยธรรม ” และอุบายสำหรับอุตสาหกรรมเพื่อหลีกเลี่ยงกฎหมายและข้อบังคับที่เข้มงวด
เพิ่มเติม: เทคโนโลยีขนาดใหญ่ออกแบบกฎจริยธรรมของตนเองเพื่อหลีกเลี่ยงการตรวจสอบข้อเท็จจริงและความรับผิดชอบได้อย่างไร
ความพยายามอีกประการหนึ่งคือโครงการสิทธิมนุษยชนและเทคโนโลยีของคณะกรรมการสิทธิมนุษยชนแห่งออสเตรเลีย มีจุดมุ่งหมายเพื่อปกป้องและส่งเสริมสิทธิมนุษยชนในการเผชิญกับเทคโนโลยีใหม่ๆ
เรามีแนวโน้มที่จะเห็นการเปลี่ยนแปลงบางอย่างหลังจาก การสอบสวนล่าสุดของคณะกรรมาธิการการแข่งขันและผู้บริโภคของออสเตรเลียเกี่ยวกับแพลตฟอร์มดิจิทัล และการทบทวนกฎหมายความเป็นส่วนตัวปี 1988 (Cth) ที่ค้างชำระมานานมีกำหนดในปลายปีนี้
ความคิดริเริ่มเหล่านี้หวังว่าจะเสริมสร้างการคุ้มครองของออสเตรเลียในยุคดิจิทัล แต่ยังมีงานอีกมากที่ต้องทำ การคุ้มครองสิทธิมนุษยชนที่แข็งแกร่งขึ้นจะเป็นก้าวสำคัญในทิศทางนี้ เพื่อเป็นรากฐานสำหรับกฎระเบียบ
ก่อนที่ AI จะถูกนำมาใช้อย่างแพร่หลาย เราจำเป็นต้องเข้าใจผลกระทบของมันและวางมาตรการป้องกัน ในการตระหนักถึงประโยชน์ที่เป็นไปได้ของ AI เราต้องแน่ใจว่ามีการควบคุมอย่างเหมาะสม มิฉะนั้น เราเสี่ยงที่จะต้องจ่ายแพงทั้งในฐานะปัจเจกบุคคลและในฐานะสังคม