ความก้าวหน้าของเทคโนโลยี AI ได้รับการพัฒนาอย่างน่าทึ่งในช่วงไม่กี่ปีที่ผ่านมา โดยนำเสนอนวัตกรรมที่ก้าวล้ำสู่โลก อย่างไรก็ตาม ความคืบหน้านี้จะต้องมาพร้อมกับการกำกับดูแลของภาครัฐและรัฐบาล การสร้างกรอบการกำกับดูแลเป็นสิ่งสำคัญยิ่งในการสร้างความสมดุลที่ละเอียดอ่อน: การกำหนดขอบเขตที่จำเป็นโดยไม่ขัดขวางความคิดสร้างสรรค์ของนักพัฒนา

ข้อบังคับของสหรัฐอเมริกาสำหรับการใช้เทคโนโลยี AI - ข้อมูลพื้นฐาน

ในขณะนี้รัฐบาลสหรัฐฯ เพิ่งเริ่มพิจารณาแนวคิดในการเตรียมข้อบังคับเช่นนี้ นอกจากนี้ ทำเนียบขาวยังแนะนำให้หน่วยงานรัฐบาลกลางควบคุมทุกอย่างที่เกี่ยวข้องกับเทคโนโลยี AI สำหรับวัตถุประสงค์ของรัฐบาล พวกเขาจะรับผิดชอบในการ:

  • ดำเนินการประเมินความเสี่ยง
  • ดำเนินการป้องกันที่เป็นรูปธรรม
  • เปิดเผยข้อมูลต่อสาธารณะอย่างละเอียดเมื่อรัฐบาลสหรัฐใช้เทคโนโลยี AI
  • แต่งตั้งเจ้าหน้าที่ AI หลัก

ต่างจากรัฐบาลยุโรป สหรัฐอเมริกาตัดสินใจไม่ทำเอกสารอย่างเป็นทางการ และมุ่งเน้นไปที่การมอบหมายงานเฉพาะให้กับรัฐบาลกลาง

นอกจากนี้ รัฐบาลสหรัฐฯ ยังวางแผนที่จะจ้างผู้เชี่ยวชาญด้าน AI ประมาณ 100 คนที่จะส่งเสริมความปลอดภัยในการใช้งาน AI

ประเด็นสำคัญสำหรับการเตรียมการข้อบังคับของสหรัฐฯ

ในเดือนมกราคม 2023, NIST ซึ่งเป็นหน่วยงานของกระทรวงพาณิชย์สหรัฐฯ ได้เผยแพร่เอกสารมาตรฐาน AI โดยสมัครใจ แต่พวกเขาได้เน้นย้ำว่าเอกสารดังกล่าวไม่มีผลผูกพัน อย่างไรก็ตาม เอกสารดังกล่าวอาจเป็นแหล่งข้อมูลที่มีประโยชน์เกี่ยวกับการพัฒนา/การใช้/การออกแบบผลิตภัณฑ์ AI ที่มีมาตรฐานด้านจริยธรรมและการตระหนัก มีเอกสารที่คล้ายกันที่เผยแพร่โดย Section 5301 ด้วย

เนื่องจากสถาบันที่กล่าวถึงทั้งหมดกำลังร่วมมือกับรัฐบาลสหรัฐฯ จึงมีความเป็นไปได้สูงว่าข้อบังคับขั้นสุดท้ายของสหรัฐฯ สำหรับเทคโนโลยี AI จะรวมถึงข้อความจากเอกสารข้างต้นด้วย

สิ่งใดควรรวมอยู่ในเอกสารเหล่านี้?

ตามที่เผยแพร่แล้วในสหรัฐฯ การประเมินความเสี่ยง/การศึกษากรณี/คำแนะนำทางปฏิบัติสำหรับเทคโนโลยี AI ข้อบังคับของสหรัฐฯ อาจมีข้อมูลเกี่ยวกับ:

  1. ข้อกำหนดด้านความปลอดภัย: การตรวจสอบแบบเรียลไทม์ อุปกรณ์หยุดฉุกเฉิน หรือการแทรกแซงอื่น ๆ ของระบบ AI เพื่อป้องกันการเสี่ยงต่อชีวิต สุขภาพ หรือทรัพย์สิน
  2. การประเมินความปลอดภัย: โปรโตคอลเพื่อหลีกเลี่ยง ป้องกัน หรือตอบโต้การโจมตีต่อระบบ AI
  3. บทเรียน/กรณีศึกษา: การเข้าใจและใช้กลไกของระบบ AI อย่างเหมาะสม
  4. ความเป็นส่วนตัว: การปกป้องอิสระของมนุษย์โดยการปกป้องความเป็นนิรนาม การเป็นความลับ และการควบคุม
  5. ข้อมูลแบบโอเพนซอร์ส: ข้อมูลที่สามารถเข้าถึงได้เกี่ยวกับระบบ AI
  6. ระบบการตรวจสอบ: การพิสูจน์ผ่านการทดสอบหรือการตรวจสอบอย่างต่อเนื่องเพื่อยืนยันว่าระบบ AI ทำงานตามที่ตั้งใจไว้
  7. คำแถลงด้านจริยธรรม: การพัฒนาเทคโนโลยี AI อาจเข้ากันได้กับพื้นฐานของกฎหมายมนุษย์และการป้องกันข้อมูล
  8. รายการทำสำหรับผู้เริ่มต้นสตาร์ทอัพ ซึ่งอาจรวมถึง:
  • ความรู้ที่เพียงพอเกี่ยวกับระบบ AI
  • ข้อมูลเกี่ยวกับวิธีการนำการทดสอบ การประเมิน การตรวจสอบ และกระบวนการตรวจสอบมาใช้เพื่อแจ้งการตัดสินใจของผู้บริหาร
  • ข้อเสนอแนะในการพัฒนาวัฒนธรรมองค์กรที่บูรณาการการบริหารความเสี่ยงด้าน AI
  • การประเมินความเสี่ยง

เนื่องจากตลาดสหรัฐฯ ไม่ต้องสงสัยเลยว่าเป็นผู้นำในการพัฒนาเทคโนโลยี AI การดำเนินการข้อบังคับดังกล่าวควรดำเนินการโดยเร็วที่สุด ซึ่งจะช่วยป้องกันรายการความเสี่ยงของ AI ที่เพิ่มขึ้นสำหรับปีต่อไปได้อย่างแน่นอน

Author

Julia Mykhailiuk

Marketing Specialist