เทคโนโลยี AI มีการพัฒนาอย่างมากในช่วงไม่กี่ปีที่ผ่านมา และเช่นเดียวกับนวัตกรรมอื่นๆ เทคโนโลยีดังกล่าวควรสัมพันธ์กับการยอมรับของสาธารณะและรัฐบาล ด้วยเหตุนี้จึงเป็นเรื่องสำคัญที่จะต้องจัดเตรียมและปรับเปลี่ยนกฎระเบียบที่จะกำหนดขอบเขตและในขณะเดียวกันก็จะไม่เป็นอุปสรรคสำหรับนักพัฒนา

พระราชบัญญัติปัญญาประดิษฐ์ของสหภาพยุโรปคืออะไร?

คณะกรรมาธิการยุโรปได้เผยแพร่กฎหมายฉบับแรกในปี 2564 ซึ่งอธิบายถึงพื้นฐานการใช้ AI และความรับผิดชอบสำหรับอันตรายที่อาจเกิดขึ้น นอกจากนี้ยังเน้นย้ำว่าเทคโนโลยี AI ใดๆ ที่จะ (หรือที่ปรากฏอยู่แล้ว) ในสหภาพยุโรปควรถูกพัฒนาโดยมีความรับผิดชอบและตระหนักถึงผลกระทบทางสังคม และเคารพต่อค่านิยมและกฎเกณฑ์ที่ยั่งยืนในยุโรป

ตลอดหลายปีที่ผ่านมาเอกสารดังกล่าวได้รับการอัปเดตหลายครั้ง และการเผยแพร่ครั้งล่าสุดเป็นในปี 2566 การปรับปรุงเช่นนี้เป็นสิ่งที่หลีกเลี่ยงไม่ได้เนื่องจากเทคโนโลยี AI ยังคงดำเนินต่อไป

นั่นคือเหตุผลว่าทำไมจึงมีแผนที่จะดำเนินการตามกฎหมาย AI ที่เป็นเอกภาพซึ่งทุกคนสามารถตรวจสอบการอัปเดตล่าสุดและปรับให้เข้ากับข้อบังคับทางธุรกิจของตนเองได้ นอกจากนี้จะมีการให้บริการส่งเรื่องร้องเรียนเกี่ยวกับระบบ AI ที่ใช้ในทางที่ผิดและส่งผลกระทบต่อข้อมูลของพวกเขา

ข้อบังคับของสหภาพยุโรปสำหรับการใช้เทคโนโลยี AI - ข้อสำคัญ

ในทางทฤษฎี ข้อบังคับของสหภาพยุโรปต้องรวมถึงคำอธิบายโดยละเอียดเกี่ยวกับการใช้เทคโนโลยี AI อย่างเหมาะสม เช่น:

  • ความโปร่งใส: โค้ดโอเพ่นซอร์สที่เปิดให้ชุมชนนักพัฒนา AI
  • คุณภาพข้อมูล: ข้อมูลโดยละเอียดเกี่ยวกับวิธีปฏิบัติที่ดีที่สุดในการเตรียมข้อมูล
  • การป้องกันผู้ใช้: การเตือนเกี่ยวกับความเป็นส่วนตัวของข้อมูลและผลที่ตามมาเมื่อข้อมูลรั่วไหลหรือใช้ในทางที่ไม่เหมาะสม
  • การกำกับดูแลโดยมนุษย์: การควบคุมการพัฒนา AI ในหมู่สังคม
  • การรับผิดชอบ: การรับผิดชอบสำหรับการกระทำและการตัดสินใจ
eu-regulations

นอกจากนี้ยังมีประเด็นสำคัญเกี่ยวกับจริยธรรม AI และข้อกำหนดพื้นฐานของมัน

เอกสารยังควรเปิดเผยระดับความเสี่ยง 4 ระดับของการใช้เทคโนโลยี AI:

  1. ระดับไม่ยอมรับได้:
  • การจูงใจพฤติกรรมทางปัญญาของบุคคลหรือกลุ่มที่เปราะบาง
  • การให้คะแนนสังคม: การจำแนกบุคคลตามพฤติกรรม สถานะทางสังคม-เศรษฐกิจ หรือลักษณะส่วนบุคคล
  1. ระดับสูง:

ระบบ AI ที่ตกอยู่ในพื้นที่เฉพาะที่จะต้องลงทะเบียนในฐานข้อมูลของสหภาพยุโรป:

  • การจัดการและการดำเนินงานของโครงสร้างพื้นฐานสำคัญ
  • การศึกษาและการฝึกอบรมวิชาชีพ
  • การจ้างงาน การจัดการแรงงานและการเข้าถึงการทำงานอิสระ
  • การเข้าถึงและการเพลิดเพลินกับบริการเอกชนและบริการสาธารณะและผลประโยชน์พื้นฐาน
  • การบังคับใช้กฎหมาย
  • การจัดการด้านการอพยพ การขอลี้ภัย และการควบคุมพรมแดน
  • การช่วยเหลือในการตีความและการใช้กฎหมาย
  1. ระดับจำกัด:
  • เปิดเผยว่าเนื้อหาถูกสร้างขึ้นโดย AI
  • การออกแบบโมเดลเพื่อป้องกันไม่ให้สร้างเนื้อหาที่ผิดกฎหมาย
  • การเผยแพร่สรุปข้อมูลลิขสิทธิ์ที่ใช้ในการฝึกอบรม
  1. ระดับน้อยที่สุด:

กฎหมายมุ่งเสนอโอกาสให้กับบริษัทเริ่มต้นและธุรกิจขนาดกลางและขนาดเล็กในการพัฒนาและฝึกอบรมโมเดล AI ก่อนที่จะเปิดตัวให้กับสาธารณชน

นอกจากนี้แต่ละระดับความเสี่ยงต้องมีข้อมูล/เอกสารเกี่ยวกับกระบวนการประเมินและตัวอย่างของการปฏิบัติที่ดี เช่น:

  • การทดสอบอย่างเข้มงวด
  • เอกสารที่เหมาะสม
  • เป้าหมายทางธุรกิจที่ชัดเจน
  • การป้องกันข้อมูล

ต้องพิจารณาว่าจริยธรรม AI เป็นสิ่งจำเป็นในโลกสมัยใหม่หรือไม่?

นอกจากนี้ ข้อบังคับอาจมีคำแนะนำเฉพาะของการใช้งาน AI ("ควรทำและไม่ควรทำ") ที่สอดคล้องกับกฎหลักของสหภาพยุโรป

เมื่อข้อบังคับอยู่ในระยะสุดท้าย คณะกรรมาธิการของสหภาพยุโรปยังวางแผนที่จะให้บริการค่าธรรมเนียมสำหรับบริษัท/นักพัฒนาที่ใช้เทคโนโลยี AI อย่างไม่เหมาะสมหรือทำให้สังคมเกิดความเสี่ยงในวงกว้าง

ขั้นต่อไปคืออะไร?

ขั้นแรก ข้อบังคับควรได้รับการลงคะแนนและการยอมรับในคณะกรรมาธิการสหภาพยุโรป น่าเสียดายที่การอภิปรายดังกล่าวมักใช้เวลาหลายเดือนหรือแม้แต่หลายปี ขั้นตอนต่อไปประกอบด้วยการนำข้อบังคับไปใช้ในแต่ละประเทศยุโรป

หลังจากนั้น บริษัท/นักพัฒนาจะมีเวลา 2 ปีในการอัปเดตข้อบังคับและบริการของพวกเขาให้เป็นไปตามมาตรฐานใหม่ และหลังจากนั้นอีก 6 เดือน รัฐบาลจะตรวจสอบและแบนบริการ AI ที่ไม่ได้ยื่นขอให้ใช้กฎหมายใหม่

ทำไมต้องมีการให้บริการข้อบังคับดังกล่าว?

เป็นที่แรก ในปัจจุบันเทคโนโลยี AI ถูกควบคุมเพียงบางส่วนเท่านั้น และยังมีบางด้านที่ยังคงอยู่ภายใต้กฎหมาย จากมุมมองหนึ่ง มันเปิดโอกาสมากมายสำหรับนักพัฒนา แต่น่าเสียดายที่ในมือที่ผิด อิสระดังกล่าวอาจถูกใช้เป็นอาวุธ และอาจทำให้กระบวนการป้องกันข้อมูลตกอยู่ในความเสี่ยง

นอกจากนั้น คำกล่าวต่อไปนี้ควรได้รับการพิจารณา:

  • การป้องกันสิทธิมนุษยชนพื้นฐาน: ความเป็นส่วนตัว การไม่เลือกปฏิบัติ และอิสระ
  • ความปลอดภัยและความน่าเชื่อถือ: ข้อบังคับสามารถกำหนดมาตรฐานและข้อกำหนดสำหรับความปลอดภัยและความน่าเชื่อถือของระบบ AI
  • ความโปร่งใสและการรับผิดชอบ: ข้อกำหนดสำหรับการอธิบายกระบวนการตัดสินใจของ AI การเปิดเผยแหล่งข้อมูลและวิธีการฝึกอบรม และการกำหนดความรับผิดชอบสำหรับผลลัพธ์ที่เกี่ยวข้องกับ AI
  • การพิจารณาด้านจริยธรรม: AI ทำให้เกิดข้อกังวลทางจริยธรรมหลายประการ รวมถึงปัญหาเกี่ยวกับความยุติธรรม อคติ ความรับผิดชอบ และผลกระทบต่องานและสังคม
  • การส่งเสริมนวัตกรรมและการแข่งขัน: ข้อบังคับที่ชัดเจนและต่อเนื่องสามารถให้ความมั่นใจและความมั่นใจแก่ธุรกิจและผู้บริโภค นอกจากนี้ยังสามารถช่วยให้มั่นใจว่ามีสนามเด็กเล่นที่เท่าเทียมกันสำหรับธุรกิจที่ดำเนินงานในตลาดของสหภาพยุโรป
  • ความเป็นผู้นำระดับโลก: โดยการพัฒนาและนำไปใช้ข้อบังคับที่เข้มงวดสำหรับ AI สหภาพยุโรปสามารถวางตำแหน่งตัวเองเป็นผู้นำระดับโลกในการกำกับดูแล AI อย่างมีความรับผิดชอบ

Author

Julia Mykhailiuk

Marketing Specialist