مقررات در هوش مصنوعی

مقررات هوش مصنوعی توسعه بخش عمومی سیاست‌ها و قوانینی برای ترویج و تنظیم هوش مصنوعی یا (AI) است؛ بنابراین به تنظیم الگوریتم‌های گسترده‌تر مربوط می‌شود. چشم‌انداز مقرراتی و سیاست‌گذاری برای هوش مصنوعی یک موضوع در حال ظهور در حوزه‌های قضایی در سطح جهان، از جمله در اتحادیه اروپا و در نهادهای فراملی مانند OECD و IEEE و دیگران است. از سال ۲۰۱۶، موجی از دستورالعمل‌های اخلاقی هوش مصنوعی به منظور حفظ کنترل رفتاری بر این فناوری منتشر شده‌است.[۱][۲][۳]

پیش زمینه ویرایش

در سال 2017 Elon Musk خواستار تنظیم مقررات توسعه هوش مصنوعی شد.[۴]در پاسخ به پیشنهادات ماسک و فوریه ۲۰۱۷ قانونگذاران اتحادیه اروپا برای تنظیم مقررات هوش مصنوعی و روباتیک، مدیر عامل اینتل برایان کرزانیچ استدلال کرد که هوش مصنوعی در مراحل ابتدایی خود است و هنوز برای تنظیم این فناوری خیلی زود است.[۵]برخی از محققان به جای تلاش برای تنظیم خود فناوری، ایجاد هنجارهای مشترک از جمله الزام‌ها آزمایش و شفافیت الگوریتم‌ها را پیشنهاد کردند.

دیدگاه‌ها ویرایش

قوانین هوش مصنوعی توسعه سیاست‌ها و قوانین بخش عمومی برای ترویج و تنظیم هوش مصنوعی است.[۶] در حال حاضر مقررات به‌طور کلی برای تشویق در زمینه هوش مصنوعی و مدیریت ریسک‌های مرتبط با آن ضروری در نظر گرفته می‌شود. ملاحظات مدیریت دولتی و سیاست گذاری عموماً بر پیامدهای فنی و اقتصادی و بر سیستم‌های هوش مصنوعی قابل اعتماد و انسان محور متمرکز هستند. رویکرد اصلی به مقررات روی خطرات و سوگیری‌های فناوری زیربنایی هوش مصنوعی، به عنوان مثال، الگوریتم‌های یادگیری ماشینی، در سطح داده‌های ورودی، آزمایش الگوریتم، و مدل تصمیم‌گیری، و همچنین اینکه آیا توضیح سوگیری‌ها در کد می‌تواند برای گیرندگان احتمالی فناوری قابل درک باشد و از نظر فنی انتقال آن برای تولیدکنندگان امکان‌پذیر باشد.[۷] مقررات هوش مصنوعی می‌تواند از اصول اولیه نشات بگیرد. مرکز برکمن کلاین برای اینترنت و جامعه در سال ۲۰۲۰ از مجموعه‌های اصول موجود، مانند اصول Asilomar و اصول پکن، هشت اصل اساسی را شناسایی کرد: حریم خصوصی، مسئولیت‌پذیری، ایمنی و امنیت، شفافیت و توضیح‌پذیری، انصاف و غیرقانونی. تبعیض، کنترل انسانی تکنولوژی، مسئولیت حرفه ای و احترام به ارزش‌های انسانی.[۸]قوانین و مقررات هوش مصنوعی به سه موضوع اصلی تقسیم شده‌است، یعنی حاکمیت سیستم‌های اطلاعاتی مستقل، مسئولیت و پاسخگویی در قبال سیستم‌ها، و مسائل مربوط به حریم خصوصی و ایمنی. یک رویکرد مدیریت دولتی رابطه ای بین قانون و مقررات هوش مصنوعی، اخلاق هوش مصنوعی، و «جامعه هوش مصنوعی» را می‌بیند که به عنوان جایگزینی و تغییر نیروی کار، پذیرش اجتماعی و اعتماد به هوش مصنوعی، و تحول تعریف می‌شود. تعامل انسان با ماشین[۹] توسعه استراتژی‌های بخش عمومی برای مدیریت و تنظیم هوش مصنوعی در سطح محلی، ملی ضروری است.

راهنمایی جهانی ویرایش

توسعه یک هیئت حاکمیت جهانی برای تنظیم توسعه هوش مصنوعی حداقل در اوایل سال ۲۰۱۷ پیشنهاد شد.[۱۰] در دسامبر ۲۰۱۸، کانادا و فرانسه برنامه‌هایی را برای تشکیل یک پنل بین‌المللی هوش مصنوعی تحت حمایت G7، با الگوبرداری از هیئت بین‌دولتی تغییرات آب‌وهوایی برای مطالعه اثرات جهانی هوش مصنوعی بر مردم و اقتصاد اعلام کردند. و توسعه هوش مصنوعی را هدایت کند.[۱۱] در سال ۲۰۱۹، پانل به مشارکت جهانی در زمینه هوش مصنوعی تغییر نام داد.[۱۲][۱۳] سازمان مشارکت جهانی در زمینه هوش مصنوعی در ژوئن ۲۰۲۰ راه اندازی شد و بیان می‌کند که نیاز به توسعه هوش مصنوعی مطابق با حقوق بشر و ارزش‌های دموکراتیک برای اطمینان از اعتماد عمومی و اعتماد به این فناوری، همان‌طور که در OECD بیان شده‌است. اصول هوش مصنوعی اعضای مؤسس مشارکت جهانی در زمینه هوش مصنوعی استرالیا، کانادا، اتحادیه اروپا، فرانسه، آلمان، هند هستند. ایتالیا، ژاپن، جمهوری کره، مکزیک، نیوزیلند، سنگاپور، اسلوونی، ایالات متحده آمریکا و بریتانیا. دبیرخانه GPAI توسط OECD در پاریس، فرانسه میزبانی می‌شود. مأموریت GPAI چهار موضوع را پوشش می‌دهد که دو مورد از آنها توسط مرکز بین‌المللی تخصص در مونترال برای پیشرفت هوش مصنوعی پشتیبانی می‌شود، یعنی هوش مصنوعی مسئول و حاکمیت داده. یک مرکز تعالی متناظر در پاریس که هنوز شناسایی نشده‌است، از دو موضوع دیگر در مورد آینده کار و نوآوری و تجاری سازی حمایت خواهد کرد. GPAI همچنین بررسی خواهد کرد که چگونه می‌توان از هوش مصنوعی برای پاسخ به همه‌گیری کووید-۱۹ استفاده کرد. در سازمان ملل، چندین نهاد شروع به ترویج و بحث در مورد جنبه‌های مقررات و سیاست‌های هوش مصنوعی کرده‌اند، از جمله مرکز هوش مصنوعی و رباتیک در یونسکو چهلمین جلسه علمی در نوامبر ۲۰۱۹، این سازمان یک فرایند دو ساله را برای دستیابی به «ابزار تنظیم استاندارد جهانی در زمینه اخلاق هوش مصنوعی» آغاز کرد. برای دستیابی به این هدف، انجمن‌ها و کنفرانس‌های یونسکو در مورد هوش مصنوعی برای جمع‌آوری دیدگاه‌های ذینفعان برگزار شده‌است. جدیدترین پیش‌نویس متن توصیه‌ای دربارهٔ اخلاق هوش مصنوعی گروه تخصصی ویژه یونسکو در سپتامبر ۲۰۲۰ صادر شد و شامل درخواستی برای پر کردن شکاف‌های قانونی است.[۱۴]

مقررات منطقه ای و ملی ویرایش

چشم‌انداز مقررات و سیاست برای هوش مصنوعی یک موضوع در حال ظهور در حوزه‌های قضایی در سراسر جهان، از جمله در اتحادیه اروپا است.[۱۵]و روسیه از اوایل سال ۲۰۱۶، بسیاری از مقامات ملی، منطقه‌ای و بین‌المللی اتخاذ استراتژی‌ها، برنامه‌های اقدام و اسناد سیاستی در زمینه هوش مصنوعی را آغاز کرده‌اند.[۱۶][۱۷] این اسناد طیف گسترده‌ای از موضوعات مانند مقررات و حاکمیت و همچنین استراتژی صنعتی، تحقیقات، استعدادها و زیرساخت‌ها را پوشش می‌دهد.[۱۸]

کانادا ویرایش

«استراتژی هوش مصنوعی پان-کانادایی» (۲۰۱۷) با بودجه فدرال ۱۲۵ میلیون دلاری با هدف افزایش تعداد محققان برجسته هوش مصنوعی و فارغ التحصیلان ماهر در کانادا، ایجاد گره‌های برتری علمی در سه کشور اصلی پشتیبانی می‌شود. مراکز هوش مصنوعی، توسعه «رهبری فکری جهانی» در زمینه پیامدهای اقتصادی، اخلاقی، سیاستی و حقوقی پیشرفت‌های هوش مصنوعی و حمایت از جامعه تحقیقاتی ملی که روی هوش مصنوعی کار می‌کنند. برنامه CIFAR AI کانادا سنگ بنای استراتژی است. این سازمان از بودجه ۸۶٫۵ میلیون دلاری Can در طول پنج سال برای جذب و حفظ محققان مشهور هوش مصنوعی بهره می‌برد. دولت فدرال در می ۲۰۱۹ شورای مشورتی هوش مصنوعی را با تمرکز بر بررسی چگونگی ایجاد نقاط قوت کانادا برای اطمینان از اینکه پیشرفت‌های هوش مصنوعی منعکس کننده ارزش‌های کانادایی مانند حقوق بشر، شفافیت و باز بودن است، منصوب کرد. شورای مشورتی هوش مصنوعی یک گروه کاری برای استخراج ارزش تجاری از هوش مصنوعی و تجزیه و تحلیل داده متعلق به کانادا ایجاد کرده‌است. در سال ۲۰۲۰، دولت فدرال و دولت کبک از افتتاح مرکز بین‌المللی تخصص در مونترال برای پیشرفت هوش مصنوعی خبر دادند که باعث پیشرفت مسئولانه توسعه هوش مصنوعی می‌شود.

چین ویرایش

مقررات هوش مصنوعی در چین عمدتاً تحت نظارت شورای ایالتی PRC «برنامه توسعه هوش مصنوعی نسل بعدی» (سند شماره ۳۵ شورای ایالتی) در ۸ ژوئیه ۲۰۱۷، که در آن مرکزی کمیته حزب کمونیست چین و شورای دولتی جمهوری خلق چین از نهادهای حاکم چین خواستند تا توسعه هوش مصنوعی را ترویج کنند. تنظیم مسائل مربوط به حمایت اخلاقی و قانونی برای توسعه هوش مصنوعی در حال شکل‌گیری است، اما سیاست کنترل دولتی شرکت‌های چینی و داده‌های ارزشمند را تضمین می‌کند، از جمله ذخیره‌سازی داده‌های کاربران چینی در داخل کشور و استفاده اجباری از ملیت جمهوری خلق چین. استانداردهای AI، از جمله داده‌های بزرگ، محاسبات ابری، و نرم‌افزارهای صنعتی. در سال ۲۰۲۱، چین دستورالعمل‌های اخلاقی برای استفاده از هوش مصنوعی در چین منتشر کرد که بیان می‌کند محققان باید اطمینان حاصل کنند که AI رعایت می‌شود. با ارزش‌های مشترک انسانی، همیشه تحت کنترل انسان است و امنیت عمومی را به خطر نمی‌اندازد.[۱۹]

شورای اروپا ویرایش

شورای اروپا (CoE) یک سازمان بین‌المللی است که دموکراسی حقوق بشر و حاکمیت قانون را ترویج می‌کند و شامل ۴۷ کشور عضو، از جمله تمامی ۲۹ امضاکننده اعلامیه همکاری اتحادیه اروپا در زمینه هوش مصنوعی در سال ۲۰۱۸ است. CoE یک فضای حقوقی مشترک ایجاد کرده‌است که در آن اعضا تعهد قانونی برای تضمین حقوق مندرج در کنوانسیون اروپایی حقوق بشر دارند. به‌طور خاص در رابطه با هوش مصنوعی، «هدف شورای اروپا شناسایی مناطق متقاطع بین هوش مصنوعی و استانداردهای ما در مورد حقوق بشر، دموکراسی و حاکمیت قانون، و ایجاد راه حل‌های مربوط به تنظیم استاندارد یا ظرفیت سازی است». تعداد زیادی از اسناد مرتبط شناسایی شده توسط CoE شامل دستورالعمل‌ها، منشورها، اوراق، گزارش‌ها و استراتژی‌ها می‌باشد.[۲۰]

ایالات متحده ویرایش

بحث در مورد مقررات هوش مصنوعی در ایالات متحده شامل موضوعاتی مانند به موقع بودن تنظیم هوش مصنوعی، ماهیت چارچوب نظارتی فدرال برای اداره و ارتقای هوش مصنوعی، از جمله اینکه چه آژانسی باید رهبری کند، اختیارات نظارتی و حاکمیتی آن آژانس، و چگونگی به روز رسانی مقررات در مواجهه با تکنولوژی به سرعت در حال تغییر و همچنین نقش دولت‌ها و دادگاه‌های ایالتی می‌باشد. در اوایل سال ۲۰۱۶، دولت اوباما شروع به تمرکز بر خطرات و مقررات هوش مصنوعی کرده بود. در گزارشی با عنوان آینده هوش مصنوعی علم و فناوری ملی شورا سابقه ای ایجاد کرد تا محققان به توسعه فناوری‌های جدید هوش مصنوعی با محدودیت‌های اندک ادامه دهند. در این گزارش آمده‌است که "رویکرد مقررات مربوط به محصولات مجهز به هوش مصنوعی برای محافظت از ایمنی عمومی باید با ارزیابی جنبه‌های خطر آگاه شود…"[۲۱] این خطرات دلیل اصلی ایجاد هر نوع مقرراتی خواهد بود، با توجه به اینکه هر مقررات موجود برای فناوری هوش مصنوعی اعمال نمی‌شود.

تنظیم سلاح‌های کاملاً خودمختار ویرایش

سؤالات حقوقی مربوط به سلاح خودمختار مرگبار (قانون)، به‌ویژه انطباق با قانون بین‌المللی بشردوستانه، از سال ۲۰۱۳ در سازمان ملل مورد بحث قرار گرفته‌است. متن کنوانسیون برخی سلاح‌های متعارف. قابل ذکر است، جلسات غیررسمی کارشناسان در سال‌های ۲۰۱۴، ۲۰۱۵ و ۲۰۱۶ برگزار شد و گروهی از کارشناسان دولتی (GGE) برای بررسی بیشتر در مورد این موضوع در سال ۲۰۱۶ منصوب شدند. مجموعه‌ای از اصول راهنما در مورد قوانین مورد تأیید GGE در قوانین در 2018.[۲۲]

منابع ویرایش

  1. Héder, M (2020). "A criticism of AI ethics guidelines". Információs Társadalom. 20 (4): 57–73. doi:10.22503/inftars.XX.2020.4.5.
  2. "An Ethical Approach to AI is an Absolute Imperative, Andreas Kaplan" (به انگلیسی). Retrieved 26 April 2021.
  3. Sotala, Kaj; Yampolskiy, Roman V (2014-12-19). "Responses to catastrophic AGI risk: a survey". ChimisterScripta. 90 (1): 018001. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
  4. "Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'". NPR.org (به انگلیسی). Retrieved 27 November 2017.
  5. Kharpal, Arjun (7 November 2017). "A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says". CNBC. Retrieved 27 November 2017.
  6. Research handbook on the law of artificial intelligence. Barfield, Woodrow,, Pagallo, Ugo. Cheltenham, UK. 2018. ISBN 978-1-78643-904-8. OCLC 1039480085.{{cite book}}: نگهداری CS1: سایر موارد (link)
  7. BUITEN, Miriam C (2019). "Towards Intelligent Regulation of Artificial Intelligence". European Journal of Risk Regulation. 10 (1): 41–59. doi:10.1017/err.2019.8. ISSN 1867-299X. S2CID 155138874.
  8. Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhu (2020-01-15). "Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI" (به انگلیسی). {{cite journal}}: Cite journal requires |journal= (help)
  9. Wirtz, Bernd W.; Weyerer, Jan C.; Sturm, Benjamin J. (2020-04-15). "The Dark Sides of Artificial Intelligence: An Integrated AI Governance Framework for Public Administration". International Journal of Public Administration. 43 (9): 818–829. doi:10.1080/01900692.2020.1749851. ISSN 0190-0692. S2CID 218807452.
  10. Boyd, Matthew; Wilson, Nick (2017-11-01). "Rapid developments in Artificial Intelligence: how might the New Zealand government respond?". Policy Quarterly. 13 (4). doi:10.26686/pq.v13i4.4619. ISSN 2324-1101.
  11. Innovation, Science and Economic Development Canada (2019-05-16). "Declaration of the International Panel on Artificial Intelligence". gcnws. Retrieved 2020-03-29.
  12. Simonite, Tom (2020-01-08). "The world has a plan to rein in AI—but the US doesn't like it". Wired (به انگلیسی). Retrieved 2020-03-29.
  13. "AI Regulation: Has the Time Arrived?". InformationWeek (به انگلیسی). 24 February 2020. Retrieved 2020-03-29.
  14. "UNICRI :: United Nations Interregional Crime and Justice Research Institute". www.unicri.it. Retrieved 2020-08-08.
  15. Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. Regulation of artificial intelligence in selected jurisdictions. LCCN 2019668143. OCLC 1110727808.
  16. "OECD Observatory of Public Sector Innovation - Ai Strategies and Public Sector Components". Retrieved 2020-05-04.
  17. Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF). Paris: OECD Observatory of Public Sector Innovation.
  18. Campbell, Thomas A. (2019). Artificial Intelligence: An Overview of State Initiatives (PDF). Evergreen, CO: FutureGrasp, LLC. Archived from the original (PDF) on 31 March 2020. Retrieved 20 March 2022.
  19. PRC Ministry of Science and Technology. Ethical Norms for New Generation Artificial Intelligence Released, 2021. A translation by Center for Security and Emerging Technology
  20. "Council of Europe and Artificial Intelligence". Artificial Intelligence (به انگلیسی). Retrieved 2021-07-29.
  21. National Science and Technology Council Committee on Technology (October 2016). "Preparing for the Future of Artificial Intelligence". whitehouse.gov – via National Archives.
  22. "Guiding Principles affirmed by the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons System" (PDF). United Nations Geneva. Archived from the original (PDF) on 1 December 2020. Retrieved 20 March 2022.