ترجمان استراتژیک

پارادوکس قدرت هوش مصنوعی

نوع مطلب: ترجمه

The AI Power Paradox

Can states learn to Govern Artificial Intelligence – Before Its Too Late?

By lan Bremmer and Mustafa Suleyman

Foreign Affairs; September /October 2023 Published on August 16, 2023

 

نویسنده: لن برمر و مصطفی سلیمان

منبع: فارن افرز (2023)

مترجم: علی اسدی، دانشجوی دکتری روابط بین الملل دانشگاه علامه طباطبایی

 

 

 

آیا کشورها می توانند قبل از اینکه دیر شود، مدیریت و اداره کردن هوش مصنوعی را یاد بگیرند؟

 

سال 2035 است و هوش مصنوعی در همه عرصه ها نفوذ پیدا کرده است، سیستم های هوش مصنوعی بیمارستان‌ ها، خطوط هوایی را مدیریت و اداره، و در دادگاه ها از مباحث شدید مورد منازعه و گفتگو است. هم چنین در این دوران تولید و بهره ‌وری به سطوح بی‌ سابقه ‌ای افزایش و تعداد انبوهی از کسب ‌وکار که قبلاً امری غیرقابل‌ تصور بود، با سرعتی بی‌ سابقه افزایش ‌یافته و پیشرفت‌ های عظیمی در حوزه رفاه ایجاد شده است. تولیدات نوین، داروها و نوآوری ‌ها هر روز به بازار می‌آیند، زیرا علم و فناوری هر روز در حال افزایش است. بااین‌حال، جهان هم غیرقابل‌ پیش ‌بینی ‌تر و هم شکننده ‌تر خواهد شد زیرا تروریست‌ ها که همچنان در حال گسترش‌ اند از طریق سلاح ‌های سایبری هوشمند روش های جدیدی را برای تهدید جوامع پیدا می‌کنند، همچنین سرعت پیشرفت فناوری نیز باعث می‌شود که کارگران یقه ‌سفید به طور دسته ‌جمعی شغل خود را از دست بدهند.

 

شاید همین یک سال پیش، چنین سناریویی کاملاً تخیلی بود اما امروز، تقریباً امری اجتناب ‌ناپذیر به نظر می‌رسد. سیستم ‌های هوش مصنوعی در حال حاضر می‌توانند واضح ‌تر و متقاعدکننده ‌تر از بسیاری از انسان ‌ها بنویسند و تصاویر، هنرها و حتی رمزهای کامپیوتری را بر اساس درخواست ‌های زبان ساده تولید کنند. می‌توان گفت مولدهای هوش مصنوعی فقط نوک کوه یخ است که ورود آن نشانگر لحظه‌ ای بیگ بنگ و آغاز یک انقلاب تکنولوژیکی در جهان در حال تغییر است که سیاست، اقتصاد و جوامع را بازسازی و دگرگون خواهد کرد.

 

هوش مصنوعی همانند امواج فناوری گذشته، باعث ایجاد فرصت‌ های فوق‌العاده همراه با تغییرات و دگرگونی‌های عمیق و خطرات عظیم می‌گردد اما بر خلاف امواج قبلی، باعث تغییرات عمیقی در ساختار و توازن قدرت جهانی نیز خواهد شد؛ زیرا جایگاه دولت – ملت ها به‌ عنوان بازیگران اصلی در عرصه ژئوپلیتیک جهان را چه آنها بخواهند و چه نخواهند به ‌شدت تهدید می‌کند. مبتکران هوش مصنوعی خود بازیگرانی ژئوپلیتیکی هستند و تسلط آنها بر هوش مصنوعی بیش‌ازپیش نظم نوظهور تکنولوژی محورtechnopolar را تحت‌تأثیر قرار می‌دهد - نظمی که در آن شرکت‌ های فناوری از نوعی قدرت در حوزه خود بهره می‌گیرند که زمانی صرفاً برای دولت-ملت‌ها محفوظ بود. در دهه گذشته، شرکت ‌های بزرگ فناوری عملاً به بازیگران مستقل و قدرت‌مندی در حوزه‌ های دیجیتالی که خود خلق کرده‌ تبدیل شده‌اند. بااین‌حال هوش مصنوعی این روند را تسریع و آن را بسیار فراتر از حوزه دیجیتال بسط و گسترش می‌دهد. پیچیدگی ‌های ناشی از فناوری و سرعت پیشرفت آن، وضع قوانین متناسب با آن را برای دولت ‌ها تقریباً غیرممکن می‌کند. اگر دولت‌ ها این ضعف را هر چه سریع‌ تر جبران نکنند، این امکان وجود دارد که هرگز نتوانند از عهده این مهم برآیند.

 

خوشبختانه سیاست‌گذاران در سراسر جهان در مقابل چالش‌های ناشی از هوش مصنوعی بیدار شده و با چالش‌ها و نحوه اداره آن دست به اقداماتی زده‌اند. در ماه مه 2023، سازمان .بین‌ دولتی G-7 فرایند هوش مصنوعی هیروشیما « Hiroshima AI Proces » را راه‌اندازی کرد، این گردهمایی به هماهنگی برای اداره‌کردن هوش مصنوعی اختصاص داشت. در ماه ژوئن، پارلمان اروپا پیش‌ نویس قانون هوش مصنوعی اتحادیه اروپا را تصویب که این اقدام اولین تلاش جامع اتحادیه اروپا برای ایجاد امنیت در مقابل صنعت هوش مصنوعی بود. در ماه ژوئیه نیز، آنتونیو گوترش، دبیرکل سازمان ملل متحد، خواستار ایجاد یک سازوکار نظارتی در سطح جهانی برای این صنعت بود. در همین حال، در ایالات متحده، سیاستمداران هر دو حزب اصلی خواستار اقدامات نظارتی در این راستا هستند، اما بسیاری در این زمینه) ایجاد سازوکاری در زمینه هوش مصنوعی) با تد کروز، سناتور جمهوری‌ خواه تگزاس موافقند، که در ژوئن همچون بسیاری دیگر اشخاص اظهار داشت که کنگره «نمی‌داند دارد چه می‌کند».

 

متأسفانه، بسیاری از مباحث در مورد نحوه اداره هوش مصنوعی همچنان در یک‌چرخه خطرناک گیر افتاده است: که آیا باید از هوش مصنوعی برای گسترش اقتدار ملی بهره گرفت یا به دلیل خطرات آن باید جلوگیری و آن را محدود کرد؟ حتی کسانی که به‌ صورت دقیق این مشکل را تشخیص داده‌اند درصدد اند معضل ایجاد شده را با استفاده از هوش مصنوعی در چارچوب‌های موجود یا سابقاً موجود حل کنند. این درحالی است که هوش مصنوعی باعث تغییر مفاهیم سنتی قدرت ژئوپلیتیک گردیده است و نمی‌توان مانند فناوری‌ های گذشته آن را مدیریت و اداره کرد.

 

عدم طراحی چارچوب مدیریتی نوین متناسب با این فناوری منحصربه ‌فرد از جمله چالش هایی است که در این زمینه مدیریت جهانی با آن مواجه است. اگر قرار است مدیریت جهانی هوش مصنوعی میسر گردد باید نظام بین ‌المللی از مفاهیم سنتی مدیریتی گذشته فاصله گرفته و پذیرای شرکت ‌های فناوری شود. اگر چه این بازیگران ممکن است مشروعیت خود را از یک قرارداد اجتماعی، دموکراسی یا ارائه کالاهای عام‌ المنفعه به دست نیاورند، با این‌ حال، بدون همکاری و مشارکت آنها مدیریت هوش مصنوعی مؤثر نخواهد بود. این امر نمونه‌ای از چگونگی نیاز جامعه بین ‌المللی به بازنگری در مفروضات اساسی نظم ژئوپلیتیکی و تنها نیز به این مورد محدود نمی‌شود.

 

چالش بی‌سابقه و مبرم هوش مصنوعی نیازمند یک راه‌حل اساسی است. قبل از اینکه سیاست‌گذاران ساختار نظارتی مناسب را تدوین کنند باید بتوانند در مورد اصول اساسی نحوه اداره آن به توافق برسند. برای شروع، هر چارچوب مدیریتی باید هشیارانه، جامع، شفاف و هدف‌ مند عمل کرد. سیاست‌گذاران باتکیه ‌بر این اصول باید هم‌زمان حداقل سه ‌نظام همپوشان ایجاد کنند: نخست، حقیقت‌یابی و مشاوره به دولت‌ها در مورد خطرات ناشی از هوش مصنوعی، دوم، جلوگیری از شکل‌ گیری یک مسابقه تسلیحاتی همه‌جانبه میان دولت‌ها، و سرانجام مدیریت و اداره‌کردن نیروهای مخرب ناشی از تکنولوژی متفاوت‌ تر از آنچه که تاکنون جهان به خود دیده است. چه بخواهیم و چه نخواهیم، سال 2035 در راه است. این که آیا آینده با پیشرفت‌ های مثبت ناشی از هوش مصنوعی تعریف می‌گردد یا با اختلالات منفی ناشی از آن، به این امر بستگی دارد که سیاست‌گذاران در حال حاضر دست به چه اقداماتی می زنند.

 

سریع‌تر، تکاملی‌تر، قوی‌تر

هوش مصنوعی متفاوت از سایر فناوری ‌هاست ازاین‌ رو تأثیر آن بر قدرت نیز متفاوت است. هوش مصنوعی صرفاً باعث چالش در زمینه سیاست نمی‌ گردد، بلکه ماهیت فوق تکاملی آن حل چالش‌ها را سخت‌ تر و دشوارتر می‌کند که این امر خود ناشی از ماهیت پارادوکسی قدرت هوش مصنوعی است.

 

سرعت پیشرفت هوش مصنوعی خیره‌ کننده است. در این زمینه می‌توان قانون مور (Moore’s Law) را تصور کرد که دوبرابر شدن قدرت محاسباتی را هر دو سال یک‌بار با موفقیت پیش‌ بینی کرده است. موج جدید هوش مصنوعی باعث می‌شود که این میزان پیشرفت خیره‌ کننده به نظر برسد. هنگامی که OpenAI (آزمایشگاه تحقیقاتی هوش مصنوعی آمریکایی) اولین مدل بزرگ زبانی خود را به نام GPT-1 در سال 2018 راه‌ اندازی کرد، دارای 117 میلیون پارامتر بود که نشان از اندازه‌ گیری مقیاس و پیچیدگی این سیستم بود. پنج سال بعد، تصور می‌شد که نسل چهارم مدل این شرکت، یعنی GPT-4، بیش از یک تریلیون پارامتر داشته باشد. میزان محاسباتی که برای آموزش قوی‌ترین مدل‌های هوش مصنوعی استفاده می‌گردد، در ده سال گذشته هر سال ده برابر افزایش‌ یافته است. به‌ عبارت‌ دیگر، پیشرفته‌ترین مدل‌های هوش مصنوعی امروزی – که از پیشرفته‌ ترین مدل‌ ها نیز شناخته می‌شوند، پنج میلیارد برابر قدرت محاسباتی مدل‌ های پیشرفته یک دهه پیش را دارا هستند. پردازشی که زمانی هفته ‌ها طول می‌کشید اکنون در چند ثانیه انجام می‌شود. مدل‌ هایی که می‌توانند ده‌ ها تریلیون پارامتر را مدیریت کنند در چند سال آینده عرضه می‌شوند. مدل‌ های «مقیاس مغز – brain scale» با بیش از 100 تریلیون پارامتر - تقریباً تعداد سیناپس‌ ها (محل تماس دو عصب) در مغز انسان - ظرف پنج سال قابل‌ اجرا خواهند بود.

 

با هر پیشرفت جدیدی، قابلیت‌های غیرمنتظره‌ ای نیز ظاهر می‌شوند. برخی پیش‌ بینی می‌ کردند آموزش بر روی متون خام، مدل‌ های بزرگ زبانی را قادر می‌سازد تا جملات منسجم، بدیع و حتی خلاقانه تولید کند. عده‌ای تصور می‌کردند که مدل‌های زبانی بتوانند موسیقی تولید یا مشکلات علمی را حل کنند. به‌ زودی، توسعه‌ دهندگان هوش مصنوعی احتمالاً موفق خواهند شد سیستم‌ هایی با قابلیت‌های خود - ارتقایی (self-improving) تولید کنند که نقطه عطفی در مسیر این فناوری، و همه را شگفت‌زده خواهد کرد.

 

مدل‌های هوش مصنوعی قادرند با کمترین هزینه بیشترین بازدهی را تولید کنند. قابلیت‌های دیروز، امروزه با سیستم‌های کوچک‌ تر، ارزان‌ تر و دردسترس‌ تر اجرا می‌شوند. تنها سه سال پس از انتشار 3 OpenAI (Generative Pre-trained Transformer 3)، تیم‌های "مرجع در دسترس" ( Open Sourceکد مرجعی است که به‌ صورت رایگان برای تغییرات احتمالی و توزیع مجدد در دسترس است) مدل‌ هایی با همان سطح کارایی را ایجاد کردند که شصت برابر کوچک‌تر است - یعنی 60 برابر ارزان‌تر برای اجرا در تولید، کاملاً رایگان، و در اینترنت برای همه در دسترس است -. مدل‌های بزرگ زبان آینده احتمالاً این مسیر کارآمدی را دنبال خواهند کرد و تنها دو یا سه سال پس از صرف صدها میلیون دلار از سوی آزمایشگاه‌ های پیشرو هوش مصنوعی برای توسعه آنها، به‌ صورت مرجع در دسترس خواهند بود.

 

همانند هر نرم‌افزار یا کد دیگری، الگوریتم‌ های هوش مصنوعی نسبت به اموال منقول بسیار آسان‌تر و ارزان‌ تر تکثیر و به اشتراک (سرقت) گذاشته می‌شوند. به‌عنوان‌مثال، مدل قدرتمند متا، Llama-1، چند روز پس از عرضه در ماه مارس به اینترنت درز کرد. اگرچه قوی‌ترین مدل‌ها هنوز برای کارکردن به سخت‌افزارهای پیچیده نیاز دارند اما نسخه‌های متوسط می‌توانند روی رایانه‌ هایی اجرا شوند که می‌توان آن‌ها را با قیمت چند دلار در ساعت اجاره کرد. به‌زودی نیز چنین مدل‌ه ایی روی گوشی‌های هوشمند اجرا خواهند شد. تاکنون هیچ فناوری با این قدرت و سرعت در دسترس نبوده است.

 

همچنین هوش مصنوعی با فناوری‌های قدیمی‌تر از این‌ جهت متفاوت است که تقریباً می‌توان همه آنها را با عنوان «کاربرد دوگانه» نظامی و غیرنظامی توصیف کرد. بسیاری از سیستم‌ های هوش مصنوعی ذاتاً دارای کاربرد فراگیر هستند و در واقع، فراگیر بودن هدف اصلی بسیاری از شرکت‌های هوش مصنوعی است. آن‌ها درصددند تا برنامه‌های کاربردی‌شان به بیشترین تعداد ممکن از مردم کمک کند. اما همان سیستم‌هایی که ماشین‌ها را هدایت می‌توانند تانک‌ها را نیز هدایت کنند. همچنین یک برنامه کاربردی هوش مصنوعی که برای تشخیص بیماری‌ها ساخته شده است، ممکن است بتواند برنامه جدیدی ایجاد و به سلاح تبدیل کند. مرزهای بین کاربردهای امن و غیرنظامی هوش مصنوعی و کاربردهای ناامن و مخرب نظامی آن امری ذاتاً مبهم و پیچیده است این امر تا حدودی توضیح می‌دهد که چرا ایالات متحده صادرات پیشرفته‌ ترین نیمه‌ هادی‌ ها را به چین محدود کرده است.

 

همه اقدامات هوش مصنوعی در گستره جهان انجام می‌شود، مدل‌ های هوش مصنوعی پس از انتشار می‌توانند در همه‌ جا رسوخ و نفوذ پیدا کنند، بنابراین صرفاً یک مدل مخرب هوش مصنوعی برای ویران کردن مقیاس عظیم لازم است. به همین دلیل، تنظیم و مدیریت هوش مصنوعی نمی‌تواند به‌ صورت مجزا انجام شود. ازاین‌ رو اگر در برخی کشورها هوش مصنوعی مهار نشود، تنظیم و مدیریت آن در دیگر کشورها کاربرد چندانی ندارد و ازآنجایی‌ که هوش مصنوعی می‌تواند به‌ راحتی تکثیر گردد، مدیریت و کنترل آن هیچ حد و مرزی نمی‌ شناسد.

 

آسیب‌ و صدماتی که هوش مصنوعی ممکن است وارد کند حتی با افزایش انگیزه‌ های ساخت آن (و مزایای انجام آن) هیچ سنخیت و محدودیتی ندارد. هوش مصنوعی می‌تواند برای تولید و گسترش اطلاعات نادرست و مخرب، ازبین‌ بردن اعتماد اجتماعی و دموکراسی از قبیل کنترل‌ کردن، کلاهبرداری و تحت سلطه در آوردن شهروندان، تضعیف آزادی فردی و اجتماعی، ایجاد سلاح‌های دیجیتال یا فیزیکی قدرتمند که جان انسان‌ها را تهدید می‌کند به کار برده شود. همچنین هوش مصنوعی می‌تواند میلیون‌ها شغل را از بین برده، نابرابری‌ های موجود را تشدید، مشاغل جدید ایجاد، الگوهای تبعیض‌ آمیز را تثبیت و با تقویت حلقه‌ های بازخورد اطلاعات نادرست و مخرب، فرایند تصمیم‌ گیری را تحریف یا باعث تنش ناخواسته و غیرقابل‌ کنترل نظامی منجر به جنگ گردد.

 

در فرایند هوش مصنوعی چارچوب زمانی مشخصی برای زمان ایجاد و شکل‌ گیری بزرگ‌ترین خطرات وجود ندارد. همان گونه که جنگ بدون کنترل در میان‌ مدت محتمل به نظر می‌ رسد اطلاعات غلط آنلاین یک تهدید کوتاه‌ مدت آشکار است. در آینده دورتر، خطر اینکه هوش مصنوعی در هر مورد و زمینه معین از عملکرد انسان فراتر رفته و خطر اینکه خارج از کنترل انسان به طور اتوماتیک هدایت و خود را بهبود بخشند، وجود دارد. از این رو همه این خطرات باید از همان ابتدا در معماری اداره و کنترل هوش مصنوعی مورد توجه قرار گیرند.

 

هوش مصنوعی اولین فناوری نیست که از این ویژگی‌های قوی برخوردار است، اما اولین فناوری است که ترکیبی از همه آنها را داراست. سیستم‌های هوش مصنوعی مانند اتومبیل‌ها یا هواپیماها نیستند که بر روی سخت‌افزار با پیشرفت‌های تدریجی ساخته و پرهزینه‌ ترین خرابی‌های آن‌ها به‌صورت تصادفات رخ دهد یا آنها مانند سلاح‌های شیمیایی یا هسته‌ای نیستند که توسعه و نگهداری آنها و حمل و یا استقرار مخفیانه آنها دشوار و پر هزینه باشد. همان گونه که مزایای عظیم آنها امری بدیهی است، از دیگر ویژگی‌ های سیستم‌ های هوش مصنوعی این است که بهتر، ارزان‌ تر و در همه‌ جا قابل‌ دسترسی خواهند بود. آنها حتی قادرند به‌ صورت خودکار به اهداف مشخص با حداقل نظارت انسانی دست‌ یافته و قادر به‌ روز کردن خود باشند. هر یک از این ویژگی‌ ها مدل‌ های هوش مصنوعی امکان اداره و کنترل‌ کردن آنها به شیوه سنتی را به چالش می‌کشد. همه این ویژگی‌ها دست‌ به‌ دست هم داده و مدل‌های سنتی را به طرز نا امید کننده‌ ای ناکافی و ناکارآمد جلوه داده است.

 

آن‌چنان قدرتمند است که جایی برای هیچ شک و تردیدی باقی نمی‌ گذارد:

هوش مصنوعی با تغییر ساختار و توازن قدرت جهانی، زمینه سیاسی کنترل و اداره‌کردن خود را امری پیچیده و دشوار می‌کند. هوش مصنوعی فقط توسعه نرم‌ افزاری نیست؛ بلکه یک ابزار کاملاً نوین برای برنامه‌ریزی و حتی پیش‌بینی قدرت است. در مواردی، می‌تواند مقامات را از قدرت سرنگون و در مواردی قدرت آنها را تثبیت و تقویت کند. علاوه بر این، پیشرفت و توسعه آن با انگیزه‌ های وسوسه بر‌انگیزی همراه است و هر ملت، شرکت و فردی گونه خاصی از آن را خواهان است.

 

در میان دولت ها، هوش مصنوعی برای کسانی که از آن برای نظارت، فریب و حتی کنترل جمعیت از قبیل جمع‌ آوری و استفاده تجاری از داده‌ های شخصی در دموکراسی‌ ها و تشدید کردن ابزارهای سرکوبی که دولت‌ های مستبد برای تحت سلطه در آوردن جوامع خود استفاده می‌کنند، قدرت و کارایی دارد. در میان کشورها نیز هوش مصنوعی کانون رقابت شدید ژئوپلیتیکی خواهد است. برتری هوش مصنوعی چه به دلیل قابلیت‌های سرکوب‌کننده، پتانسیل‌های اقتصادی یا برتری نظامی آن هدف استراتژیک هر کشوری در رقابت با دیگر کشورها خواهد بود. دولت‌ها استراتژی‌های کمتر قابل‌ تصور پول را به تلاش‌ گران بومی هوش مصنوعی پمپاژ یا سعی می‌کنند ابررایانه‌ ها و الگوریتم‌ ها را تولید و کنترل کنند. به‌عنوان‌مثال فرانسه با حمایت مستقیم از استارت‌آپ‌های هوش مصنوعی، بریتانیا با سرمایه‌ گذاری در سیستم آموزش عالی خود و سرمایه‌گذاری پر ریسک در اکوسیستم؛ و اتحادیه اروپا، با شکل‌ دادن به گفتگوی جهانی در مورد مقررات و هنجارها، باعث تقویت استراتژی‌ های مزیت‌ های رقابتی خاصی می‌شوند.

 

اکثریت‌ قریب‌ به‌ اتفاق کشورها فاقد توانایی مالی و دانش فنی لازم برای رقابت و حفظ برتری خود در هوش مصنوعی در رقابت با سایر رقبایند. بنابراین: دسترسی این کشورها به پیشرفته‌ترین مدل هوش مصنوعی به روابط آنها با شرکت‌ها و دولت‌های ثروتمند و قدرتمند بستگی دارد. این وابستگی تهدیدی شدید برای عدم تعادل قدرت ژئوپلیتیک فعلی جهان است. در چنین وضعیتی قدرتمند ترین دولت‌ها برای کنترل ارزشمندترین منابع جهان رقابت خواهند کرد، درحالی‌ که همچنان، کشورهای جنوب جهان عقب خواهند ماند. اما این بدان معنا نیست که صرفاً ثروتمندترین‌ها از انقلاب هوش مصنوعی مانند اینترنت و گوشی‌های هوشمند سود می‌برند. بلکه هوش مصنوعی بدون رعایت مرزها، امکان بهره‌وری از دستاوردهای آن به‌صورت آزادانه تکثیر می‌شود؛ بنابراین هوش مصنوعی مانند انرژی و فناوری سبز، برای بسیاری از کشورهایی که کنترلی بر آن ندارند از جمله کشورهایی که در تولید داده‌های هوش مصنوعی مانند نیمه‌ هادی‌ها مشارکت دارند، سودمند خواهد بود.

 

با این‌ حال، از سوی دیگر نیز امروزه رقابت برای برتری در هوش مصنوعی شدید خواهد بود. پس از پایان جنگ سرد، هر چند کشورهای قدرتمند به دلیل ترس طرف مقابل و توقف یک مسابقه تسلیحاتی بی‌ ثبات‌ کننده بالقوه، با یکدیگر امکان همکاری داشتند، اما محیط پرتنش ژئوپلیتیک امروزی این همکاری را بسیار سخت‌ تر کرده است. هر چند هوش مصنوعی تنها ابزار یا سلاحی نیست که بتواند پرستیژ، قدرت یا ثروت را برای کشورها به ارمغان آورد، اما این پتانسیل را دارد که برتری نظامی و اقتصادی قابل‌ توجهی را نسبت به رقبا ایجاد کند. در دوران معاصر دو بازیکنی که بیشترین اهمیت ازاین‌ حیث دارند – چین و ایالات متحده‌اند - هر دو توسعه و پیشرفت هوش مصنوعی را یک بازی با مجموع صفر می‌ دانند که به برنده آن یک برتری استراتژیک تعیین‌کننده در دهه‌ های آینده خواهد داد. (بازی حاصل‌جمع صفر - - نمایشی ریاضی در تئوری بازی‌ها و تئوری اقتصادی وضعیتی است که دو طرف را در برمی‌گیرد که نتیجه آن برای یک طرف سود و برای طرف دیگر زیان معادل دارد. به‌عبارت‌ دیگر، سود بازیکن یک معادل ضرر بازیکن دو است، در نتیجه بهبود خالص در سود بازی صفر است. در این بازی اگر مجموع سود شرکت‌ کنندگان جمع شود و مجموع ضررها از آن کم شود، مجموع آنها صفر می‌شود.)

 

از دیدگاه واشنگتن و پکن، خطر اینکه طرف مقابل در هوش مصنوعی برتری پیدا کند، بیشتر از هر خطر دیگری است که فناوری ممکن است برای جامعه یا اقتدار سیاسی داخلی آنها ایجاد کند. به همین دلیل، دولت‌های ایالات متحده و چین منابع عظیمی برای توسعه قابلیت‌های هوش مصنوعی و سرمایه‌گذاری در این زمینه اختصاص می‌دهند و درعین‌حال تلاش می‌کنند یکدیگر را از داده‌های موردنیاز برای پیشرفت‌های دیگری محروم سازند. (تا کنون، ایالات متحده در انجام دومی بسیار از چین موفق‌تر بوده است، به‌ویژه با کنترل صادرات خود بر روی نیمه‌هادی‌های پیشرفته). این بازی حاصل‌ جمع صفر - و عدم اعتماد هر دو بازیگر به هم - به این معنی است که پکن و واشنگتن به‌ جای کاهش سرعت توسعه هوش مصنوعی بر سرعت‌ بخشیدن به توسعه آن متمرکز شده‌اند. از نظر آنها، "توقف یا مکث" در این زمینه به دلیل خطرات ناشی از آن همان گونه که برخی از دست‌اندرکاران صنعت هوش مصنوعی خواستار آن شده‌اند، به‌مثابه خلع سلاح احمقانه یک‌ جانبه است.

 

از این دورنما فرض می‌شود که دولت‌ها می‌توانند حداقل اندکی کنترل بر هوش مصنوعی داشته باشند. این فرض ممکن است در مورد چین که شرکت‌های فناوری خود را در ساختار دولت ادغام کرده است صادق باشد. اما در غرب و جاهای دیگر، هوش مصنوعی نه‌ تنها به‌ احتمال زیاد قدرت دولت را تقویت نمی‌کند؛ بلکه آن را نیز تضعیف می‌کند. در خارج از دولت چین، تعدادی از شرکت‌های بزرگ و متخصص هوش مصنوعی به دنبال آن هستند که همه جنبه‌های این موج فناوری جدید را کنترل کنند: از جمله این که مدل‌های هوش مصنوعی چه کاری می‌توانند انجام دهند، چه کسی می‌تواند به آنها دسترسی داشته باشد، چگونه می‌توان از آنها استفاده کرد و در کجا می‌ توان آنها را مستقر کرد. اما ازآنجایی‌ که این شرکت‌ها با هشیاری از قدرت محاسباتی و الگوریتم‌های خود محافظت می‌کنند، تقریباً تنها آنها می‌دانند چه تکنولوژی تولید و چه‌ کارهایی می‌توانند انجام دهند. این چند شرکت ممکن است برتری خود را برای آینده قابل‌پیش‌بینی حفظ یا ممکن است تحت‌الشعاع تعداد زیادی از بازیگران کوچک‌تر قرار گیرند، زیرا موانع اندکی برای ورود، توسعه گسترده و هزینه‌های حاشیه‌ ای نزدیک به صفر منجر به تکثیر کنترل نشده هوش مصنوعی می‌شود .درهرصورت، تحول هوش مصنوعی خارج از دولت اتفاق خواهد افتاد.

 

تا حدودی، برخی از چالش‌ها در زمینه هوش مصنوعی به چالش‌های فناوری‌ های دیجیتال قبلی شباهت دارد. پایگاه‌ های اینترنتی، رسانه‌ های اجتماعی، و حتی دستگاه‌ هایی مانند گوشی‌ های هوشمند همگی تا حدی در چارچوب‌ هایی که توسط سازندگان شان کنترل می‌شوند، کار می‌کنند. هنگامی که دولت‌ها بر اساس ضرورت سیاسی اراده کرده‌اند، توانستند سیستم‌های نظارتی مانند مقررات حفاظت از داده‌های عمومی اتحادیه اروپا، قانون بازارهای دیجیتال و قانون خدمات دیجیتال را برای این فناوری‌ ها ایجاد کنند. اما اجرای چنین مقرراتی در اتحادیه اروپا یک دهه یا بیشتر طول کشید و هنوز به‌ صورت کامل در ایالات متحده تحقق‌ نیافته است. هوش مصنوعی خیلی سریع متحول می‌شود تا جایی که سیاست‌گذاران قادر نیستند متناسب با آن واکنش نشان دهند. علاوه بر این، رسانه‌ های اجتماعی و دیگر فناوری‌های دیجیتال قدیمی‌تر به تولید خود کمکی نمی‌کنند و انگیزه‌های تجاری و استراتژیک پیش‌ برنده آنها هرگز یکسان نبوده: به‌ عنوان‌ مثال توییتر و تیک‌ تاک قدرتمند هستند، اما کمتر کسی فکر می‌کند که این دو بتوانند اقتصاد جهانی را متحول کنند.

 

همه اینها موارد بدین معنا است که حداقل برای چند سال آینده، صرف‌ نظر از اینکه سیاست‌گذاران در بروکسل یا واشنگتن چه می‌کنند، مسیر هوش مصنوعی تا حد زیادی توسط تصمیمات تعداد انگشت شماری از شرکت‌های خصوصی تعیین می‌شود. به‌عبارت‌ دیگر، فناوران، نه سیاست‌گذاران یا بوروکرات‌ها، بر نیرویی اعمال قدرت خواهند کرد که می‌تواند هم قدرت ملت - دولت‌ها و هم نحوه ارتباط آنها با یکدیگر را تغییر دهد. این امر باعث می‌شود که چالش مدیریت و کنترل هوش مصنوعی، به‌ مثابه یک قانون نظارتی ظریف‌تر و با ریسک‌های بیشتر در مقایسه با هر اقدامی که سیاست‌گذاران اتخاذ کرده‌ اند و از هر چالشی که دولت‌ها تا کنون با آن روبرو بوده‌ اند، متفاوت باشد.

 

هدف تکان‌دهنده، سلاح نوظهور

دولت‌ها در حال حاضر از قافله عقب‌ مانده‌ اند. اکثرا طرح‌ های پیشنهادی برای مدیریت و کنترل هوش مصنوعی، آن را به‌ عنوان یک مشکل متعارف در نظر می‌گیرند که با راه‌ حل‌های دولت‌ محور قرن بیستم سازگار است - مثلاً توافقاتی بر سر قوانینی که توسط رهبران سیاسی که دور یک میز نشسته‌ اند، حاصل می‌شود. اما باید گفت این رویکرد در مورد هوش مصنوعی کارساز نخواهد بود. تلاش‌های نظارتی در زمینه هوش مصنوعی تا به امروز در مراحل ابتدایی خود بوده و هنوز کافی نیستند. قانون هوش مصنوعی اتحادیه اروپا بلند پروازانه‌ ترین تلاش برای اداره هوش مصنوعی در هر قلمرویی است، اما این قانون از سال 2026 به طور کامل اعمال می‌شود، این در حالی است که تا آن زمان مدل‌ های هوش مصنوعی فراتر از تصور پیشرفت خواهند کرد. بریتانیا یک رویکرد داوطلبانه و آزادتر را برای نظارت بر هوش مصنوعی پیشنهاد کرده است، اما این رویکرد فاقد قابلیت کارایی و مؤثربودن است. باید گفت هیچ یک از این ابتکارات برای مدیریت توسعه و استقرار مدیریت هوش مصنوعی در سطح جهانی تلاشی ندارد – امری که برای موفقیت در راستای نظارت و مدیریت هوش مصنوعی مبرم و ضروری است و درحالی‌که تعهدات داوطلبانه برای رعایت دستورالعمل‌ های ایمنی هوش مصنوعی، مانند آنچه در ماه ژوئیه توسط هفت توسعه‌ دهنده پیشرو هوش مصنوعی، از جمله شرکت هوش مصنوعی (Inflection AI) انجام شد، مورد استقبال قرار می‌گیرد، اما هیچ‌ کدام به لحاظ قانونی جایگزینی برای مقررات الزام‌ آور در سطوح ملی و بین‌ المللی نیست.

 

حامیان توافقات بین‌ المللی برای مهار هوش مصنوعی تمایل دارند تا به مدلی مانند مدل کنترل تسلیحات هسته‌ ای دست یابند. اما گسترش، سرقت و تکثیرکردن سیستم‌ های هوش مصنوعی نه‌ تنها از سلاح‌ های هسته‌ ای بسیار آسان‌تر است؛ بلکه همچنین آنها توسط شرکت‌ های خصوصی و نه دولت‌ها کنترل می‌شوند. ازآنجایی‌ که نسل جدید مدل‌های هوش مصنوعی سریع‌ تر از همیشه انتشار می‌یابند، بنابراین مقایسه آن با مدل های هسته‌ای قیاس مع‌الفارق به نظر می‌رسد. ازاین‌حیث حتی اگر دولت‌ها بتوانند با موفقیت دسترسی به منابع و مواد مورد نیاز برای ساخت پیشرفته‌ ترین مدل‌ها را کنترل کنند - همان‌ طور که دولت بایدن با جلوگیری از دستیابی چین به تراشه‌های پیشرفته تلاش می‌کند – پس از تولید، نمی‌توانند جلوی تکثیر و انتشار این مدل‌ها را بگیرند.

 

برای اینکه مدیریت و نظارت جهانی بر هوش مصنوعی بتواند به‌ درستی کار کند، باید با ماهیت خاص فناوری، چالش‌ هایی که ایجاد، ساختار و توازن قدرتی که در آن عمل می‌کند، هماهنگی ایجاد شود. اما ازآنجایی‌که تکامل، کاربردها، خطرات و مزیت‌های هوش مصنوعی غیرقابل‌ پیش‌ بینی است، نمی‌توان در ابتدا یا در هر مقطع زمانی چگونگی مدیریت هوش مصنوعی را به طور کامل مشخص کرد. مدیریت و اداره هوش مصنوعی باید به‌اندازه فناوری‌ ای که به دنبال مدیریت آن است خلاقانه و تکامل‌ یابنده باشد و در گام نخست دارای برخی از ویژگی‌ها باشد که هوش مصنوعی را به چنین نیروی قدرتمندی تبدیل کند. این به معنای آغازی نو، بازاندیشی و بازسازی یک چارچوب نظارتی نوین از پایه خواهد بود.

 

هدف اساسی و فراگیر هر ساختار نظارتی هوش مصنوعی در سطح جهان باید شناسایی و کاهش خطرات در راستای ثبات جهانی بدون ایجاد مانع در فرایند نوآوری هوش مصنوعی و فرصت‌ های ناشی از آن باشد. بگذارید این رویکرد را «پیشگیری یا احتیاط گرایی تکنولوژیکی – technoprudentialism» بنامیم، این مورد بیشتر شبیه نقش پیشگیرانه کلان نهادهای مالی جهانی؛ مانند هیئت ثبات مالی (Financial Stability Board-FSB)، بانک تسویه‌ حساب‌ های بین‌ المللی (Bank for International Settlements یا BIS) و صندوق بین‌ المللی پول (International Monetary Fund (IMF)) است. هدف این نهادها شناسایی و کاهش خطرات ثبات مالی جهانی بدون به خطر انداختن رشد اقتصادی است. (پیشگیری یک اصل اخلاقی مبتنی بر اصول احتیاطی است که برای جلوگیری از تأثیرات منفی خاصی عمل می‌کند.)

 

رویکرد پیشگیرانه در عرصه هوش مصنوعی نیز باید به همین شکل عمل می‌کند. ایجاد مکانیسم‌ های نهادی برای مورد توجه قراردادن جنبه‌های مختلف هوش مصنوعی که می‌تواند ثبات ژئوپلیتیکی را تهدید کند، امری ضروری است. این مکانیسم‌ ها به نوبه خود توسط اصول مشترکی هدایت که هم بر اساس ویژگی‌ های منحصربه‌ فرد هوش مصنوعی طراحی شده و هم منعکس‌ کننده تعادل فناوری جدید قدرت‌اند که شرکت‌های فناوری را در موقعیت نیروی پیش‌ برنده قرار داده است .این اصول به سیاست‌گذاران کمک می‌کند تا چارچوب‌های نظارتی دقیق‌ تری برای مدیریت هوش مصنوعی در حال تکامل و تبدیل‌ شدن آن به یک نیروی فراگیرتر طراحی و ترسیم کنند.

 

اولین و شاید حیاتی‌ترین اصل مدیریت هوش مصنوعی، پیشگیری است. همان‌طور که از این اصطلاح پیداست، فن آوری در هستهٔ خود با باور پیشگیرانه به این اصل که " قبل از هر چیز، آسیبی نرسانید " هدایت می‌شود. محدودکردن حداکثری هوش مصنوعی به معنای محدودکردن جنبه‌ های مثبت تأثیرگذار آن در زندگی است، اما آزادسازی حداکثری آن به معنای آزادسازی تمام جنبه‌ های منفی بالقوه فاجعه‌ بار آن است. به‌عبارت‌دیگر، دورنمای ریسک - مزیت برای هوش مصنوعی همخوانی ندارد. با توجه‌ به عدم‌ قطعیت در مورد مقیاس و برگشت‌ناپذیری برخی از آسیب‌های بالقوه هوش مصنوعی، مدیریت هوش مصنوعی باید به‌ جای کاهش‌دادن آن‌ها بعد از وقوع، بر رویکرد پیشگیری متمرکز باشد. این امر به‌صورت ویژه‌ ای مهم است؛ زیرا هوش مصنوعی می‌ تواند دموکراسی را در برخی کشورها تضعیف و وضع مقررات را برای آنها دشوارتر کند. علاوه بر این، بار اثبات ایمن بودن یک سیستم هوش مصنوعی در حد معقول باید بر عهده تولیدکننده و یا مالک آن سیستم باشد. این امر نباید صرفاً به عهده دولت‌ها باشد که به‌ محض بروز مشکلات با آنها برخورد کنند.

 

مدیریت هوش مصنوعی نیز باید سریع باشد تا بتواند مسیر خود را به‌ صورت تکاملی و با خود ارتقایی تطبیق و اصلاح کند. مؤسسات دولتی اغلب به حدی می‌رسند که قادر به انطباق با تغییرات نیستند. در ارتباط باهوش مصنوعی، سرعت پیشرفت فناوری ساختارهای مدیریتی موجود را برای به‌روز کردن خود، خیلی سریع تحت‌فشار قرار خواهد داد. اما این بدان معنا نیست که مدیریت هوش مصنوعی باید خصلت سیلیکون‌ ولی «سریع حرکت کنید و چیزها را بشکنید – move fast and break things» اتخاذ کند، بلکه باید ماهیت فناوری‌ ای را که به دنبال آن است با دقت بیشتری انعکاس دهد.

 

علاوه بر محتاط و سریع بودن، مدیریت و اداره‌کردن هوش مصنوعی باید فراگیر باشد و از همه بازیگران لازم برای تنظیم و مدیریت عملی آن دعوت به همکاری شود. این امر بدان معناست که مدیریت هوش مصنوعی نمی‌تواند منحصراً دولت‌ محور باشد، زیرا دولت‌ها هوش مصنوعی را نه درک و نه کنترل می‌کنند. هرچند شرکت‌های فناوری خصوصی ممکن است فاقد استقلال و اقتدار به معنای سنتی باشند، اما در فضاهای دیجیتالی که خود ایجاد و به طور مؤثر آن را مدیریت می‌کنند، از قدرت و اختیار واقعی و حتی استقلال برخوردارند. این بازیگران غیردولتی نباید، نسبت به کشورهایی که در سطح بین‌ المللی به نمایندگی از شهروندان خود به رسمیت شناخته شده‌اند، از حقوق و امتیازات یکسانی برخوردار شوند. اما آنها باید طرف‌های نشست‌های بین‌ المللی باشند و هر گونه توافق‌ نامه‌ای درباره هوش مصنوعی را امضا نمایند.

 

مدیریت فراگیر هوش مصنوعی امری ضروری است؛ زیرا هر ساختار نظارتی که عوامل واقعی قدرت هوش مصنوعی را نادیده گیرد، محکوم به شکست است. در موج‌های پیشین قوانین و مقررات فناوری، اغلب به شرکت‌ها آزادی عمل زیادی داده می‌شد که فراتر از آن عمل می‌کردند و باعث می گردید سیاست‌گذاران و تنظیم‌ کننده‌ های مقررات به‌ شدت نسبت به‌ افراط کاری‌های آنها واکنش نشان دهند. اما این پویایی هم برای شرکت‌های فناوری و هم برای مردم سودی در بر نداشت. دعوت از توسعه‌ دهندگان هوش مصنوعی برای مشارکت در فرایند قانون‌گذاری از همان ابتدا به ایجاد فرهنگ مشارکتی‌ تر مدیریت هوش مصنوعی کمک و خود ضرورت مهار چنین شرکت‌ هایی را بعدازاین واقعیت با مقررات پرهزینه و خصمانه کاهش می‌دهد.

 

شرکت‌ های فناوری لازم نیست در همه مراحل مدیریتی و تصمیم‌ گیری دخیل باشند. بلکه بهتر است برخی از جنبه‌های مدیریتی هوش مصنوعی به دولت‌ها واگذار شود، ناگفته نماند دولت‌ها باید همواره حق وتوی نهایی خود را در تصمیم‌ گیری‌های سیاسی حفظ کنند. دولت‌ها باید در و قوانین و مقررات اعمال شده در این راستا، مراقب دست‌ اندازی شرکت‌های فناوری باشند و اطمینان حاصل نمایند که شرکت‌های فناوری از نفوذ در سیستم‌های سیاسی برای پیشبرد منافع خود به قیمت منافع عمومی استفاده نمی‌کنند. در یک مدل مدیریتی فراگیر و چند جانبه باید اطمینان حاصل ‌شود بازیگرانی که سرنوشت هوش مصنوعی را تعیین می‌کنند در فرایندهای قانون‌گذاری مشارکت و متعهد به رعایت آنها باشند. علاوه بر دولت‌ها (به‌ ویژه چین و ایالات متحده اما نه صرفاً این دو) و شرکت‌های فناوری (به‌ ویژه بازیگران بزرگ فناوری و نه صرفاً محدود به آنها)، دانشمندان، متخصصین علم اخلاق، اتحادیه‌ های کارگری، نهادهای مدنی، و سایر صاحب‌نظران باید در این فرایند دخیل باشند. مشارکت در فرایندهای هوش مصنوعی در قالب یک گروه غیرانتفاعی شامل طیف وسیعی از شرکت‌های بزرگ فناوری، مؤسسات تحقیقاتی، خیریه‌ ها و نهادهای مدنی که استفاده مسئولانه از هوش مصنوعی را ترویج می‌کند، نمونه خوبی از گونه انجمن‌های ترکیبی و فراگیر موردنیاز در این راستا است.

 

مدیریت و قوانین هوش مصنوعی باید تاحدامکان غیرقابل‌ تفسیر باشد. برخلاف کاهش تغییرات آب‌ وهوایی که موفقیت در آن با مجموع تمام تلاش‌های فردی تعیین می‌شود، ایمنی هوش مصنوعی با کمترین مشارکت حاصل می‌شود. شکست در یک الگوریتم منفرد می‌تواند صدمات غیرقابل‌ تصور ایجاد کند. ازآنجایی‌که کیفیت مدیریت هوش مصنوعی در سطح جهان در حد بدترین مدیریت کشور، شرکت یا فناوری است، بنابراین باید جامع و بی‌ نقص باشد و ورود آن به‌اندازه کافی آسان باشد که امکان مشارکت را تشویق و خروج از آن به‌اندازه کافی پرهزینه باشد تا از عدم رعایت مقررات جلوگیری کند. یک نقطه‌ ضعف در این فرایند زمینه‌ ساز رسوخ و نشت گسترده اطلاعات، بازیگران بد و یا ایجاد یک مسابقه نظارتی باز می‌گردد.

 

علاوه بر فراگیر بودن مدیریت هوش مصنوعی در کل جهان، مدیریت آن نیز باید کل زنجیره تأمین - از تولید گرفته تا سخت‌افزار، نرم‌افزار، خدمات و ارائه‌دهندگان تا کاربران سرویس‌ها را پوشش دهد. این به معنای مقررات پیشگیرانه و نظارت فنی بر روی هر مرحله از زنجیره ارزشی هوش مصنوعی از تولید تراشه‌های هوش مصنوعی گرفته تا جمع‌آوری داده‌ها، آموزش مدل‌سازی تا استفاده نهایی و در سراسر مجموعه فناوری‌های مورداستفاده در یک برنامه خاص است. چنین مدیریتی تضمین می‌کند که هیچ نقطه خاکستری نظارتی برای سوءاستفاده‌ کردن وجود نداشته باشد.

 

سرانجام، مدیریت و قوانین هوش مصنوعی باید هدف‌مند و نه اینکه به یک اندازه برای همه باشد. ازآنجایی‌ که هوش مصنوعی یک فناوری همه‌ منظوره است، بنابراین تهدیدات چند بعدی را با خود به همراه دارد. ازاین‌ رو یک ابزار مدیریتی واحد برای رسیدگی به منابع مختلف خطرات هوش مصنوعی کافی نیست. در عمل، تعیین اینکه کدام ابزارها برای هدف قراردادن کدام ریسک‌ ها متناسب‌اند، و چگونه می‌توان هر کدام را به بهترین نحو کنترل کرد مستلزم ایجاد یک طبقه‌بندی پویا و منطقی از تمام اثرات احتمالی هوش مصنوعی است - به‌عنوان‌مثال، هوش مصنوعی در برخی از برنامه‌ ها تکاملی و تدریجی خواهد بود که این امر مشکلات فعلی مانند نقض حریم خصوصی را تشدید می‌کند و در برخی دیگر بنیادین است و آسیب‌ های کاملاً تازه‌ای ایجاد می‌کند. گاهی اوقات، بهترین زمان برای مداخله، زمانی است که داده‌ها جمع‌ آوری می‌شوند. در مواقع دیگر، زمانی است که تراشه‌ های پیشرفته به فروش می‌رسند و اطمینان حاصل می‌شود که در اختیار ناصالحان قرار نمی‌گیرند. مقابله با اطلاعات اشتباه و اطلاعات عمداً غلط به ابزارهای متفاوتی در مقایسه مقابله با خطرات هوش جامع مصنوعی (شکل پیشرفته از هوش مصنوعی است که می‌تواند وظایف انسانی را انجام دهد و می‌تواند مهارت‌های حسی و حرکتی، عملکردی، یادگیری و هوش انسان را تقلید کند - Artificial General Intelligence- AGI) و سایر فناوری‌های نامطمئن با پیامدهای بالقوه وجودی نیاز دارد. یک اصلاح جزئی نظارتی در برخی موارد کارساز خواهد بود. این در حالی است که در برخی موارد دیگر، دولت‌ها باید پابندی و رعایت مقررات را به امری کاملاً الزام‌آور تبدیل کنند.

 

رعایت و عملی‌ کردن همه موارد فوق مستلزم درک عمیق از دانش و فناوری‌ های موردنظر است. وضع‌کنندگان مقررات و سایر مسئولان در این راستا به نظارت بر مدل‌های کلیدی هوش مصنوعی و دسترسی به آنها نیاز دارند. در واقع، آنها به یک سیستم بازرسی نیاز خواهند داشت که نه‌تنها توانایی‌ را از راه دور ردیابی کند، بلکه مستقیماً به فناوری‌های اصلی دسترسی داشته باشند، این امر به نوبه خود مستلزم داشتن دانش متناسب با آن است. تنها چنین اقداماتی می‌تواند تضمین کند که هم خطرات آشکار و هم پیامدهای بالقوه مخرب درجه دوم و سوم کاربرد‌های نوین هوش مصنوعی به‌ صورت فعالانه ارزیابی می‌شوند. به‌ عبارت‌ دیگر، مدیریت هدف‌ مند باید مدیریت آگاهانه باشد.

 

الزامات پیشگیرانه فنی

بر اساس این اصل باید حداقل سه سیستم مدیریت هوش مصنوعی با وظایف، اهرم‌ها و شرکت‌ کنندگان متفاوت وجود داشته باشند .ضمن آنکه همه باید از نظر طراحی بدیع باشند، اما هر کدام می‌توانند از ترتیبات و طرح‌های موجودی که در راستای چالش‌های جهانی، از قبیل تغییرات آب‌ وهوایی، گسترش تسلیحات و ثبات مالی طراحی شده‌اند، الهام گیرند.

 

سیستم اول در این راستا بر حقیقت‌یابی متمرکز است و در قالب یک نهاد علمی جهانی به‌صورت عینی به دولت‌ها و نهادهای بین‌المللی درباره مسائل اساسی مانند اینکه هوش مصنوعی چیست و چه نوع چالش‌هایی دررابطه‌با سیاست ایجاد می‌کند، مشاوره می‌دهد. اگر دولت‌ها و نهادهای بین‌ المللی نتوانند در مورد تعریف هوش مصنوعی یا دامنه احتمالی آسیب‌های ناشی از آن توافق کنند، سیاست‌گذاری مؤثر نیز غیرممکن خواهد بود. در اینجا الهام و الگوگرفتن از طرح‌ها و برنامه‌های ایجاد شده در راستا تغییرات آب‌وهوایی آموزنده و کاربردی خواهد بود. برای تدوین پایه‌ ای از دانش مشترک برای مذاکرات تغییرات آب‌ وهوایی، سازمان ملل متحد برنامه بین‌دولتی تغییرات آب‌وهوایی (IPCC) را ایجاد و به آن وظایفی« از جمله ارائه‌دادن ارزیابی منظمی از مبنای علمی تغییرات آب‌وهوا، تأثیرات و خطرات آتی آن، ارائه راهکارهایی برای تعدیل و کاهش اثرات خطرات" به سیاست‌گذاران» داد. برای ارزیابی منظم از وضعیت هوش مصنوعی، ارزیابی بی‌ طرفانه خطرات و اثرات بالقوه آن، پیش‌بینی سناریوها و درنظرگرفتن راه‌ حل‌های فنی برای حفاظت از منافع عمومی جهان، به یک نهاد مشابه مانند IPCC نیاز است. این نهاد دارای استقلال علمی و ژئوپلیتیکی جهانی خواهد بود و همان‌طور که IPCC گزارش‌های مذاکرات آب‌وهوایی سازمان ملل را منعکس می‌کنند، گزارش‌های این نهاد نیز می‌تواند به مذاکرات چندجانبه در مورد هوش مصنوعی کمک کند.

 

همچنین جهان به راه‌حلی برای مدیریت تنش‌ها بین قدرت‌های اصلی هوش مصنوعی و جلوگیری از انتشار و تکثیر سیستم‌ های خطرناک هوش مصنوعی پیشرفته نیاز دارد. مهم‌ترین رابطه بین‌المللی در ارتباط با هوش مصنوعی رابطه بین ایالات متحده و چین است. همکاری بین دو رقیب در بهترین حالت امری دشوار است. اما در زمینه رقابت حاد ژئوپلیتیکی میان این دو بازیگر، یک مسابقه هوش مصنوعی کنترل نشده می‌تواند تمام امیدهای ایجاد یک اجماع بین‌ المللی در مورد مدیریت هوش مصنوعی را از بین ببرد. یکی از زمینه‌ هایی که واشنگتن و پکن ممکن است در این زمینه همکاری با یکدیگر را مفید تلقی کنند، کند کردن گسترش سیستم‌های قدرتمندی است که می‌توانند اقتدار دولت‌ - ملت‌ها را به خطر بیندازند. در این باره اگر تهدیدهای کنترل نشده و خود تکثیرشونده در سال‌های آینده اختراع شوند، خود می‌توانند انگیزه‌ های قویی برای هماهنگی در مورد تضمین ایمنی و مهار ایجاد کنند.

 

در تمام این زمینه‌ها، واشنگتن و پکن باید به دنبال ایجاد زمینه‌های مشترک و حتی راهکارهای پیشگیرانه‌ای باشند که توسط دیگران پیشنهاد داده می‌شوند. در این زمینه، رویکردهای نظارتی و راستی‌ آزمایی که اغلب در سیستم‌های کنترل تسلیحات اعمال می‌شوند ممکن است برای مهم‌ترین داده‌های هوش مصنوعی، به‌ویژه داده‌های مربوط به سخت‌افزارهای محاسباتی، از جمله نیمه رسانه‌ های پیشرفته و مراکز داده‌ها، اعمال و کارایی داشته باشند. همان گونه در طول جنگ سرد مدیریت نقاط افتراق کلیدی به مهار یک مسابقه تسلیحاتی خطرناک کمک کرد، نیز می‌تواند در حال حاضر به مهار یک مسابقه هوش مصنوعی حتی خطرناک‌ تر کمک کنند.

 

اما ازآنجایی‌که بیشتر حوزه‌های هوش مصنوعی در حال حاضر غیرمتمرکزند، نسبت به مسئله دو ابرقدرت خود به یک مسئله مشترک جهانی تبدیل شده است. ماهیت انتقالی توسعه هوش مصنوعی و ویژگی‌های اصلی این فناوری، مانند انتشار مرجع در دسترس، این احتمال را افزایش می‌دهد که توسط مجرمان سایبری، بازیگران تحت حمایت دولت‌ها و افراد تبدیل به سلاح شود. به همین دلیل است که جهان به سیستم مدیریت سومی ازاین‌حیث برای مدیریت هوش مصنوعی نیاز دارند که بتواند هنگام بروز اختلالات خطرناک واکنش نشان دهد. سیاست‌گذاران برای این هدف می‌توانند از رویکردی که مقامات مالی برای حفظ ثبات مالی جهانی استفاده کرده‌اند، بهره گیرند. هیئت‌مدیره ثبات مالی، متشکل از بانک‌های مرکزی، وزارت‌های دارایی، و مقامات نظارتی و مدیریتی از سراسر جهان، برای جلوگیری از بی‌ثباتی مالی جهانی با ارزیابی آسیب‌پذیری‌های سیستمی و هماهنگی اقدامات لازم و انعکاس آنها بین مقامات ملی و بین‌ المللی تلاش می‌کنند. بنابراین یک نهاد تکنوکراتیک مشابه برای مدیریت ریسک هوش مصنوعی - که می‌توان آن را هیئت ثبات بیوتکنولوژی (Geotechnology Stability Board) نامید - می‌تواند برای حفظ ثبات ژئوپلیتیکی در زمانه تغییرات سریع مبتنی بر هوش مصنوعی فعالیت کند. این هیئت، با حمایت مقامات نظارتی بومی دولت‌ها و نهادهای نظارتی استاندارد بین‌المللی، تخصص‌ها و منابع را برای پیشگیری یا پاسخگویی به بحران‌های مرتبط باهوش مصنوعی جمع‌ آوری و خطر انتشار آن را کاهش می‌دهد و درعین‌حال، باتوجه‌به اینکه بازیگران کلیدی فناوری چندملیتی نقش مهمی در حفظ ثبات ژئوپلیتیکی ایفا می‌کنند، مستقیماً با بخش خصوصی تعامل برقرار می‌کند، درست همان‌طور که بانک‌های مهم به طور سیستماتیک برای حفظ ثبات مالی اقدام می‌کنند.

 

چنین نهادی، با قدرتی که ریشه در حمایت دولت دارد، می‌تواند به‌خوبی از مشارکت بازیگران فناوری در سطح جهان در سهام باز یا پنهان پشت شرکت‌ها جلوگیری کند. تشخیص اینکه برخی شرکت‌های فناوری از نظر سیستمی مهم هستند به معنای به حاشیه بردن استارت‌ آپ‌ها یا نوآوران نوظهور نیست بلکه برعکس، به معنای ایجاد یک رابطه واحد و مستقیم بین نهاد مدیریتی جهان با این غول‌های فناوری است که اثربخشی اجرای مقررات و مدیریت بحران را افزایش می‌دهد-. و هر دو این موارد به نفع کل اکوسیستم هستند.

 

ساختاری که برای حفظ ثبات ژئو تکنولوژیکی طراحی شده است، می‌تواند خلأ خطرناک مسئولیت مدیریت هوش مصنوعی مرجع در دسترس را در چشم‌ انداز نظارتی کنونی پر کند که در این راستا سطحی از بازبینی (نظارت) آنلاین ضروری خواهد بود. اگر شخصی یک مدل بسیار خطرناک را آپلود کند، این سازمان باید دارای اختیار و توانایی کافی باشد که آن را حذف کند یا مقامات بومی را برای انجام این کار هدایت نماید که خود زمینه دیگری برای همکاری بالقوه دوجانبه است. چین و ایالات متحده باید برای تعبیه محدودیت‌های ایمنی در نرم‌افزارهای مرجع در دسترس با یکدیگر همکاری کنند. به‌عنوان‌ مثال، با محدودکردن میزانی که مدل‌ها می‌توانند به کاربران در مورد چگونگی توسعه سلاح‌های شیمیایی یا بیولوژیکی یا ایجاد پاتوژن‌های ) pathogen - یک باکتری، ویروس یا میکروارگانیسم دیگر که می‌تواند باعث بیماری شود (به‌ صورت همه‌جانبه آموزش دهند. علاوه بر این، ممکن است فضایی برای پکن و واشنگتن برای همکاری در تلاش‌های جهانی ضد اشاعه، از طریق استفاده از ابزارهای سایبری مداخله‌جویانه وجود داشته باشد.

 

هر یک از این سیستم‌ ها باید به‌ صورت جهانی عمل و از مشارکت و همکاری همه بازیگران اصلی هوش مصنوعی بهره‌ مند شود. سیستم‌ها باید به‌اندازه کافی تخصص داشته باشند تا بتوانند با سیستم‌های هوش مصنوعی واقعی کنار بیایند و به‌اندازه کافی پویا باشند تا دانش خود را در مورد هوش مصنوعی در حین تکامل به‌ روز کنند. این مؤسسات با همکاری یکدیگر می‌توانند گامی تعیین‌ کننده به سمت مدیریت فنی پیشگیرانه در دنیای نوظهور هوش مصنوعی بردارند. اما آنها به‌هیچ‌ وجه تنها نهادهایی نیستند که موردنیاز خواهند بود. بلکه مکانیسم‌ های نظارتی دیگری مانند استانداردهای شفافیت «مشتری خود را بشناسید - know your customer»، الزامات مجوز، پروتکل‌ های تست ایمنی، و فرایندهای ثبت و تأیید محصول، باید در چند سال آینده برای هوش مصنوعی اعمال شوند. کلید همه این ایده‌ها ایجاد نهادهای مدیریتی انعطاف‌پذیر و چندوجهی خواهد بود که توسط سنت یا فقدان قدرت خلاقه محدود نشده باشند. در نهایت، فناوران توسط این موانع محدود نخواهند شد.

 

بهترین‌ها را تبلیغ و ترویج کنید، از بدترین‌ها جلوگیری کنید:

اجرا و عملی‌ کردن هیچ یک از این راه‌ حل‌ها آسان نخواهد بود. علی‌رغم همه هیاهوها و صحبت‌ هایی که از سوی رهبران جهان در موردنیاز به تنظیم مقرراتی در ارتباط باهوش مصنوعی به گوش می‌رسد، اما هنوز اراده سیاسی لازم برای انجام این کار وجود ندارد. در حال حاضر، صرفاً تعداد کمی از حوزه‌های قدرتمند حامی هوش مصنوعی هستند و همه انگیزه‌ها به ادامه انفعالی آن اشاره دارند. در اینجا اگر یک سیستم مدیریتی هوش مصنوعی از نوع توصیف شده به‌خوبی طراحی شود، می‌تواند برای همه طرف‌های ذی‌ نفع مناسب باشد، و اصول و ساختارهایی را که بهترین‌ها را تبلیغ و ترویج می‌کنند و درعین‌ حال از بدترین‌ها جلوگیری می‌کنند، رعایت کند. هوش مصنوعی غیرقابل‌کنترل به‌ مثابه جایگزین، نه‌ تنها خطرات غیرقابل‌ قبولی برای ثبات جهانی ایجاد می‌کند، بلکه برای تجارت مضر و با منافع ملی هر کشور هم مغایرت دارد.

 

یک ساختار مدیریتی قوی هوش مصنوعی هم خطرات اجتماعی ناشی از هوش مصنوعی را کاهش و هم تنش‌های بین چین و ایالات متحده را با کاهش میزان تبدیل‌ شدن هوش مصنوعی به عرصه و ابزار رقابت ژئوپلیتیکی کاهش می‌دهد. چنین ساختاری، به الگویی برای نحوه رسیدگی به سایر فناوری‌های مخرب و نوظهور، به‌مثابه موردی دامنه‌دارتر، دست می‌ یابد. هوش مصنوعی ممکن است یک کاتالیزور منحصربه‌فرد برای تغییر باشد، اما به‌هیچ‌ وجه آخرین فناوری مخربی نیست که بشریت با آن مواجه خواهد شد بلکه همچنین محاسبات کوانتومی، بیوتکنولوژی، نانوتکنولوژی و رباتیک نیز پتانسیل تغییر اساسی جهان را دارند. مدیریت موفقیت‌آمیز هوش مصنوعی به جهان کمک می‌کند تا این فناوری‌ها را نیز با موفقیت اداره کند.

 

قرن بیست و یکم نیز خود چالش‌های به‌ اندازه چالش‌های مضطرب‌ کننده یا فرصت‌های امیدوارکننده ارائه‌ شده توسط هوش مصنوعی ایجاد خواهد کرد. در قرن گذشته، سیاست‌گذاران به ایجاد یک ساختار مدیریتی در سطح جهان اقدام کردند که امیدوار بودند جوابگوی دوره‌ های مختلف باشد. اما اکنون، آنها باید یک ساختار مدیریتی جدید ایجاد کنند تا مهیب‌ ترین، و بالقوه تعیین‌ کننده‌ ترین نیروی این دوران را مدیریت و مهار کند. سال 2035 نزدیک است، هیچ زمانی برای هدردادن وجود ندارد.

 

 

جهت ارجاع علمی: لن برمر و مصطفی سلیمان، «پارادوکس قدرت هوش مصنوعی» (فارن افرز. 2023)، مترجم: علی اسدی، تاریخ انتشار در سایت مرکز: 1402/6/26

 

 

 

1.دیدگاه های ارسال شده توسط شما، پس از تایید در وب سایت منتشر خواهد شد
2.پیام هایی که حاوی تهمت یا بی احترامی به اشخاص باشد منتشر نخواهد شد
3.پیام هایی که به غیر از زبان فارسی یا غیر مرتبط با مطلب باشد منتشر نخواهد شد