ترجمان استراتژیک
پارادوکس قدرت هوش مصنوعی
The AI Power Paradox
Can states learn to Govern Artificial Intelligence – Before Its Too Late?
By lan Bremmer and Mustafa Suleyman
Foreign Affairs; September /October 2023 Published on August 16, 2023
نویسنده: لن برمر و مصطفی سلیمان
منبع: فارن افرز (2023)
مترجم: علی اسدی، دانشجوی دکتری روابط بین الملل دانشگاه علامه طباطبایی
آیا کشورها می توانند قبل از اینکه دیر شود، مدیریت و اداره کردن هوش مصنوعی را یاد بگیرند؟
سال 2035 است و هوش مصنوعی در همه عرصه ها نفوذ پیدا کرده است، سیستم های هوش مصنوعی بیمارستان ها، خطوط هوایی را مدیریت و اداره، و در دادگاه ها از مباحث شدید مورد منازعه و گفتگو است. هم چنین در این دوران تولید و بهره وری به سطوح بی سابقه ای افزایش و تعداد انبوهی از کسب وکار که قبلاً امری غیرقابل تصور بود، با سرعتی بی سابقه افزایش یافته و پیشرفت های عظیمی در حوزه رفاه ایجاد شده است. تولیدات نوین، داروها و نوآوری ها هر روز به بازار میآیند، زیرا علم و فناوری هر روز در حال افزایش است. بااینحال، جهان هم غیرقابل پیش بینی تر و هم شکننده تر خواهد شد زیرا تروریست ها که همچنان در حال گسترش اند از طریق سلاح های سایبری هوشمند روش های جدیدی را برای تهدید جوامع پیدا میکنند، همچنین سرعت پیشرفت فناوری نیز باعث میشود که کارگران یقه سفید به طور دسته جمعی شغل خود را از دست بدهند.
شاید همین یک سال پیش، چنین سناریویی کاملاً تخیلی بود اما امروز، تقریباً امری اجتناب ناپذیر به نظر میرسد. سیستم های هوش مصنوعی در حال حاضر میتوانند واضح تر و متقاعدکننده تر از بسیاری از انسان ها بنویسند و تصاویر، هنرها و حتی رمزهای کامپیوتری را بر اساس درخواست های زبان ساده تولید کنند. میتوان گفت مولدهای هوش مصنوعی فقط نوک کوه یخ است که ورود آن نشانگر لحظه ای بیگ بنگ و آغاز یک انقلاب تکنولوژیکی در جهان در حال تغییر است که سیاست، اقتصاد و جوامع را بازسازی و دگرگون خواهد کرد.
هوش مصنوعی همانند امواج فناوری گذشته، باعث ایجاد فرصت های فوقالعاده همراه با تغییرات و دگرگونیهای عمیق و خطرات عظیم میگردد اما بر خلاف امواج قبلی، باعث تغییرات عمیقی در ساختار و توازن قدرت جهانی نیز خواهد شد؛ زیرا جایگاه دولت – ملت ها به عنوان بازیگران اصلی در عرصه ژئوپلیتیک جهان را چه آنها بخواهند و چه نخواهند به شدت تهدید میکند. مبتکران هوش مصنوعی خود بازیگرانی ژئوپلیتیکی هستند و تسلط آنها بر هوش مصنوعی بیشازپیش نظم نوظهور تکنولوژی محورtechnopolar را تحتتأثیر قرار میدهد - نظمی که در آن شرکت های فناوری از نوعی قدرت در حوزه خود بهره میگیرند که زمانی صرفاً برای دولت-ملتها محفوظ بود. در دهه گذشته، شرکت های بزرگ فناوری عملاً به بازیگران مستقل و قدرتمندی در حوزه های دیجیتالی که خود خلق کرده تبدیل شدهاند. بااینحال هوش مصنوعی این روند را تسریع و آن را بسیار فراتر از حوزه دیجیتال بسط و گسترش میدهد. پیچیدگی های ناشی از فناوری و سرعت پیشرفت آن، وضع قوانین متناسب با آن را برای دولت ها تقریباً غیرممکن میکند. اگر دولت ها این ضعف را هر چه سریع تر جبران نکنند، این امکان وجود دارد که هرگز نتوانند از عهده این مهم برآیند.
خوشبختانه سیاستگذاران در سراسر جهان در مقابل چالشهای ناشی از هوش مصنوعی بیدار شده و با چالشها و نحوه اداره آن دست به اقداماتی زدهاند. در ماه مه 2023، سازمان .بین دولتی G-7 فرایند هوش مصنوعی هیروشیما « Hiroshima AI Proces » را راهاندازی کرد، این گردهمایی به هماهنگی برای ادارهکردن هوش مصنوعی اختصاص داشت. در ماه ژوئن، پارلمان اروپا پیش نویس قانون هوش مصنوعی اتحادیه اروپا را تصویب که این اقدام اولین تلاش جامع اتحادیه اروپا برای ایجاد امنیت در مقابل صنعت هوش مصنوعی بود. در ماه ژوئیه نیز، آنتونیو گوترش، دبیرکل سازمان ملل متحد، خواستار ایجاد یک سازوکار نظارتی در سطح جهانی برای این صنعت بود. در همین حال، در ایالات متحده، سیاستمداران هر دو حزب اصلی خواستار اقدامات نظارتی در این راستا هستند، اما بسیاری در این زمینه) ایجاد سازوکاری در زمینه هوش مصنوعی) با تد کروز، سناتور جمهوری خواه تگزاس موافقند، که در ژوئن همچون بسیاری دیگر اشخاص اظهار داشت که کنگره «نمیداند دارد چه میکند».
متأسفانه، بسیاری از مباحث در مورد نحوه اداره هوش مصنوعی همچنان در یکچرخه خطرناک گیر افتاده است: که آیا باید از هوش مصنوعی برای گسترش اقتدار ملی بهره گرفت یا به دلیل خطرات آن باید جلوگیری و آن را محدود کرد؟ حتی کسانی که به صورت دقیق این مشکل را تشخیص دادهاند درصدد اند معضل ایجاد شده را با استفاده از هوش مصنوعی در چارچوبهای موجود یا سابقاً موجود حل کنند. این درحالی است که هوش مصنوعی باعث تغییر مفاهیم سنتی قدرت ژئوپلیتیک گردیده است و نمیتوان مانند فناوری های گذشته آن را مدیریت و اداره کرد.
عدم طراحی چارچوب مدیریتی نوین متناسب با این فناوری منحصربه فرد از جمله چالش هایی است که در این زمینه مدیریت جهانی با آن مواجه است. اگر قرار است مدیریت جهانی هوش مصنوعی میسر گردد باید نظام بین المللی از مفاهیم سنتی مدیریتی گذشته فاصله گرفته و پذیرای شرکت های فناوری شود. اگر چه این بازیگران ممکن است مشروعیت خود را از یک قرارداد اجتماعی، دموکراسی یا ارائه کالاهای عام المنفعه به دست نیاورند، با این حال، بدون همکاری و مشارکت آنها مدیریت هوش مصنوعی مؤثر نخواهد بود. این امر نمونهای از چگونگی نیاز جامعه بین المللی به بازنگری در مفروضات اساسی نظم ژئوپلیتیکی و تنها نیز به این مورد محدود نمیشود.
چالش بیسابقه و مبرم هوش مصنوعی نیازمند یک راهحل اساسی است. قبل از اینکه سیاستگذاران ساختار نظارتی مناسب را تدوین کنند باید بتوانند در مورد اصول اساسی نحوه اداره آن به توافق برسند. برای شروع، هر چارچوب مدیریتی باید هشیارانه، جامع، شفاف و هدف مند عمل کرد. سیاستگذاران باتکیه بر این اصول باید همزمان حداقل سه نظام همپوشان ایجاد کنند: نخست، حقیقتیابی و مشاوره به دولتها در مورد خطرات ناشی از هوش مصنوعی، دوم، جلوگیری از شکل گیری یک مسابقه تسلیحاتی همهجانبه میان دولتها، و سرانجام مدیریت و ادارهکردن نیروهای مخرب ناشی از تکنولوژی متفاوت تر از آنچه که تاکنون جهان به خود دیده است. چه بخواهیم و چه نخواهیم، سال 2035 در راه است. این که آیا آینده با پیشرفت های مثبت ناشی از هوش مصنوعی تعریف میگردد یا با اختلالات منفی ناشی از آن، به این امر بستگی دارد که سیاستگذاران در حال حاضر دست به چه اقداماتی می زنند.
سریعتر، تکاملیتر، قویتر
هوش مصنوعی متفاوت از سایر فناوری هاست ازاین رو تأثیر آن بر قدرت نیز متفاوت است. هوش مصنوعی صرفاً باعث چالش در زمینه سیاست نمی گردد، بلکه ماهیت فوق تکاملی آن حل چالشها را سخت تر و دشوارتر میکند که این امر خود ناشی از ماهیت پارادوکسی قدرت هوش مصنوعی است.
سرعت پیشرفت هوش مصنوعی خیره کننده است. در این زمینه میتوان قانون مور (Moore’s Law) را تصور کرد که دوبرابر شدن قدرت محاسباتی را هر دو سال یکبار با موفقیت پیش بینی کرده است. موج جدید هوش مصنوعی باعث میشود که این میزان پیشرفت خیره کننده به نظر برسد. هنگامی که OpenAI (آزمایشگاه تحقیقاتی هوش مصنوعی آمریکایی) اولین مدل بزرگ زبانی خود را به نام GPT-1 در سال 2018 راه اندازی کرد، دارای 117 میلیون پارامتر بود که نشان از اندازه گیری مقیاس و پیچیدگی این سیستم بود. پنج سال بعد، تصور میشد که نسل چهارم مدل این شرکت، یعنی GPT-4، بیش از یک تریلیون پارامتر داشته باشد. میزان محاسباتی که برای آموزش قویترین مدلهای هوش مصنوعی استفاده میگردد، در ده سال گذشته هر سال ده برابر افزایش یافته است. به عبارت دیگر، پیشرفتهترین مدلهای هوش مصنوعی امروزی – که از پیشرفته ترین مدل ها نیز شناخته میشوند، پنج میلیارد برابر قدرت محاسباتی مدل های پیشرفته یک دهه پیش را دارا هستند. پردازشی که زمانی هفته ها طول میکشید اکنون در چند ثانیه انجام میشود. مدل هایی که میتوانند ده ها تریلیون پارامتر را مدیریت کنند در چند سال آینده عرضه میشوند. مدل های «مقیاس مغز – brain scale» با بیش از 100 تریلیون پارامتر - تقریباً تعداد سیناپس ها (محل تماس دو عصب) در مغز انسان - ظرف پنج سال قابل اجرا خواهند بود.
با هر پیشرفت جدیدی، قابلیتهای غیرمنتظره ای نیز ظاهر میشوند. برخی پیش بینی می کردند آموزش بر روی متون خام، مدل های بزرگ زبانی را قادر میسازد تا جملات منسجم، بدیع و حتی خلاقانه تولید کند. عدهای تصور میکردند که مدلهای زبانی بتوانند موسیقی تولید یا مشکلات علمی را حل کنند. به زودی، توسعه دهندگان هوش مصنوعی احتمالاً موفق خواهند شد سیستم هایی با قابلیتهای خود - ارتقایی (self-improving) تولید کنند که نقطه عطفی در مسیر این فناوری، و همه را شگفتزده خواهد کرد.
مدلهای هوش مصنوعی قادرند با کمترین هزینه بیشترین بازدهی را تولید کنند. قابلیتهای دیروز، امروزه با سیستمهای کوچک تر، ارزان تر و دردسترس تر اجرا میشوند. تنها سه سال پس از انتشار 3 OpenAI (Generative Pre-trained Transformer 3)، تیمهای "مرجع در دسترس" ( Open Sourceکد مرجعی است که به صورت رایگان برای تغییرات احتمالی و توزیع مجدد در دسترس است) مدل هایی با همان سطح کارایی را ایجاد کردند که شصت برابر کوچکتر است - یعنی 60 برابر ارزانتر برای اجرا در تولید، کاملاً رایگان، و در اینترنت برای همه در دسترس است -. مدلهای بزرگ زبان آینده احتمالاً این مسیر کارآمدی را دنبال خواهند کرد و تنها دو یا سه سال پس از صرف صدها میلیون دلار از سوی آزمایشگاه های پیشرو هوش مصنوعی برای توسعه آنها، به صورت مرجع در دسترس خواهند بود.
همانند هر نرمافزار یا کد دیگری، الگوریتم های هوش مصنوعی نسبت به اموال منقول بسیار آسانتر و ارزان تر تکثیر و به اشتراک (سرقت) گذاشته میشوند. بهعنوانمثال، مدل قدرتمند متا، Llama-1، چند روز پس از عرضه در ماه مارس به اینترنت درز کرد. اگرچه قویترین مدلها هنوز برای کارکردن به سختافزارهای پیچیده نیاز دارند اما نسخههای متوسط میتوانند روی رایانه هایی اجرا شوند که میتوان آنها را با قیمت چند دلار در ساعت اجاره کرد. بهزودی نیز چنین مدله ایی روی گوشیهای هوشمند اجرا خواهند شد. تاکنون هیچ فناوری با این قدرت و سرعت در دسترس نبوده است.
همچنین هوش مصنوعی با فناوریهای قدیمیتر از این جهت متفاوت است که تقریباً میتوان همه آنها را با عنوان «کاربرد دوگانه» نظامی و غیرنظامی توصیف کرد. بسیاری از سیستم های هوش مصنوعی ذاتاً دارای کاربرد فراگیر هستند و در واقع، فراگیر بودن هدف اصلی بسیاری از شرکتهای هوش مصنوعی است. آنها درصددند تا برنامههای کاربردیشان به بیشترین تعداد ممکن از مردم کمک کند. اما همان سیستمهایی که ماشینها را هدایت میتوانند تانکها را نیز هدایت کنند. همچنین یک برنامه کاربردی هوش مصنوعی که برای تشخیص بیماریها ساخته شده است، ممکن است بتواند برنامه جدیدی ایجاد و به سلاح تبدیل کند. مرزهای بین کاربردهای امن و غیرنظامی هوش مصنوعی و کاربردهای ناامن و مخرب نظامی آن امری ذاتاً مبهم و پیچیده است این امر تا حدودی توضیح میدهد که چرا ایالات متحده صادرات پیشرفته ترین نیمه هادی ها را به چین محدود کرده است.
همه اقدامات هوش مصنوعی در گستره جهان انجام میشود، مدل های هوش مصنوعی پس از انتشار میتوانند در همه جا رسوخ و نفوذ پیدا کنند، بنابراین صرفاً یک مدل مخرب هوش مصنوعی برای ویران کردن مقیاس عظیم لازم است. به همین دلیل، تنظیم و مدیریت هوش مصنوعی نمیتواند به صورت مجزا انجام شود. ازاین رو اگر در برخی کشورها هوش مصنوعی مهار نشود، تنظیم و مدیریت آن در دیگر کشورها کاربرد چندانی ندارد و ازآنجایی که هوش مصنوعی میتواند به راحتی تکثیر گردد، مدیریت و کنترل آن هیچ حد و مرزی نمی شناسد.
آسیب و صدماتی که هوش مصنوعی ممکن است وارد کند حتی با افزایش انگیزه های ساخت آن (و مزایای انجام آن) هیچ سنخیت و محدودیتی ندارد. هوش مصنوعی میتواند برای تولید و گسترش اطلاعات نادرست و مخرب، ازبین بردن اعتماد اجتماعی و دموکراسی از قبیل کنترل کردن، کلاهبرداری و تحت سلطه در آوردن شهروندان، تضعیف آزادی فردی و اجتماعی، ایجاد سلاحهای دیجیتال یا فیزیکی قدرتمند که جان انسانها را تهدید میکند به کار برده شود. همچنین هوش مصنوعی میتواند میلیونها شغل را از بین برده، نابرابری های موجود را تشدید، مشاغل جدید ایجاد، الگوهای تبعیض آمیز را تثبیت و با تقویت حلقه های بازخورد اطلاعات نادرست و مخرب، فرایند تصمیم گیری را تحریف یا باعث تنش ناخواسته و غیرقابل کنترل نظامی منجر به جنگ گردد.
در فرایند هوش مصنوعی چارچوب زمانی مشخصی برای زمان ایجاد و شکل گیری بزرگترین خطرات وجود ندارد. همان گونه که جنگ بدون کنترل در میان مدت محتمل به نظر می رسد اطلاعات غلط آنلاین یک تهدید کوتاه مدت آشکار است. در آینده دورتر، خطر اینکه هوش مصنوعی در هر مورد و زمینه معین از عملکرد انسان فراتر رفته و خطر اینکه خارج از کنترل انسان به طور اتوماتیک هدایت و خود را بهبود بخشند، وجود دارد. از این رو همه این خطرات باید از همان ابتدا در معماری اداره و کنترل هوش مصنوعی مورد توجه قرار گیرند.
هوش مصنوعی اولین فناوری نیست که از این ویژگیهای قوی برخوردار است، اما اولین فناوری است که ترکیبی از همه آنها را داراست. سیستمهای هوش مصنوعی مانند اتومبیلها یا هواپیماها نیستند که بر روی سختافزار با پیشرفتهای تدریجی ساخته و پرهزینه ترین خرابیهای آنها بهصورت تصادفات رخ دهد یا آنها مانند سلاحهای شیمیایی یا هستهای نیستند که توسعه و نگهداری آنها و حمل و یا استقرار مخفیانه آنها دشوار و پر هزینه باشد. همان گونه که مزایای عظیم آنها امری بدیهی است، از دیگر ویژگی های سیستم های هوش مصنوعی این است که بهتر، ارزان تر و در همه جا قابل دسترسی خواهند بود. آنها حتی قادرند به صورت خودکار به اهداف مشخص با حداقل نظارت انسانی دست یافته و قادر به روز کردن خود باشند. هر یک از این ویژگی ها مدل های هوش مصنوعی امکان اداره و کنترل کردن آنها به شیوه سنتی را به چالش میکشد. همه این ویژگیها دست به دست هم داده و مدلهای سنتی را به طرز نا امید کننده ای ناکافی و ناکارآمد جلوه داده است.
آنچنان قدرتمند است که جایی برای هیچ شک و تردیدی باقی نمی گذارد:
هوش مصنوعی با تغییر ساختار و توازن قدرت جهانی، زمینه سیاسی کنترل و ادارهکردن خود را امری پیچیده و دشوار میکند. هوش مصنوعی فقط توسعه نرم افزاری نیست؛ بلکه یک ابزار کاملاً نوین برای برنامهریزی و حتی پیشبینی قدرت است. در مواردی، میتواند مقامات را از قدرت سرنگون و در مواردی قدرت آنها را تثبیت و تقویت کند. علاوه بر این، پیشرفت و توسعه آن با انگیزه های وسوسه برانگیزی همراه است و هر ملت، شرکت و فردی گونه خاصی از آن را خواهان است.
در میان دولت ها، هوش مصنوعی برای کسانی که از آن برای نظارت، فریب و حتی کنترل جمعیت از قبیل جمع آوری و استفاده تجاری از داده های شخصی در دموکراسی ها و تشدید کردن ابزارهای سرکوبی که دولت های مستبد برای تحت سلطه در آوردن جوامع خود استفاده میکنند، قدرت و کارایی دارد. در میان کشورها نیز هوش مصنوعی کانون رقابت شدید ژئوپلیتیکی خواهد است. برتری هوش مصنوعی چه به دلیل قابلیتهای سرکوبکننده، پتانسیلهای اقتصادی یا برتری نظامی آن هدف استراتژیک هر کشوری در رقابت با دیگر کشورها خواهد بود. دولتها استراتژیهای کمتر قابل تصور پول را به تلاش گران بومی هوش مصنوعی پمپاژ یا سعی میکنند ابررایانه ها و الگوریتم ها را تولید و کنترل کنند. بهعنوانمثال فرانسه با حمایت مستقیم از استارتآپهای هوش مصنوعی، بریتانیا با سرمایه گذاری در سیستم آموزش عالی خود و سرمایهگذاری پر ریسک در اکوسیستم؛ و اتحادیه اروپا، با شکل دادن به گفتگوی جهانی در مورد مقررات و هنجارها، باعث تقویت استراتژی های مزیت های رقابتی خاصی میشوند.
اکثریت قریب به اتفاق کشورها فاقد توانایی مالی و دانش فنی لازم برای رقابت و حفظ برتری خود در هوش مصنوعی در رقابت با سایر رقبایند. بنابراین: دسترسی این کشورها به پیشرفتهترین مدل هوش مصنوعی به روابط آنها با شرکتها و دولتهای ثروتمند و قدرتمند بستگی دارد. این وابستگی تهدیدی شدید برای عدم تعادل قدرت ژئوپلیتیک فعلی جهان است. در چنین وضعیتی قدرتمند ترین دولتها برای کنترل ارزشمندترین منابع جهان رقابت خواهند کرد، درحالی که همچنان، کشورهای جنوب جهان عقب خواهند ماند. اما این بدان معنا نیست که صرفاً ثروتمندترینها از انقلاب هوش مصنوعی مانند اینترنت و گوشیهای هوشمند سود میبرند. بلکه هوش مصنوعی بدون رعایت مرزها، امکان بهرهوری از دستاوردهای آن بهصورت آزادانه تکثیر میشود؛ بنابراین هوش مصنوعی مانند انرژی و فناوری سبز، برای بسیاری از کشورهایی که کنترلی بر آن ندارند از جمله کشورهایی که در تولید دادههای هوش مصنوعی مانند نیمه هادیها مشارکت دارند، سودمند خواهد بود.
با این حال، از سوی دیگر نیز امروزه رقابت برای برتری در هوش مصنوعی شدید خواهد بود. پس از پایان جنگ سرد، هر چند کشورهای قدرتمند به دلیل ترس طرف مقابل و توقف یک مسابقه تسلیحاتی بی ثبات کننده بالقوه، با یکدیگر امکان همکاری داشتند، اما محیط پرتنش ژئوپلیتیک امروزی این همکاری را بسیار سخت تر کرده است. هر چند هوش مصنوعی تنها ابزار یا سلاحی نیست که بتواند پرستیژ، قدرت یا ثروت را برای کشورها به ارمغان آورد، اما این پتانسیل را دارد که برتری نظامی و اقتصادی قابل توجهی را نسبت به رقبا ایجاد کند. در دوران معاصر دو بازیکنی که بیشترین اهمیت ازاین حیث دارند – چین و ایالات متحدهاند - هر دو توسعه و پیشرفت هوش مصنوعی را یک بازی با مجموع صفر می دانند که به برنده آن یک برتری استراتژیک تعیینکننده در دهه های آینده خواهد داد. (بازی حاصلجمع صفر - - نمایشی ریاضی در تئوری بازیها و تئوری اقتصادی وضعیتی است که دو طرف را در برمیگیرد که نتیجه آن برای یک طرف سود و برای طرف دیگر زیان معادل دارد. بهعبارت دیگر، سود بازیکن یک معادل ضرر بازیکن دو است، در نتیجه بهبود خالص در سود بازی صفر است. در این بازی اگر مجموع سود شرکت کنندگان جمع شود و مجموع ضررها از آن کم شود، مجموع آنها صفر میشود.)
از دیدگاه واشنگتن و پکن، خطر اینکه طرف مقابل در هوش مصنوعی برتری پیدا کند، بیشتر از هر خطر دیگری است که فناوری ممکن است برای جامعه یا اقتدار سیاسی داخلی آنها ایجاد کند. به همین دلیل، دولتهای ایالات متحده و چین منابع عظیمی برای توسعه قابلیتهای هوش مصنوعی و سرمایهگذاری در این زمینه اختصاص میدهند و درعینحال تلاش میکنند یکدیگر را از دادههای موردنیاز برای پیشرفتهای دیگری محروم سازند. (تا کنون، ایالات متحده در انجام دومی بسیار از چین موفقتر بوده است، بهویژه با کنترل صادرات خود بر روی نیمههادیهای پیشرفته). این بازی حاصل جمع صفر - و عدم اعتماد هر دو بازیگر به هم - به این معنی است که پکن و واشنگتن به جای کاهش سرعت توسعه هوش مصنوعی بر سرعت بخشیدن به توسعه آن متمرکز شدهاند. از نظر آنها، "توقف یا مکث" در این زمینه به دلیل خطرات ناشی از آن همان گونه که برخی از دستاندرکاران صنعت هوش مصنوعی خواستار آن شدهاند، بهمثابه خلع سلاح احمقانه یک جانبه است.
از این دورنما فرض میشود که دولتها میتوانند حداقل اندکی کنترل بر هوش مصنوعی داشته باشند. این فرض ممکن است در مورد چین که شرکتهای فناوری خود را در ساختار دولت ادغام کرده است صادق باشد. اما در غرب و جاهای دیگر، هوش مصنوعی نه تنها به احتمال زیاد قدرت دولت را تقویت نمیکند؛ بلکه آن را نیز تضعیف میکند. در خارج از دولت چین، تعدادی از شرکتهای بزرگ و متخصص هوش مصنوعی به دنبال آن هستند که همه جنبههای این موج فناوری جدید را کنترل کنند: از جمله این که مدلهای هوش مصنوعی چه کاری میتوانند انجام دهند، چه کسی میتواند به آنها دسترسی داشته باشد، چگونه میتوان از آنها استفاده کرد و در کجا می توان آنها را مستقر کرد. اما ازآنجایی که این شرکتها با هشیاری از قدرت محاسباتی و الگوریتمهای خود محافظت میکنند، تقریباً تنها آنها میدانند چه تکنولوژی تولید و چه کارهایی میتوانند انجام دهند. این چند شرکت ممکن است برتری خود را برای آینده قابلپیشبینی حفظ یا ممکن است تحتالشعاع تعداد زیادی از بازیگران کوچکتر قرار گیرند، زیرا موانع اندکی برای ورود، توسعه گسترده و هزینههای حاشیه ای نزدیک به صفر منجر به تکثیر کنترل نشده هوش مصنوعی میشود .درهرصورت، تحول هوش مصنوعی خارج از دولت اتفاق خواهد افتاد.
تا حدودی، برخی از چالشها در زمینه هوش مصنوعی به چالشهای فناوری های دیجیتال قبلی شباهت دارد. پایگاه های اینترنتی، رسانه های اجتماعی، و حتی دستگاه هایی مانند گوشی های هوشمند همگی تا حدی در چارچوب هایی که توسط سازندگان شان کنترل میشوند، کار میکنند. هنگامی که دولتها بر اساس ضرورت سیاسی اراده کردهاند، توانستند سیستمهای نظارتی مانند مقررات حفاظت از دادههای عمومی اتحادیه اروپا، قانون بازارهای دیجیتال و قانون خدمات دیجیتال را برای این فناوری ها ایجاد کنند. اما اجرای چنین مقرراتی در اتحادیه اروپا یک دهه یا بیشتر طول کشید و هنوز به صورت کامل در ایالات متحده تحقق نیافته است. هوش مصنوعی خیلی سریع متحول میشود تا جایی که سیاستگذاران قادر نیستند متناسب با آن واکنش نشان دهند. علاوه بر این، رسانه های اجتماعی و دیگر فناوریهای دیجیتال قدیمیتر به تولید خود کمکی نمیکنند و انگیزههای تجاری و استراتژیک پیش برنده آنها هرگز یکسان نبوده: به عنوان مثال توییتر و تیک تاک قدرتمند هستند، اما کمتر کسی فکر میکند که این دو بتوانند اقتصاد جهانی را متحول کنند.
همه اینها موارد بدین معنا است که حداقل برای چند سال آینده، صرف نظر از اینکه سیاستگذاران در بروکسل یا واشنگتن چه میکنند، مسیر هوش مصنوعی تا حد زیادی توسط تصمیمات تعداد انگشت شماری از شرکتهای خصوصی تعیین میشود. بهعبارت دیگر، فناوران، نه سیاستگذاران یا بوروکراتها، بر نیرویی اعمال قدرت خواهند کرد که میتواند هم قدرت ملت - دولتها و هم نحوه ارتباط آنها با یکدیگر را تغییر دهد. این امر باعث میشود که چالش مدیریت و کنترل هوش مصنوعی، به مثابه یک قانون نظارتی ظریفتر و با ریسکهای بیشتر در مقایسه با هر اقدامی که سیاستگذاران اتخاذ کرده اند و از هر چالشی که دولتها تا کنون با آن روبرو بوده اند، متفاوت باشد.
هدف تکاندهنده، سلاح نوظهور
دولتها در حال حاضر از قافله عقب مانده اند. اکثرا طرح های پیشنهادی برای مدیریت و کنترل هوش مصنوعی، آن را به عنوان یک مشکل متعارف در نظر میگیرند که با راه حلهای دولت محور قرن بیستم سازگار است - مثلاً توافقاتی بر سر قوانینی که توسط رهبران سیاسی که دور یک میز نشسته اند، حاصل میشود. اما باید گفت این رویکرد در مورد هوش مصنوعی کارساز نخواهد بود. تلاشهای نظارتی در زمینه هوش مصنوعی تا به امروز در مراحل ابتدایی خود بوده و هنوز کافی نیستند. قانون هوش مصنوعی اتحادیه اروپا بلند پروازانه ترین تلاش برای اداره هوش مصنوعی در هر قلمرویی است، اما این قانون از سال 2026 به طور کامل اعمال میشود، این در حالی است که تا آن زمان مدل های هوش مصنوعی فراتر از تصور پیشرفت خواهند کرد. بریتانیا یک رویکرد داوطلبانه و آزادتر را برای نظارت بر هوش مصنوعی پیشنهاد کرده است، اما این رویکرد فاقد قابلیت کارایی و مؤثربودن است. باید گفت هیچ یک از این ابتکارات برای مدیریت توسعه و استقرار مدیریت هوش مصنوعی در سطح جهانی تلاشی ندارد – امری که برای موفقیت در راستای نظارت و مدیریت هوش مصنوعی مبرم و ضروری است و درحالیکه تعهدات داوطلبانه برای رعایت دستورالعمل های ایمنی هوش مصنوعی، مانند آنچه در ماه ژوئیه توسط هفت توسعه دهنده پیشرو هوش مصنوعی، از جمله شرکت هوش مصنوعی (Inflection AI) انجام شد، مورد استقبال قرار میگیرد، اما هیچ کدام به لحاظ قانونی جایگزینی برای مقررات الزام آور در سطوح ملی و بین المللی نیست.
حامیان توافقات بین المللی برای مهار هوش مصنوعی تمایل دارند تا به مدلی مانند مدل کنترل تسلیحات هسته ای دست یابند. اما گسترش، سرقت و تکثیرکردن سیستم های هوش مصنوعی نه تنها از سلاح های هسته ای بسیار آسانتر است؛ بلکه همچنین آنها توسط شرکت های خصوصی و نه دولتها کنترل میشوند. ازآنجایی که نسل جدید مدلهای هوش مصنوعی سریع تر از همیشه انتشار مییابند، بنابراین مقایسه آن با مدل های هستهای قیاس معالفارق به نظر میرسد. ازاینحیث حتی اگر دولتها بتوانند با موفقیت دسترسی به منابع و مواد مورد نیاز برای ساخت پیشرفته ترین مدلها را کنترل کنند - همان طور که دولت بایدن با جلوگیری از دستیابی چین به تراشههای پیشرفته تلاش میکند – پس از تولید، نمیتوانند جلوی تکثیر و انتشار این مدلها را بگیرند.
برای اینکه مدیریت و نظارت جهانی بر هوش مصنوعی بتواند به درستی کار کند، باید با ماهیت خاص فناوری، چالش هایی که ایجاد، ساختار و توازن قدرتی که در آن عمل میکند، هماهنگی ایجاد شود. اما ازآنجاییکه تکامل، کاربردها، خطرات و مزیتهای هوش مصنوعی غیرقابل پیش بینی است، نمیتوان در ابتدا یا در هر مقطع زمانی چگونگی مدیریت هوش مصنوعی را به طور کامل مشخص کرد. مدیریت و اداره هوش مصنوعی باید بهاندازه فناوری ای که به دنبال مدیریت آن است خلاقانه و تکامل یابنده باشد و در گام نخست دارای برخی از ویژگیها باشد که هوش مصنوعی را به چنین نیروی قدرتمندی تبدیل کند. این به معنای آغازی نو، بازاندیشی و بازسازی یک چارچوب نظارتی نوین از پایه خواهد بود.
هدف اساسی و فراگیر هر ساختار نظارتی هوش مصنوعی در سطح جهان باید شناسایی و کاهش خطرات در راستای ثبات جهانی بدون ایجاد مانع در فرایند نوآوری هوش مصنوعی و فرصت های ناشی از آن باشد. بگذارید این رویکرد را «پیشگیری یا احتیاط گرایی تکنولوژیکی – technoprudentialism» بنامیم، این مورد بیشتر شبیه نقش پیشگیرانه کلان نهادهای مالی جهانی؛ مانند هیئت ثبات مالی (Financial Stability Board-FSB)، بانک تسویه حساب های بین المللی (Bank for International Settlements یا BIS) و صندوق بین المللی پول (International Monetary Fund (IMF)) است. هدف این نهادها شناسایی و کاهش خطرات ثبات مالی جهانی بدون به خطر انداختن رشد اقتصادی است. (پیشگیری یک اصل اخلاقی مبتنی بر اصول احتیاطی است که برای جلوگیری از تأثیرات منفی خاصی عمل میکند.)
رویکرد پیشگیرانه در عرصه هوش مصنوعی نیز باید به همین شکل عمل میکند. ایجاد مکانیسم های نهادی برای مورد توجه قراردادن جنبههای مختلف هوش مصنوعی که میتواند ثبات ژئوپلیتیکی را تهدید کند، امری ضروری است. این مکانیسم ها به نوبه خود توسط اصول مشترکی هدایت که هم بر اساس ویژگی های منحصربه فرد هوش مصنوعی طراحی شده و هم منعکس کننده تعادل فناوری جدید قدرتاند که شرکتهای فناوری را در موقعیت نیروی پیش برنده قرار داده است .این اصول به سیاستگذاران کمک میکند تا چارچوبهای نظارتی دقیق تری برای مدیریت هوش مصنوعی در حال تکامل و تبدیل شدن آن به یک نیروی فراگیرتر طراحی و ترسیم کنند.
اولین و شاید حیاتیترین اصل مدیریت هوش مصنوعی، پیشگیری است. همانطور که از این اصطلاح پیداست، فن آوری در هستهٔ خود با باور پیشگیرانه به این اصل که " قبل از هر چیز، آسیبی نرسانید " هدایت میشود. محدودکردن حداکثری هوش مصنوعی به معنای محدودکردن جنبه های مثبت تأثیرگذار آن در زندگی است، اما آزادسازی حداکثری آن به معنای آزادسازی تمام جنبه های منفی بالقوه فاجعه بار آن است. بهعبارتدیگر، دورنمای ریسک - مزیت برای هوش مصنوعی همخوانی ندارد. با توجه به عدم قطعیت در مورد مقیاس و برگشتناپذیری برخی از آسیبهای بالقوه هوش مصنوعی، مدیریت هوش مصنوعی باید به جای کاهشدادن آنها بعد از وقوع، بر رویکرد پیشگیری متمرکز باشد. این امر بهصورت ویژه ای مهم است؛ زیرا هوش مصنوعی می تواند دموکراسی را در برخی کشورها تضعیف و وضع مقررات را برای آنها دشوارتر کند. علاوه بر این، بار اثبات ایمن بودن یک سیستم هوش مصنوعی در حد معقول باید بر عهده تولیدکننده و یا مالک آن سیستم باشد. این امر نباید صرفاً به عهده دولتها باشد که به محض بروز مشکلات با آنها برخورد کنند.
مدیریت هوش مصنوعی نیز باید سریع باشد تا بتواند مسیر خود را به صورت تکاملی و با خود ارتقایی تطبیق و اصلاح کند. مؤسسات دولتی اغلب به حدی میرسند که قادر به انطباق با تغییرات نیستند. در ارتباط باهوش مصنوعی، سرعت پیشرفت فناوری ساختارهای مدیریتی موجود را برای بهروز کردن خود، خیلی سریع تحتفشار قرار خواهد داد. اما این بدان معنا نیست که مدیریت هوش مصنوعی باید خصلت سیلیکون ولی «سریع حرکت کنید و چیزها را بشکنید – move fast and break things» اتخاذ کند، بلکه باید ماهیت فناوری ای را که به دنبال آن است با دقت بیشتری انعکاس دهد.
علاوه بر محتاط و سریع بودن، مدیریت و ادارهکردن هوش مصنوعی باید فراگیر باشد و از همه بازیگران لازم برای تنظیم و مدیریت عملی آن دعوت به همکاری شود. این امر بدان معناست که مدیریت هوش مصنوعی نمیتواند منحصراً دولت محور باشد، زیرا دولتها هوش مصنوعی را نه درک و نه کنترل میکنند. هرچند شرکتهای فناوری خصوصی ممکن است فاقد استقلال و اقتدار به معنای سنتی باشند، اما در فضاهای دیجیتالی که خود ایجاد و به طور مؤثر آن را مدیریت میکنند، از قدرت و اختیار واقعی و حتی استقلال برخوردارند. این بازیگران غیردولتی نباید، نسبت به کشورهایی که در سطح بین المللی به نمایندگی از شهروندان خود به رسمیت شناخته شدهاند، از حقوق و امتیازات یکسانی برخوردار شوند. اما آنها باید طرفهای نشستهای بین المللی باشند و هر گونه توافق نامهای درباره هوش مصنوعی را امضا نمایند.
مدیریت فراگیر هوش مصنوعی امری ضروری است؛ زیرا هر ساختار نظارتی که عوامل واقعی قدرت هوش مصنوعی را نادیده گیرد، محکوم به شکست است. در موجهای پیشین قوانین و مقررات فناوری، اغلب به شرکتها آزادی عمل زیادی داده میشد که فراتر از آن عمل میکردند و باعث می گردید سیاستگذاران و تنظیم کننده های مقررات به شدت نسبت به افراط کاریهای آنها واکنش نشان دهند. اما این پویایی هم برای شرکتهای فناوری و هم برای مردم سودی در بر نداشت. دعوت از توسعه دهندگان هوش مصنوعی برای مشارکت در فرایند قانونگذاری از همان ابتدا به ایجاد فرهنگ مشارکتی تر مدیریت هوش مصنوعی کمک و خود ضرورت مهار چنین شرکت هایی را بعدازاین واقعیت با مقررات پرهزینه و خصمانه کاهش میدهد.
شرکت های فناوری لازم نیست در همه مراحل مدیریتی و تصمیم گیری دخیل باشند. بلکه بهتر است برخی از جنبههای مدیریتی هوش مصنوعی به دولتها واگذار شود، ناگفته نماند دولتها باید همواره حق وتوی نهایی خود را در تصمیم گیریهای سیاسی حفظ کنند. دولتها باید در و قوانین و مقررات اعمال شده در این راستا، مراقب دست اندازی شرکتهای فناوری باشند و اطمینان حاصل نمایند که شرکتهای فناوری از نفوذ در سیستمهای سیاسی برای پیشبرد منافع خود به قیمت منافع عمومی استفاده نمیکنند. در یک مدل مدیریتی فراگیر و چند جانبه باید اطمینان حاصل شود بازیگرانی که سرنوشت هوش مصنوعی را تعیین میکنند در فرایندهای قانونگذاری مشارکت و متعهد به رعایت آنها باشند. علاوه بر دولتها (به ویژه چین و ایالات متحده اما نه صرفاً این دو) و شرکتهای فناوری (به ویژه بازیگران بزرگ فناوری و نه صرفاً محدود به آنها)، دانشمندان، متخصصین علم اخلاق، اتحادیه های کارگری، نهادهای مدنی، و سایر صاحبنظران باید در این فرایند دخیل باشند. مشارکت در فرایندهای هوش مصنوعی در قالب یک گروه غیرانتفاعی شامل طیف وسیعی از شرکتهای بزرگ فناوری، مؤسسات تحقیقاتی، خیریه ها و نهادهای مدنی که استفاده مسئولانه از هوش مصنوعی را ترویج میکند، نمونه خوبی از گونه انجمنهای ترکیبی و فراگیر موردنیاز در این راستا است.
مدیریت و قوانین هوش مصنوعی باید تاحدامکان غیرقابل تفسیر باشد. برخلاف کاهش تغییرات آب وهوایی که موفقیت در آن با مجموع تمام تلاشهای فردی تعیین میشود، ایمنی هوش مصنوعی با کمترین مشارکت حاصل میشود. شکست در یک الگوریتم منفرد میتواند صدمات غیرقابل تصور ایجاد کند. ازآنجاییکه کیفیت مدیریت هوش مصنوعی در سطح جهان در حد بدترین مدیریت کشور، شرکت یا فناوری است، بنابراین باید جامع و بی نقص باشد و ورود آن بهاندازه کافی آسان باشد که امکان مشارکت را تشویق و خروج از آن بهاندازه کافی پرهزینه باشد تا از عدم رعایت مقررات جلوگیری کند. یک نقطه ضعف در این فرایند زمینه ساز رسوخ و نشت گسترده اطلاعات، بازیگران بد و یا ایجاد یک مسابقه نظارتی باز میگردد.
علاوه بر فراگیر بودن مدیریت هوش مصنوعی در کل جهان، مدیریت آن نیز باید کل زنجیره تأمین - از تولید گرفته تا سختافزار، نرمافزار، خدمات و ارائهدهندگان تا کاربران سرویسها را پوشش دهد. این به معنای مقررات پیشگیرانه و نظارت فنی بر روی هر مرحله از زنجیره ارزشی هوش مصنوعی از تولید تراشههای هوش مصنوعی گرفته تا جمعآوری دادهها، آموزش مدلسازی تا استفاده نهایی و در سراسر مجموعه فناوریهای مورداستفاده در یک برنامه خاص است. چنین مدیریتی تضمین میکند که هیچ نقطه خاکستری نظارتی برای سوءاستفاده کردن وجود نداشته باشد.
سرانجام، مدیریت و قوانین هوش مصنوعی باید هدفمند و نه اینکه به یک اندازه برای همه باشد. ازآنجایی که هوش مصنوعی یک فناوری همه منظوره است، بنابراین تهدیدات چند بعدی را با خود به همراه دارد. ازاین رو یک ابزار مدیریتی واحد برای رسیدگی به منابع مختلف خطرات هوش مصنوعی کافی نیست. در عمل، تعیین اینکه کدام ابزارها برای هدف قراردادن کدام ریسک ها متناسباند، و چگونه میتوان هر کدام را به بهترین نحو کنترل کرد مستلزم ایجاد یک طبقهبندی پویا و منطقی از تمام اثرات احتمالی هوش مصنوعی است - بهعنوانمثال، هوش مصنوعی در برخی از برنامه ها تکاملی و تدریجی خواهد بود که این امر مشکلات فعلی مانند نقض حریم خصوصی را تشدید میکند و در برخی دیگر بنیادین است و آسیب های کاملاً تازهای ایجاد میکند. گاهی اوقات، بهترین زمان برای مداخله، زمانی است که دادهها جمع آوری میشوند. در مواقع دیگر، زمانی است که تراشه های پیشرفته به فروش میرسند و اطمینان حاصل میشود که در اختیار ناصالحان قرار نمیگیرند. مقابله با اطلاعات اشتباه و اطلاعات عمداً غلط به ابزارهای متفاوتی در مقایسه مقابله با خطرات هوش جامع مصنوعی (شکل پیشرفته از هوش مصنوعی است که میتواند وظایف انسانی را انجام دهد و میتواند مهارتهای حسی و حرکتی، عملکردی، یادگیری و هوش انسان را تقلید کند - Artificial General Intelligence- AGI) و سایر فناوریهای نامطمئن با پیامدهای بالقوه وجودی نیاز دارد. یک اصلاح جزئی نظارتی در برخی موارد کارساز خواهد بود. این در حالی است که در برخی موارد دیگر، دولتها باید پابندی و رعایت مقررات را به امری کاملاً الزامآور تبدیل کنند.
رعایت و عملی کردن همه موارد فوق مستلزم درک عمیق از دانش و فناوری های موردنظر است. وضعکنندگان مقررات و سایر مسئولان در این راستا به نظارت بر مدلهای کلیدی هوش مصنوعی و دسترسی به آنها نیاز دارند. در واقع، آنها به یک سیستم بازرسی نیاز خواهند داشت که نهتنها توانایی را از راه دور ردیابی کند، بلکه مستقیماً به فناوریهای اصلی دسترسی داشته باشند، این امر به نوبه خود مستلزم داشتن دانش متناسب با آن است. تنها چنین اقداماتی میتواند تضمین کند که هم خطرات آشکار و هم پیامدهای بالقوه مخرب درجه دوم و سوم کاربردهای نوین هوش مصنوعی به صورت فعالانه ارزیابی میشوند. به عبارت دیگر، مدیریت هدف مند باید مدیریت آگاهانه باشد.
الزامات پیشگیرانه فنی
بر اساس این اصل باید حداقل سه سیستم مدیریت هوش مصنوعی با وظایف، اهرمها و شرکت کنندگان متفاوت وجود داشته باشند .ضمن آنکه همه باید از نظر طراحی بدیع باشند، اما هر کدام میتوانند از ترتیبات و طرحهای موجودی که در راستای چالشهای جهانی، از قبیل تغییرات آب وهوایی، گسترش تسلیحات و ثبات مالی طراحی شدهاند، الهام گیرند.
سیستم اول در این راستا بر حقیقتیابی متمرکز است و در قالب یک نهاد علمی جهانی بهصورت عینی به دولتها و نهادهای بینالمللی درباره مسائل اساسی مانند اینکه هوش مصنوعی چیست و چه نوع چالشهایی دررابطهبا سیاست ایجاد میکند، مشاوره میدهد. اگر دولتها و نهادهای بین المللی نتوانند در مورد تعریف هوش مصنوعی یا دامنه احتمالی آسیبهای ناشی از آن توافق کنند، سیاستگذاری مؤثر نیز غیرممکن خواهد بود. در اینجا الهام و الگوگرفتن از طرحها و برنامههای ایجاد شده در راستا تغییرات آبوهوایی آموزنده و کاربردی خواهد بود. برای تدوین پایه ای از دانش مشترک برای مذاکرات تغییرات آب وهوایی، سازمان ملل متحد برنامه بیندولتی تغییرات آبوهوایی (IPCC) را ایجاد و به آن وظایفی« از جمله ارائهدادن ارزیابی منظمی از مبنای علمی تغییرات آبوهوا، تأثیرات و خطرات آتی آن، ارائه راهکارهایی برای تعدیل و کاهش اثرات خطرات" به سیاستگذاران» داد. برای ارزیابی منظم از وضعیت هوش مصنوعی، ارزیابی بی طرفانه خطرات و اثرات بالقوه آن، پیشبینی سناریوها و درنظرگرفتن راه حلهای فنی برای حفاظت از منافع عمومی جهان، به یک نهاد مشابه مانند IPCC نیاز است. این نهاد دارای استقلال علمی و ژئوپلیتیکی جهانی خواهد بود و همانطور که IPCC گزارشهای مذاکرات آبوهوایی سازمان ملل را منعکس میکنند، گزارشهای این نهاد نیز میتواند به مذاکرات چندجانبه در مورد هوش مصنوعی کمک کند.
همچنین جهان به راهحلی برای مدیریت تنشها بین قدرتهای اصلی هوش مصنوعی و جلوگیری از انتشار و تکثیر سیستم های خطرناک هوش مصنوعی پیشرفته نیاز دارد. مهمترین رابطه بینالمللی در ارتباط با هوش مصنوعی رابطه بین ایالات متحده و چین است. همکاری بین دو رقیب در بهترین حالت امری دشوار است. اما در زمینه رقابت حاد ژئوپلیتیکی میان این دو بازیگر، یک مسابقه هوش مصنوعی کنترل نشده میتواند تمام امیدهای ایجاد یک اجماع بین المللی در مورد مدیریت هوش مصنوعی را از بین ببرد. یکی از زمینه هایی که واشنگتن و پکن ممکن است در این زمینه همکاری با یکدیگر را مفید تلقی کنند، کند کردن گسترش سیستمهای قدرتمندی است که میتوانند اقتدار دولت - ملتها را به خطر بیندازند. در این باره اگر تهدیدهای کنترل نشده و خود تکثیرشونده در سالهای آینده اختراع شوند، خود میتوانند انگیزه های قویی برای هماهنگی در مورد تضمین ایمنی و مهار ایجاد کنند.
در تمام این زمینهها، واشنگتن و پکن باید به دنبال ایجاد زمینههای مشترک و حتی راهکارهای پیشگیرانهای باشند که توسط دیگران پیشنهاد داده میشوند. در این زمینه، رویکردهای نظارتی و راستی آزمایی که اغلب در سیستمهای کنترل تسلیحات اعمال میشوند ممکن است برای مهمترین دادههای هوش مصنوعی، بهویژه دادههای مربوط به سختافزارهای محاسباتی، از جمله نیمه رسانه های پیشرفته و مراکز دادهها، اعمال و کارایی داشته باشند. همان گونه در طول جنگ سرد مدیریت نقاط افتراق کلیدی به مهار یک مسابقه تسلیحاتی خطرناک کمک کرد، نیز میتواند در حال حاضر به مهار یک مسابقه هوش مصنوعی حتی خطرناک تر کمک کنند.
اما ازآنجاییکه بیشتر حوزههای هوش مصنوعی در حال حاضر غیرمتمرکزند، نسبت به مسئله دو ابرقدرت خود به یک مسئله مشترک جهانی تبدیل شده است. ماهیت انتقالی توسعه هوش مصنوعی و ویژگیهای اصلی این فناوری، مانند انتشار مرجع در دسترس، این احتمال را افزایش میدهد که توسط مجرمان سایبری، بازیگران تحت حمایت دولتها و افراد تبدیل به سلاح شود. به همین دلیل است که جهان به سیستم مدیریت سومی ازاینحیث برای مدیریت هوش مصنوعی نیاز دارند که بتواند هنگام بروز اختلالات خطرناک واکنش نشان دهد. سیاستگذاران برای این هدف میتوانند از رویکردی که مقامات مالی برای حفظ ثبات مالی جهانی استفاده کردهاند، بهره گیرند. هیئتمدیره ثبات مالی، متشکل از بانکهای مرکزی، وزارتهای دارایی، و مقامات نظارتی و مدیریتی از سراسر جهان، برای جلوگیری از بیثباتی مالی جهانی با ارزیابی آسیبپذیریهای سیستمی و هماهنگی اقدامات لازم و انعکاس آنها بین مقامات ملی و بین المللی تلاش میکنند. بنابراین یک نهاد تکنوکراتیک مشابه برای مدیریت ریسک هوش مصنوعی - که میتوان آن را هیئت ثبات بیوتکنولوژی (Geotechnology Stability Board) نامید - میتواند برای حفظ ثبات ژئوپلیتیکی در زمانه تغییرات سریع مبتنی بر هوش مصنوعی فعالیت کند. این هیئت، با حمایت مقامات نظارتی بومی دولتها و نهادهای نظارتی استاندارد بینالمللی، تخصصها و منابع را برای پیشگیری یا پاسخگویی به بحرانهای مرتبط باهوش مصنوعی جمع آوری و خطر انتشار آن را کاهش میدهد و درعینحال، باتوجهبه اینکه بازیگران کلیدی فناوری چندملیتی نقش مهمی در حفظ ثبات ژئوپلیتیکی ایفا میکنند، مستقیماً با بخش خصوصی تعامل برقرار میکند، درست همانطور که بانکهای مهم به طور سیستماتیک برای حفظ ثبات مالی اقدام میکنند.
چنین نهادی، با قدرتی که ریشه در حمایت دولت دارد، میتواند بهخوبی از مشارکت بازیگران فناوری در سطح جهان در سهام باز یا پنهان پشت شرکتها جلوگیری کند. تشخیص اینکه برخی شرکتهای فناوری از نظر سیستمی مهم هستند به معنای به حاشیه بردن استارت آپها یا نوآوران نوظهور نیست بلکه برعکس، به معنای ایجاد یک رابطه واحد و مستقیم بین نهاد مدیریتی جهان با این غولهای فناوری است که اثربخشی اجرای مقررات و مدیریت بحران را افزایش میدهد-. و هر دو این موارد به نفع کل اکوسیستم هستند.
ساختاری که برای حفظ ثبات ژئو تکنولوژیکی طراحی شده است، میتواند خلأ خطرناک مسئولیت مدیریت هوش مصنوعی مرجع در دسترس را در چشم انداز نظارتی کنونی پر کند که در این راستا سطحی از بازبینی (نظارت) آنلاین ضروری خواهد بود. اگر شخصی یک مدل بسیار خطرناک را آپلود کند، این سازمان باید دارای اختیار و توانایی کافی باشد که آن را حذف کند یا مقامات بومی را برای انجام این کار هدایت نماید که خود زمینه دیگری برای همکاری بالقوه دوجانبه است. چین و ایالات متحده باید برای تعبیه محدودیتهای ایمنی در نرمافزارهای مرجع در دسترس با یکدیگر همکاری کنند. بهعنوان مثال، با محدودکردن میزانی که مدلها میتوانند به کاربران در مورد چگونگی توسعه سلاحهای شیمیایی یا بیولوژیکی یا ایجاد پاتوژنهای ) pathogen - یک باکتری، ویروس یا میکروارگانیسم دیگر که میتواند باعث بیماری شود (به صورت همهجانبه آموزش دهند. علاوه بر این، ممکن است فضایی برای پکن و واشنگتن برای همکاری در تلاشهای جهانی ضد اشاعه، از طریق استفاده از ابزارهای سایبری مداخلهجویانه وجود داشته باشد.
هر یک از این سیستم ها باید به صورت جهانی عمل و از مشارکت و همکاری همه بازیگران اصلی هوش مصنوعی بهره مند شود. سیستمها باید بهاندازه کافی تخصص داشته باشند تا بتوانند با سیستمهای هوش مصنوعی واقعی کنار بیایند و بهاندازه کافی پویا باشند تا دانش خود را در مورد هوش مصنوعی در حین تکامل به روز کنند. این مؤسسات با همکاری یکدیگر میتوانند گامی تعیین کننده به سمت مدیریت فنی پیشگیرانه در دنیای نوظهور هوش مصنوعی بردارند. اما آنها بههیچ وجه تنها نهادهایی نیستند که موردنیاز خواهند بود. بلکه مکانیسم های نظارتی دیگری مانند استانداردهای شفافیت «مشتری خود را بشناسید - know your customer»، الزامات مجوز، پروتکل های تست ایمنی، و فرایندهای ثبت و تأیید محصول، باید در چند سال آینده برای هوش مصنوعی اعمال شوند. کلید همه این ایدهها ایجاد نهادهای مدیریتی انعطافپذیر و چندوجهی خواهد بود که توسط سنت یا فقدان قدرت خلاقه محدود نشده باشند. در نهایت، فناوران توسط این موانع محدود نخواهند شد.
بهترینها را تبلیغ و ترویج کنید، از بدترینها جلوگیری کنید:
اجرا و عملی کردن هیچ یک از این راه حلها آسان نخواهد بود. علیرغم همه هیاهوها و صحبت هایی که از سوی رهبران جهان در موردنیاز به تنظیم مقرراتی در ارتباط باهوش مصنوعی به گوش میرسد، اما هنوز اراده سیاسی لازم برای انجام این کار وجود ندارد. در حال حاضر، صرفاً تعداد کمی از حوزههای قدرتمند حامی هوش مصنوعی هستند و همه انگیزهها به ادامه انفعالی آن اشاره دارند. در اینجا اگر یک سیستم مدیریتی هوش مصنوعی از نوع توصیف شده بهخوبی طراحی شود، میتواند برای همه طرفهای ذی نفع مناسب باشد، و اصول و ساختارهایی را که بهترینها را تبلیغ و ترویج میکنند و درعین حال از بدترینها جلوگیری میکنند، رعایت کند. هوش مصنوعی غیرقابلکنترل به مثابه جایگزین، نه تنها خطرات غیرقابل قبولی برای ثبات جهانی ایجاد میکند، بلکه برای تجارت مضر و با منافع ملی هر کشور هم مغایرت دارد.
یک ساختار مدیریتی قوی هوش مصنوعی هم خطرات اجتماعی ناشی از هوش مصنوعی را کاهش و هم تنشهای بین چین و ایالات متحده را با کاهش میزان تبدیل شدن هوش مصنوعی به عرصه و ابزار رقابت ژئوپلیتیکی کاهش میدهد. چنین ساختاری، به الگویی برای نحوه رسیدگی به سایر فناوریهای مخرب و نوظهور، بهمثابه موردی دامنهدارتر، دست می یابد. هوش مصنوعی ممکن است یک کاتالیزور منحصربهفرد برای تغییر باشد، اما بههیچ وجه آخرین فناوری مخربی نیست که بشریت با آن مواجه خواهد شد بلکه همچنین محاسبات کوانتومی، بیوتکنولوژی، نانوتکنولوژی و رباتیک نیز پتانسیل تغییر اساسی جهان را دارند. مدیریت موفقیتآمیز هوش مصنوعی به جهان کمک میکند تا این فناوریها را نیز با موفقیت اداره کند.
قرن بیست و یکم نیز خود چالشهای به اندازه چالشهای مضطرب کننده یا فرصتهای امیدوارکننده ارائه شده توسط هوش مصنوعی ایجاد خواهد کرد. در قرن گذشته، سیاستگذاران به ایجاد یک ساختار مدیریتی در سطح جهان اقدام کردند که امیدوار بودند جوابگوی دوره های مختلف باشد. اما اکنون، آنها باید یک ساختار مدیریتی جدید ایجاد کنند تا مهیب ترین، و بالقوه تعیین کننده ترین نیروی این دوران را مدیریت و مهار کند. سال 2035 نزدیک است، هیچ زمانی برای هدردادن وجود ندارد.
جهت ارجاع علمی: لن برمر و مصطفی سلیمان، «پارادوکس قدرت هوش مصنوعی» (فارن افرز. 2023)، مترجم: علی اسدی، تاریخ انتشار در سایت مرکز: 1402/6/26