ترجمان استراتژیک

هوش مصنوعی و دیپلماسی دیجیتال

نوع مطلب: ترجمه

Artificial Intelligence and Digital Diplomacy


 

نویسنده: لالا جافاروا

مترجم: سمیه رستمی خاصلوئی

اول آگوست 2023

انتخاب متن و نظارت: آنا یوسفیان

منبع: ئی – اینترنشنال ریلیشنز

LALA JAFAROVA, AUG 1 2023

E-INTERNATIONAL RELATIONS

https://www.e-ir.info/2023/08/01/artificial-intelligence-and-digital-diplomacy

 

 

همه گیری ویروس کرونا (COVID-19) انگیزه ای نیرومند به توسعه و پیشرفت علم، فرآیند های کلی دیجیتالی شدن و معرفی تعداد فزاینده ای از خدمات الکترونیکی داده است. در امر بهداشت و درمان، این فرآیندها در ایجاد برنامه های کاربردی ردیابی، پلتفرم های به اشتراک گذاری اطلاعات، پزشکی از راه دور و موارد دیگر پدید آمدند. با این حال، رونق در معرفی چنین فناوری‌هایی نیاز به توسعه سیاست‌ها و مکانیسم‌ های قانونی بخصوص برای تنظیم اجرای آن‌ها را نیز نشان داد، زیرا اگرچه آنها می‌توانند مزایایی داشته باشند، اما استفاده از آنها می‌تواند خطرات بالقوه ‌ای مانند حملات سایبری را نیز به همراه داشته باشد. فناوری های دیجیتال نیز به طور گسترده ای در سیاست مورد استفاده قرار گرفته اند. با توجه به قرنطینه جهانی طی سال های 2020 و 2021، بسیاری از جلسات وزرای امور خارجه و جلسات بین سران کشورها به صورت آنلاین برگزار شد. سازمان‌های بین‌ المللی مانند سازمان ملل متحد به فرمت‌ های رویدادهای ترکیبی متوسل شدند که به رؤسای جمهور اجازه می‌دهد به صورت آنلاین صحبت کنند.

امکانات اینترنت، اپلیکیشن ها و کاربرد فناوری های دیجیتال چیزهای جدیدی نیستند. اما ورود آنها به فضای سیاسی که همه چیز با پروتکل ‌های دیپلماتیک و محرمانه‌ خاصی آغشته است، نگرانی‌هایی را ایجاد می‌کند. شاید آشکارترین نگرانی استفاده از فناوری "دیپ فیک" برای دستکاری دیجیتالی ظاهر و چهره افراد دیگر باشد. با فناوری مدرن هوش مصنوعی، تقلید صدا نیز امکان پذیر است.

کانال ‌های دیپلماتیک ممکن است توسط سازمان‌ های اطلاعاتی سایر کشورها و گروه‌های مجرم احتمالی که می‌توانند به فناوری‌های خاصی مانند استراق سمع دسترسی پیدا کنند، مورد بررسی قرار گیرند. اغلب، داده‌ های «مخفی» (عکس‌ ها، فیلم‌ ها، فایل های صوتی) و همچنین «اخبار جعلی» که یک فرد عادی به هیچ وجه نمی‌تواند صحت آنها را تأیید کند، در مطبوعات ظاهر می‌شوند. چنین دستکاری هایی تهدید بسیار مهمی برای ثبات اجتماعی است و بر افکار عمومی تأثیر خواهد گذاشت. فناوری های مدرن را می توان در مبارزه سیاسی علیه نیروهای رقیب نیز به کار برد. بنابراین، با در نظر گرفتن واقعیت های جدید و شاید توسعه پروتکل های دیپلماتیک جدید "دیجیتال یا الکترونیکی"، روند سیاسی "رایج " نیاز به بازنگری دارد.

مطالعه کاربرد امکانات هوش مصنوعی در سیاست یک رشته نوظهور است. بنابراین، جستجوی عبارت "هوش مصنوعی در سیاست" در تاریخ 23 ژوئن 2023 توسط گوگل 61 لینک و بصورت "AI در سیاست" 77 لینک به نمایش گذاشته شد. پرس و جوهای مشابه موتور جستجوی گوگل در دوره ی مشابه به ترتیب 152000 و 95600 نتیجه را در بر داشت. منابع انتشار عموماً مجلات سیاسی نیستند. اغلب، این مجلات مقالاتی در مورد فناوری های جدید منتشر می کنند و به جنبه های اخلاقی استفاده از هوش مصنوعی می پردازند (ووسیناس و همکاران، 2022).

در مورد درک مدرن از این مفهوم، باید ابتدا بدانیم هوش مصنوعی چیست؟ کاپلان و هانلین (2019) آن را به عنوان "توانایی یک سیستم برای تفسیر صحیح داده های خارجی، یادگیری از چنین داده ها و استفاده از آن یادگیری ها برای دستیابی به اهداف و وظایف خاص از طریق سازگاری انعطاف پذیر" تعریف می کنند. فرض کنید این تعریف در رابطه با سیاست تفسیر شده است. در آن صورت، ما فکر می‌کنیم هوش مصنوعی را می‌توان به عنوان سیستمی توصیف کرد که به سیاستمداران اجازه می‌دهد اطلاعات دریافتی از منابع مختلف را پردازش کرده و آن را برای توسعه یک پایگاه داده واحد که در فرآیند تصمیم‌گیری استفاده می‌ شود، تعمیم دهند.

هوش مصنوعی می تواند برای اهداف سیاسی داخلی نیز استفاده شود. بنابراین، مطالعه ‌ای در پرتغال (ریس و ملائو، 2013) پیشنهاد کرد که معرفی خدمات الکترونیکی «نقش فعال دولت ‌ها در پاسخ به نیازهای شهروندانشان» را ایفا می‌کند و به توسعه «دموکراسی الکترونیکی» کمک می‌کند. این مقاله به افزایش شفافیت و اعتماد به نهادهای سیاسی به دلیل استفاده گسترده از آن اشاره می کند. به نظر ما، مقاله فاقد تحلیلی از اثرات متقابل احتمالی است که در آن هوش مصنوعی می تواند به سلاحی برای جعل و کاهش سطح دموکراسی تبدیل شود. سازوکارهای تعامل بین جمعیت و نهادهای سیاسی با دیجیتالی شدن کامل فرآیند چیست؟ این موضوع به ویژه در کشورهایی که اصول دموکراسی اغلب زیر پا گذاشته می شود، نیازمند ارزیابی دقیق است.

احتمال سوگیری هوش مصنوعی یک خطر بالقوه است و چالش جدیدی را برای جامعه جهانی از جمله سیاستمداران ایجاد می کند. در سال 2018، مطالعه‌ ای توسط شورای اروپا در خصوص خطرات احتمالی تبعیض ناشی از تصمیم‌ گیری الگوریتمی و سایر روش های استفاده از هوش مصنوعی منتشر شد (Zuiderveen Borgesiusа، 2018). امروزه با فناوری های پیشرفته، انتقال قدرت تصمیم گیری به الگوریتم ها می تواند منجر به تبعیض علیه گروه های آسیب پذیر مانند افراد دارای معلولیت شود. بنابراین، تصمیم گیری برنامه همیشه نباید بر اساس اصول اثربخشی و مقرون به صرفه بودن باشد. به عنوان مثال، مراقبت از گروه ‌های آسیب‌پذیر جمعیتی نوعی «بار و مسئولیت» برای بودجه کشور است.

با این حال، مطابق قانون و از نظر اخلاقی قابل توجیه است. امکان اتخاذ تصمیمات سیاسی توسط سران کشورها و دولت ها بر اساس پیشنهادات هوش مصنوعی نیز کاملاً بحث برانگیز است. از آنجایی که حتی منطقی ترین تصمیم از دیدگاه الگوریتم ممکن است عاری از زمینه های اخلاقی باشد، با شعارهای سیاسی رهبران مغایرت داشته باشد یا بر خلاف اهداف دولت یا مقررات قانون باشد. بنابراین، کنترل توسط انسان ها و تنظیم خط مشی در این مرحله از توسعه رشد علمی، امری الزامی است و ما معتقدیم که کنترل این امر حتی در آینده نیز مطرح خواهد بود.

از نقطه نظر استفاده خصوصی از هوش مصنوعی در سطح یک دولت بصورت فردی، امکانات نیز گسترده هستند. به عنوان مثال، موتورهای جستجوی آنلاین مانند گوگل اطلاعات قابل توجهی در مورد کاربران و اولویت های آنها دارند. بر این اساس، این اطلاعات می تواند برای مقاصد "بی ضرر" تر مورد استفاده قرار گیرد. به عنوان مثال می توان از آن برای تبلیغات هدفمند شرکت های سیاسی استفاده کرد. همچنین بر اساس رسیدگی به درخواست‌های مردم، مبرم ‌ترین مسائلی که نیاز به پاسخگویی دارند را می‌توان شناسایی کرد. با کمک هوش مصنوعی می توان ابزارهای ویژه ای برای جمع آوری بازخورد از توده ی مردم ایجاد کرد که ارتباط بین دولت و مردم - رای دهندگان بالقوه را بهبود می بخشد. تسریع و خودکار کردن ارائه خدمات به مردم، مانند صدور یک سند ضروری، یا گواهی اشتغال، نیز از جمله نتایج بالقوه "مفید" برنامه هوش مصنوعی است. لازم به ذکر است که فرصت های ذکر شده در حال حاضر به طور فعال در کشورهای با توسعه اقتصادی بالا به درجات مختلف استفاده می شود.

با این حال، استفاده از هوش مصنوعی می تواند برای انتشار اطلاعات نادرست و دستکاری افکار عمومی نیز مورد استفاده قرار گیرد. بنابراین، ابزارهای هوش مصنوعی در حال حاضر برای راه اندازی کمپین هایی برای انبوهی از اطلاعات نادرست و انتشار محتوای جعلی استفاده می شود. اخبار جعلی گاهی در جریان تبلیغات انتخاباتی مشاهده می شود.

امروزه ظهور فناوری های جدید چالش های جدیدی را به وجود آورده است. بنابراین، GDPR (مقررات عمومی حفاظت از داده ها)، که در اروپا 2018 به تصویب رسید، اطلاع رسانی در مورد جمع آوری داده ها را الزامی می کند. علاوه بر این، در سال 2021 یک پیشنهاد جدید برای "تنظیم هوش مصنوعی" در ابعاد گسترده در اتحادیه اروپا ارائه شد. در صورت تصویب، این سند به "اولین چارچوب نظارتی جامع هوش مصنوعی" تبدیل خواهد شد (مورس، 2023). تصویب چنین قانونی لزوم تنظیم مقررات بین المللی را در دستور کار قرار می دهد. شاید به زودی، کشورهای مختلف در سراسر جهان روند تدوین و تصویب قوانین مشابه را آغاز کنند. با این حال، تدوین و تصویب هر قانونی مستلزم مشارکت نهادهای سیاسی است که جهت‌گیری جدیدی از فعالیت و پژوهش در علوم سیاسی ایجاد می‌کند.

کاربرد جهانی قوانین هوش مصنوعی نیز یک موضوع سیاسی است. بنابراین، یک سند مشابه - کنوانسیون جرایم سایبری سازمان ملل متحد - در حال حاضر در حال بحث است. با این حال، چنین قوانینی، به ویژه در سطح جهانی، باید مبتنی بر حمایت از حقوق بشر باشد تا از مشروعیت بخشیدن به افزایش کنترل سیاسی بر جمعیت در اینترنت جلوگیری کند. علاوه بر این، در متن جهانی شدن، مکانیسم کنترل جرایم مرتبط با هوش مصنوعی و اجرای مجازات نیز نامشخص است.

استفاده از بسترهای دیجیتال برای فرآیندهای دیپلماتیک، مانند مذاکرات، شبکه سازی و تبادل اطلاعات، زمینه جدیدی را در ادبیات علمی ایجاد کرده است، دیپلماسی دیجیتال. «دیجیتالی شدن» دیپلماسی در سطوح مختلف اتفاق می افتد. بنابراین، وزارتخانه ها و سیاستمداران پروفایل های خود را در رسانه ها/شبکه ​​های اجتماعی ایجاد می کنند، جایی که نظرات خود را در مورد موضوعات خاص به اشتراک می گذارند. دیگر لازم نیست منتظر یک گزارش رسمی از سوی وزارت خارجه باشیم. دیپلمات ها اغلب موضع خود را به صورت آنلاین بیان می کنند، که می تواند یک رویکرد "نیمه رسمی" در نظر گرفته شود. در آخر، نظرات تبادل شده به راحتی می تواند از دسترس خارج شود، هک شود و اثری از خود بر جای نگذارد. شرایط مدرن چنین خطراتی را برای مذاکرات به همراه دارد.

بتازگی با راه اندازی چت جی پی تی، رسانه ها مملو از مقالاتی در مورد نقش آن در "آینده دیپلماسی" شده اند. دیپلمات ‌ها می‌توانند از هوش مصنوعی برای خودکار کردن برخی از کارهای خود، مانند تهیه بیانیه‌های مطبوعاتی استفاده کنند. امکان دیگر این است که اطلاعات آماده شده را می توان به طور همزمان در تمام پلتفرم های اطلاعاتی با یک کلیک پخش کرد که این فرآیند را ساده تر کرده و سرعت می بخشد. این امر بسیار مهم است زیرا امروزه ساکنان اطلاعات را از طریق اینترنت اغلب مستقیماً به تلفن های هوشمند خود دریافت می کنند. با این حال، اتوماسیون کامل، در این مورد، نیز بدون خطر نیست.

اگرچه می توان از هوش مصنوعی برای تولید ایده ها استفاده کرد، اما نگرانی هایی در مورد محرمانه بودن پردازش اطلاعات وجود دارد. در حال حاضر تهدیدی برای فاش شدن اطلاعات و داده های وارد شده به چت جی پی تی وجود دارد (دریکو، 2023؛ گورمن، 2023). این امر در مورد اسناد محرمانه و دیپلماتیک یا اطلاعات شخصی دیپلماتی که از پلت فرم استفاده می کند، چقدر امن است؟ علاوه بر این، زبان دیپلماسی در مورد عبارات و اصطلاحات استفاده شده از حساسیت بالایی برخوردار است. متن تولید شده توسط برنامه ممکن است از نظر دستور زبان ایده آل باشد اما از نظر دیپلماسی غیرقابل قبول باشد.

استفاده از هوش مصنوعی و دیجیتالی شدن عمومی در جامعه نیز بر دیپلماسی تأثیر می گذارد. با این وجود، آیا ما برای «سیاست ایجاد شده توسط هوش مصنوعی» آماده هستیم؟ هوش مصنوعی صفحه جدیدی در سیاست باز می کند و چالش هایی ایجاد می کند. دیپلماسی همیشه نیاز به انعطاف پذیری مشخصی از سوی دیپلمات ها دارد، اما باید با واقعیت های دیجیتالی سازگار شود. سیاستمداران و دیپلمات ها باید برای احتمال فاش شدن اطلاعات در اینترنت و همچنین بررسی مجدد اطلاعات دریافتی آماده باشند.

پتانسیل سوگیری در الگوریتم های هوش مصنوعی نیز مسئله مهمی است. علاوه بر این، از آنجایی که برنامه برای صدور یک پاسخ طراحی شده است، میزان صحت می تواند صفر باشد، چه درست باشد یا نه، و محتوای آن به الگوریتم های مشخص شده توسط سازنده ها بستگی دارد. جمع آوری اطلاعات به صورت خودکار در فرایندهای سیاسی تنها در برخی موارد موجه است. بنابراین مغز انسان نمی تواند حجم عظیمی از اطلاعات تولید شده روزانه را به صورت فیزیکی به خاطر بیاورد و پردازش کند. علاوه بر این، اگر یک افسر سیاسی اطلاعاتی را از منابع رسمی جمع آوری کند، این می تواند کار را آسان کند. با این حال، ارجاع به یک منبع تایید نشده ممکن است منجر به تحریف داده های اصلی شود و بر این اساس، بر تهیه گزارش تأثیر منفی بگذارد. با این حال، چنین ابزارهایی می توانند برای سیاستمداران در هنگام رسیدگی به پرسش های عمومی و شناسایی فوری ترین مسائل بسیار مفید باشند.

تنظیم هوش مصنوعی بصورت عملی دارای برخی ویژگی‌ها است. در این مرحله از توسعه ، هوش مصنوعی هنوز نمی تواند تصمیمات را به طور مستقل در عمل در دنیای واقعی پیاده کند. فقط می تواند وظایفی را که افراد به آن محول کرده اند را اجرا کند. ما می توانیم مزایای استفاده از آن را تجزیه و تحلیل کنیم، اما چت جی پی تی و مدل های مشابه فقط اطلاعات به دست آمده از منابعی مانند اینترنت را پردازش می کنند. با این حال، پتانسیل تنظیم سیاست جهانی توسط هوش مصنوعی یا برنامه‌ ریزی خاص آن می‌تواند ما را در معرض خطر «توتالیتاریسم دیجیتال» قرار دهد، زمانی که اعمال کنترل می تواند شروع به تداخل با حریم خصوصی و حقوق بشر کند. بنابراین، مقررات قانونی استفاده از هوش مصنوعی بسیار مهم است. علاوه بر این، الگوریتم های آن باید قبل از اجرا مورد ارزیابی اخلاقی و سیاسی قرار گیرند. بعلاوه، کشورهای مختلف علاقه مند به کسب اطلاعات جاسوسی در شرایط زندگی واقعی هستند. با توجه به پیشرفت علم، سرویس های جاسوسی فرصت های جدیدی برای مداخله دریافت خواهند کرد. با این حال، در عمل، تنظیم مقررات در این زمینه به ندرت امکان پذیر است. علاوه بر این، هوش مصنوعی به سرعت در حال توسعه است، و نحوه استفاده از آن در عمل زمانی که به «استقلال» برسد، مسئله‌ ای است که رسیدگی به آن بر دوش ماست.

درباره نویسنده:

لالا جافاروا دانشجوی دکترا در ANAS، دستیار اداری در انجمن اروپایی حقوق سلامت و نماینده شورای ملی اخلاق است.


 

Reference

Derico, Ben. 2023. “ChatGPT Bug Leaked Users’ Conversation Histories.” BBC News, March 22, 2023, sec.

Technology. https://www.bbc.com/news/technology-65047304.

Gurman, Mark. 2023. “Samsung Bans Generative AI Use by Staff after ChatGPT Data Leak.” Bloomberg.com, May

2, 2023. https://www.bloomberg.com/news/articles/2023-05-02/samsung-bans-chatgpt-and-other-generative-ai-useby-staff-after-leak#xj4y7vzkg.

Morse, Chandler. 2023. “Lessons from GDPR for Artificial Intelligence Regulation.” World Economic Forum. June 16,

2023. https://www.weforum.org/agenda/2023/06/gdpr-artificial-intelligence-regulation-europe-us/.

Kaplan, Andreas, and Michael Haenlein. “Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations,

illustrations, and implications of artificial intelligence.” Business horizons 62, no. 1 (2019): 15-25.

Reis, João Carlos Gonçalves dos, and Nuno Melão. “E-Democracy: Artificial Intelligence, Politics and State

Modernization.” (2023).

E-International Relations ISSN 2053-8626 Page 3/4

Artificial Intelligence and Digital Diplomacy

Written by Lala Jafarova

Vousinas, Georgios L., Ilektra Simitsi, Georgia Livieri, Georgia Chara Gkouva, and Iris Panagiota Efthymiou.

“Mapping the road of the ethical dilemmas behind Artificial Intelligence.” Journal of Politics and Ethics in New

Technologies and AI 1, no. 1 (2022): e31238-e31238.

Zuiderveen Borgesius, Frederik. “Discrimination, artificial intelligence, and algorithmic decision-making.” línea],

Council of Europe (2018).

About the author:

Lala Jafarova is a PhD student at ANAS, an administrative assistant at the European Association of Health Law,

and a National Ethics Council Representative

 

 

جهت ارجاع علمی: لالا جافاروا، « هوش مصنوعی و دیپلماسی دیجیتال»، مترجم: سمیه رستمی خاصلوئی، تاریخ انتشار روی سایت مرکز: 1402/6/29

 


نویسنده

آنا یوسفیان

خانم آنا یوسفیان دانشجوی دکتری روابط بین الملل و پژوهشگر مهمان پژوهشکده است، ایشان دانش آموخته دکتری رشته روابط بین الملل در دانشگاه آزاد واحد علوم و تحقیقات تهران می باشد. حوزه مطالعاتی خانم یوسفیان روندها فکری در خاورمیانه است.


1.دیدگاه های ارسال شده توسط شما، پس از تایید در وب سایت منتشر خواهد شد
2.پیام هایی که حاوی تهمت یا بی احترامی به اشخاص باشد منتشر نخواهد شد
3.پیام هایی که به غیر از زبان فارسی یا غیر مرتبط با مطلب باشد منتشر نخواهد شد