کد خبر: 4350704
تاریخ انتشار : ۱۶ ارديبهشت ۱۴۰۵ - ۱۳:۱۴
حجت‌الاسلام سعیدرضا عاملی تشریح کرد

الزامات اخلاقی هوش مصنوعی در منازعات مسلحانه

استاد گروه ارتباطات و مطالعات جهان دانشگاه تهران ضمن تشریح الزامات اخلاقی هوش مصنوعی در منازعات مسلحانه گفت: بسیاری از کارشناسان بر این باورند که تقویت اخلاق الهی در جنگ و تلاش برای از میان بردن ذهنیت جنگ‌طلبی و سلطه‌گری اهمیتی فراتر از قوانین بین‌المللی موجود دارد.

حجت‌الاسلام سعیدرضا عاملیبه گزارش خبرنگار ایکنا، حجت‌الاسلام سعیدرضا عاملی، استاد گروه ارتباطات و مطالعات جهان دانشگاه تهران طی سخنانی در نشست علمی «پیامد‌های اخلاقی هوش مصنوعی؛ ملاحظات اخلاقی در توسعه مسئولانه نظام‌های هوش مصنوعی» که امروز، ۱۶ اردیبهشت‌ماه در تالار ملل دانشکده مطالعات جهان دانشگاه تهران برگزار شد، با اشاره به الزامات اخلاقی هوش مصنوعی در منازعات مسلحانه گفت: هوش مصنوعی در حوزه اخلاق جنگ توصیه‌هایی را مطرح می‌سازد که باید منطبق بر احترام به کرامت انسانی و پرهیز از تخریب اماکن طبیعی و زیست‌بوم‌های انسانی باشد. در این راستا توجه به ظرفیت‌های خاص این فناوری ضرورتی انکارناپذیر می‌یابد. به منظور ورود به مسئله، ابتدا باید به ماهیت بنیادین هوش مصنوعی اشاره کرد.

وی‌افزود: هوش مصنوعی به مثابه یک ظرفیت خودکار در حوزه ارتباطات انسانی دگرگونی‌های اساسی ایجاد می‌کند. این فناوری همزمان ارتباط گرم و ارتباط سرد را از میان برمی‌دارد و رابطه میان یک‌به‌یک، یک‌به‌همه و همه‌به‌همه را تحت سیطره الگوریتم‌هایی بازتعریف می‌کند که مسیر ارتباطات را از پیش طراحی می‌کنند. هنگامی که هوش مصنوعی در بستر جنگ به کار گرفته می‌شود و در غیاب روح انسانی و مواجهه مستقیم بشری این ویژگی‌ها خطرات و پیچیدگی‌های عملیات نظامی را به میزان چشمگیری افزایش می‌دهد.

قدرت همزمانی هوش مصنوعی

عاملی گفت: خطای الگوریتمی در چنین شرایطی می‌تواند فاجعه‌آمیز باشد؛ مشابه فاجعه‌ای که در «مدرسه شجره طیبه» رخ داد و به شهادت ۱۶۸ کودک معصوم انجامید. یکی از ظرفیت‌های کلیدی هوش مصنوعی قدرت همزمانی است؛ بدین معنا که براساس پارامتر‌های طراحی‌شده قادر است ده‌ها عملیات را به طور همزمان اجرا کند. این ویژگی به طور طبیعی میزان مخاطرات را افزایش می‌دهد.

وی با اشاره به تمایز جنگ سنتی و جنگ هوشمند اظهار کرد: در گذشته فرماندهان نظامی هزینه انسانی جنگ را به طور محسوس درک می‌کردند. آنها در میدان جنگ حضور داشتند، کشتار را مشاهده می‌کردند، صحنه‌های تخریب را از نزدیک می‌دیدند و بوی باروت را استشمام می‌کردند. اما در جنگ هوشمند، فضا کاملاً دگرگون می‌شود. جنگ از راه دور اداره می‌شود و تلفات جانی برای عاملان آن که در بستر فناوری قرار دارند، محسوس و عینی نیست.

نسبت اخلاق جنگ با هوش مصنوعی

عاملی ادامه داد: بحث اصلی در اینجا، نسبت اخلاق جنگ با هوش مصنوعی است. اگرچه جنگ به خودی خود پدیده‌ای ناعادلانه و مبتنی بر تبعیض انسانی و اجتماعی است، اما با فرض وقوع آن می‌توان پرسش از تحقق جنگ عادلانه را مطرح کرد. جنگی را می‌توان عادلانه دانست که با ضوابط مورد تأکید در منابع بین‌المللی از جمله اصول تفکیک، تناسب و احترام به کرامت انسانی منطبق باشد.

وی بیان کرد: در مقابل اظهارات مقامات نظامی برخی کشور‌ها حاکی از رویکردی متفاوت است. برای نمونه، وزیر جنگ آمریکا به صراحت از عدم رعایت اصول اخلاقی سخن گفته و ارتش آن کشور همواره خود را نوک نیزه معرفی کرده است. معاون وزیر جنگ این کشور تضمین می‌دهد که رزمندگان آمریکایی هرگز وارد نبردی منصفانه نشوند و بهترین سیستم‌ها را برای حداکثر کشتار در اختیار داشته باشند. وزارت جنگ آمریکا متعهد شده است که مرگبارترین نیروی جنگی روی سیاره زمین باقی بماند. این منطق، مبتنی بر کشتار وسیع است. سابقه تاریخی نیز گویای این واقعیت است: کشتار جمعی در کامبوج ۲۵ سال، جنگ ویتنام از ۱۹۵۵ تا ۱۹۷۶ به مدت ۲۱ سال به طول انجامید و در مجموع ۲۵۰ سال اخیر، ایالات متحده تنها ۱۶ سال را بدون جنگ سپری کرده است.

عاملی با اشاره به ملاحظات بنیادین درباره ماهیت هوش مصنوعی گفت: برای درک دقیق‌تر نسبت هوش مصنوعی و اخلاق جنگ، توجه به چند ویژگی بنیادین این فناوری ضروری است. اولین ویژگی ماهیت دیجیتال در مقابل آنالوگ است. هوش مصنوعی بر بستری دیجیتال عمل می‌کند، نه آنالوگ. در حالی که جنگ فیزیکی با ماهیتی آنالوگ (عیانی و محسوس) همراه است، پدیده هوش مصنوعی مبتنی بر منطق الگوریتمی و پارامتر‌های محاسباتی طراحی می‌شود.

وی ادامه داد: ویژگی دوم شبکه‌ای بودن است. هوش مصنوعی از عنصر شبکه‌ای بودن برخوردار است، نه تک‌بعدی و منفرد. این فناوری عناصر را به یکدیگر و شبکه‌ها را با هم پیوند می‌زند. به تعبیری، ماژول‌هایی که هر یک دارای چندین وجه ارتباطی هستند، به صورتی یک‌به‌یک، یک‌به‌همه و همه‌به‌هم مرتبط می‌شوند تا پویایی مورد نظر تحقق یابد.

عاملی گفت: سومین ویژگی همزمانی است. در عالم آنالوگ، پدیده‌ها به ترتیب و جایگزین یکدیگر رخ می‌دهند(مانند صف ایستادن). زمان فیزیکی مبتنی بر مرگ و حیات متوالی است، یک آن، چیزی از میان می‌رود و آن دیگر، پدید می‌آید؛ بنابراین گذشته، حال و آینده در آن معنا می‌یابد؛ اما در هوش مصنوعی با مفهومی به نام همه‌جا حاضر، مواجهیم که همزمانی پدیده‌ها را ممکن می‌سازد. قدرت پویایی حاصل از این ویژگی با هیچ الگوی سنتی قابل مقایسه نیست. ویژگی‌ چهارم ابعاد کوانتومی است. با ظهور ریزفناوری‌ها و تراشه‌های نانومقیاس، هوش مصنوعی به ماهیتی کوانتومی نیز نزدیک شده است. ویژگی‌هایی همچون برهم‌نهی (معلق بودن) و عدم قطعیت و نیز توانایی ایجاد فاصله میان صفر و یک در تراشه‌های بسیار کوچک، این پدیده را پیچیده‌تر می‌سازد.

بهره‌مندی از زمان مجازی

وی افزود: پنجمین ویژگی بهره‌مندی از زمان مجازی است. زمان مجازی عنصر مهمی در این میان است، زیرا در آن، مسیر خطی نیست. در زمان مجازی، سه عنصر فاصله، حرکت و سرعت دستخوش دگرگونی می‌شوند. با حذف فاصله، حرکت و سرعت نیز بی‌معنا می‌شوند و همه عناصر در یک نقطه قرار می‌گیرند. بدین ترتیب، مفهوم پویای «همه‌جا حاضر» تحقق یافته و قابلیت کار در فضای مجازی فراهم می‌آید.

عاملی با اشاره به مقوله جنگ و احترام به انسان(دیدگاه حقوق بشردوستانه)، تصریح کرد: هسته مرکزی حقوق بین‌الملل بشردوستانه بر این فرض استوار است که حتی در خشونت سازمان‌یافته جنگ نمی‌توان از خط‌قرمز‌های انسانی عبور کرد. کنوانسیون‌های ژنو (۱۹۴۹) و پروتکل الحاقی (۱۹۷۷) این خط‌قرمز‌ها را در قالب اصولی، چون تفکیک، تناسب و احتیاط صورت‌بندی کرده‌اند. با ورود هوش مصنوعی به زنجیره تصمیم‌گیری نظامی، این پرسش مطرح می‌شود که آیا ماشین فاقد درک بافت انسانی، وجدان اخلاقی و مسئولیت‌پذیری حقوقی می‌تواند احترام به این اصول را تضمین کند؟ پاسخ از دیدگاه تحلیل‌گران منفی ارزیابی می‌شود.

وی در ادامه با اشاره به اصل تفکیک اظهار کرد: براساس ماده ۵۱ پروتکل اول و ماده ۱۳ پروتکل دوم ژنو، طرفین درگیر موظفند همواره میان نظامیان و غیر نظامیان و نیز اهداف نظامی و اشیای غیرنظامی (ساختمان‌ها، پل‌ها، جنگل‌ها، طبیعت) تفاوت قائل شوند. حمله به اهداف غیرنظامی به طور مطلق ممنوع است. بر اساس قوانین بین‌المللی، جنگ‌آغازانه (جنگ تهاجمی) مجاز نیست و تنها دفاع مشروع به رسمیت شناخته می‌شود. در فرهنگ تشیع نیز جنگ ابتدایی جز در عصر امام معصوم حرام اعلام شده است. بند ۵ ماده ۵۱ پروتول اول، هر حمله‌ای را ممنوع می‌کند که خسارت به جان یا اموال غیرنظامیان وارد آورد و این خسارت در مقایسه با مزیت نظامی مستقیم و ملموس مورد انتظار، بیش از حد باشد. در این چارچوب، ترور شخصیت‌های نظامی ایران(که در زمان ترور، اقدام نظامی فعالی نداشته‌اند) به عنوان اقدامی علیه افراد غیر نظامی تلقی می‌شود، زیرا شرط فعلیت نظامی در آن موارد احراز نشده است.

عاملی گفت: در دوران پیش از انقلاب صنعتی (حدود سال ۱۸۰۰ میلادی)، قدرت نظامی تابع معادله‌ای زیستی مبتنی بر چرخه سوخت‌وساز بود. در مناطق استپی و در بازه زمانی سده سوم پیش از میلاد تا دوره مغولان(سده سیزدهم میلادی) و نیز خلافت‌های عربی در سده هفتم مهم‌ترین محدودیت در میدان نبرد، خستگی زیستی رزمندگان بود. جنگ‌آوران با ابزار‌های ابتدایی، چون نیزه و شمشیر با یکدیگر نبرد می‌کردند؛ ازاین‌رو، تأثیر مخرب جنگ‌ها در آن دوره چندان گسترده نبود. در مقام مقایسه، لشکر مغول می‌توانست روزانه ۱۰۰ کیلومتر پیشروی کند، در حالی که ارتش‌های اروپایی هم‌دوره حداکثر ۲۰ کیلومتر در روز قادر به پیشروی بودند.

وی ادامه داد: با اختراع مسلسل ماکسیم در سال ۱۸۸۴ توسط هایرام ماکسیم، گسستی بزرگ در تاریخ جنگ‌آوری پدید آمد. این سلاح برای نخستین بار قادر بود با سرعت ۶۰۰ گلوله در دقیقه و برد مؤثر بیش از هزار متر عمل کند. اولین نمایش وحشتناک از قدرت این مسلسل در نبرد «سوماتا» (۱۸۹۳-۱۸۹۴) در آفریقا روی داد که ۵۰ سرباز بریتانیایی مسلح به چهار قبضه مسلسل ماکسیم توانستند سه هزار جنگجوی محلی را در عرض ۹۰ دقیقه از میان بردارند. با پیشرفت فناوری نظامی، امکان کشتار جمعی گسترده‌تر شد. در جنگ‌های جهانی اول و دوم حدود ۹۷ میلیون انسان کشته شدند که سهم عظیمی از آن را غیرنظامیان تشکیل می‌دادند. جنگ جهانی اول را می‌توان اوج کشتار خطی-صنعتی دانست؛ بشریت برای نخستین بار در برابر تولید انبوه مرگ، ناگزیر به وضع قوانین بازدارنده شد. در این دوره، سلاح‌هایی، چون گاز خردل، توپخانه‌های لوله‌بلند با نرخ آتش ۱۵ گلوله در دقیقه و بمب‌افکن‌های راهبردی (مانند گوتا‌های آلمان) جنگ صنعتی را متولد کردند. در نبرد سُم، طی ۱۴۱ روز، ۱.۲ میلیون نفر کشته شدند (میانگین ۸۵۰۰ نفر در روز) و در نبرد وردن، ۷۰۰ هزار نفر طی ۱۰ ماه جان باختند. حجم بالای تلفات انسانی در اروپا میان سال‌های ۱۹۲۵ تا ۱۹۴۹ زمینه‌ساز شکل‌گیری حقوق بین‌الملل بشردوستانه، کنوانسیون ژنو (۱۹۴۹)، پروتکل‌های الحاقی و ممنوعیت سلاح‌های شیمیایی بر مبنای پروتکل ۱۹۲۵ شد. با این حال، در جنگ هشت‌ ساله علیه ایران، سلاح‌های شیمیایی در سطح وسیع به کار گرفته شد و همچنان پیامد‌های آن بر جای مانده است.

وی با اشاره به عصر هسته‌ای و الکترونیک نیز گفت: در ۶ اوت ۱۹۴۵، بمب اتمی «پسر کوچک» با قدرت ۱۵ کیلوتن TNT شهر هیروشیما را بمباران کرد و طی چند ثانیه ۱۴۰ هزار نفر را کشت. سه روز بعد، بمب «مرد چاق» با قدرت ۲۱ کیلوتن TNT در ناکازاکی منفجر شد و ۷۰ هزار تن جان باختند. از آن تاریخ تاکنون (۸۱ سال) دیگر از بمب اتم استفاده نشده، اما وجود حدود ۱۲ هزار کلاهک هسته‌ای در جهان تهدیدی دائمی برای بشریت محسوب می‌شود. استفاده از این سلاح‌ها می‌تواند «زمستان هسته‌ای» به همراه آورد و دمای زمین را به منفی ۵۰ درجه سلسیوس کاهش دهد.

عاملی با اشاره به عصر دیجیتال و شبکه‌ای (جنگ از راه دور) نیز اظهار کرد: این دوره پس از حملات ۱۱ سپتامبر ۲۰۰۱ و با شکل‌گیری مفهوم جنگ علیه ترور تعریف می‌شود. جنگ در این عصر، فاقد رویارویی فیزیکی مستقیم و در نتیجه عاری از رنج بی‌واسطه قربانیان نیست؛ اما فشار روانی و اجتماعی قابل توجهی بر جوامع وارد می‌آورد. در این الگو، یکی از طرفین درگیری با برخورداری از هزاران کلاهک هسته‌ای و صرف بودجه سالانه ۹۰ میلیارد دلار برای نگهداری آنها، در کشور‌های دیگر (مانند ایران) علیه ظرفیت‌های صلح‌آمیز هسته‌ای برای مصارف انرژی، پزشکی و سایر کاربرد‌های غیرنظامی جنگ‌افروزی می‌کند.

عصر الگوریتم و خودکاری شدن جنگ

عاملی با اشاره به عصر الگوریتم و خودکاری شدن جنگ (کشتار رایانه‌ای/هوش مصنوعی) افزود: در این دوره سامانه‌های مبتنی بر الگوریتم با استفاده از هزاران میلیارد پارامتر امکان تصمیم‌گیری خودکار را دارند. این سیستم‌ها فاقد ترحم، اخلاق و درک انسانی هستند و در دنیایی بدون استهلاک و بر مبنای منطق پارامتریک عمل می‌کنند. آغاز این دوره به ۲۴ فوریه ۲۰۲۲ (تهاجم روسیه به اوکراین) نسبت داده می‌شود. در این جنگ برای نخستین بار، مقیاس‌پذیری هوش مصنوعی در میدان نبرد واقعی به نمایش درآمد. روسیه از سامانه‌های تخصصی محاسباتی برای هدف‌گیری توپخانه با دخالت محدود انسانی و اوکراین از نرم‌افزار‌های سیستم اطلاعات جغرافیایی برای پردازش داده‌های ماهواره‌ای و پیشنهاد مختصات شلیک استفاده کردند. همچنین پهپاد‌های انتحاری مجهز به الگوریتم‌های ردیابی خودکار، نشانه‌های اولیه از خودکارسازی زنجیره کشتار بودند. با این حال، در تمام موارد یادشده، تصمیم نهایی برای شلیک همچنان با اپراتور انسانی بود که در محیطی دور از میدان نبرد اتخاذ می‌شد.

چالش‌های انسانی هوش مصنوعی در جنگ

وی با اشاره به چالش‌های انسانی هوش مصنوعی در جنگ گفت: یکی از مهمترین چالش‌های کاربرد هوش مصنوعی در مخاصمات مسلحانه ناتوانی این سیستم‌ها در درک بافت انسانی است. هوش مصنوعی نظامی دچار شکاف معنایی است به این معنا که الگوریتم، داده را صرفاً مجموعه‌ای از پیکسل‌ها، سیگنال‌ها یا مختصات جغرافیایی می‌بیند، اما معنای انسانی آن داده را درک نمی‌کند. برای نمونه، برخی مکان‌ها صرفاً به اعتبار نام‌گذاری به عنوان هدف شناسایی می‌شوند، در حالی که بار معنایی واقعی آن نام (مانند وجود غیر نظامیان یا اماکن مذهبی) مورد توجه قرار نمی‌گیرد.

عاملی با اشاره به چالش تناسب در حقوق بشردوستانه افزود: در نظریه جنگ عادلانه و حقوق بین‌الملل بشردوستانه، اصل تناسب مبتنی بر ارزیابی کیفی و زمینه‌مند است. یک فرمانده انسانی باید عواملی، چون میزان اطمینان از اطلاعات، ابهامات موجود، ارزش‌های انسانی در معرض خطر و حتی وجدان عمومی را در تصمیم خود دخیل کند. برای مثال، یک فرمانده ممکن است خطر مرگ پنج غیرنظامی را برای کشتن 10 سرباز دشمن بپذیرد، اما اگر آن پنج غیرنظامی کودک باشند، ممکن است همان خطر را حتی برای کشتن بیست سرباز نپذیرد. در سیستم‌های خودکار مبتنی بر هوش مصنوعی، چنین قضاوت کیفی و زمینه‌مندی حذف می‌شود.

وی با اشاره به پرهیز از کشتار جمعی هوشمند و مفهوم نظارت معنادار، تصریح کرد: در گذشته گاه امپراتوری‌ها با کشتار جمعی به گسترش قدرت خود پرداختند، اما در قرن بیست‌ویکم انتظار می‌رود که کشتار جمعی دیگر رخ ندهد. گروه کارشناسان دولتی ذیل کنوانسیون سلاح‌های متعارف از سال ۲۰۱۴ تاکنون در حال بحث درباره این موضوع هستند، اما طی بیش از یک دهه نتوانسته‌اند به تعریفی الزام‌آور دست یابند.

وی افزود: با این حال، اجماع رو به رشدی در میان حقوقدانان بین‌المللی، جامعه مدنی و بسیاری از دولت‌ها شکل گرفته است که بر اساس آن، نظارت معنادار مستلزم سه عنصر زیر است: ۱. اطلاع‌رسانی: تصمیم‌گیرنده انسانی باید به تمام اطلاعات مرتبط با هدف دسترسی داشته باشد و این اطلاعات نباید توسط الگوریتم فیلتر یا تحریف شود. ۲. مسئولیت‌ناپذیری (عدم واگذاری تصمیم به ماشین): مسئولیت تصمیم به کشتن هرگز نمی‌تواند به ماشین واگذار شود؛ حتی اگر ماشین فرآیند شناسایی و هدف‌گیری را انجام دهد.۳. به‌هنگام بودن: انسان باید فرصت کافی برای بررسی و توسعه الگوریتم داشته باشد و صرفاً به خروجی الگوریتم تکیه نکند.

عاملی بیان کرد: در جمع‌بندی مباحث کارشناسی یکی از پیشنهاد‌های مشخص برای مهار رفتار ضداخلاقی هوش مصنوعی در جنگ موضوع قفل اخلاقی است. بر این اساس، اگر سیستم‌های هوش مصنوعی نتوانند با اطمینان ۹۹.۹ درصد غیرنظامی بودن یک هدف را اثبات کنند، حمله به طور خودکار ممنوع شده و پرونده برای بررسی انسانی ارجاع می‌شود.

وی با اشاره به نمونه‌هایی از مصادیق جنگ هوشمند علیه ایران گفت: در رویارویی‌های اخیر نمونه‌هایی از کشتار شخصیت‌های محبوب ایرانی گزارش شده است. ترور سپهبد قاسم سلیمانی به دستور مقامات وقت آمریکا. در مراسم تشییع پیکر ایشان بیش از ۱۰ میلیون نفر شرکت کردند. براساس گزارش‌ها، رویکرد نظامی سردار سلیمانی همواره مبتنی بر پرهیز از کشتار غیر ضروری و اطلاع‌رسانی پیشاپیش به غیرنظامیان در مناطق عملیاتی (مانند فلوجه) بوده است. شهادت بیش از سه هزار نفر (شامل حدود ۲۲۰ کودک) در جریان درگیری‌های اخیر که برخی از آنها با عنوان خطای هوش مصنوعی توجیه شده است. برای نمونه حمله به مدرسه «شجره طیبه» از سوی برخی منابع خطای هوش مصنوعی عنوان شده، اما تحلیلگران مستقل این توجیه را ناکافی و مصداق «وحشت‌آفرینی در جنگ» ارزیابی می‌کنند.

لزوم تقویت اخلاق الهی در برابر سلطه‌گری

وی با اشاره به لزوم تقویت اخلاق الهی در برابر سلطه‌گری گفت: بسیاری از کارشناسان بر این باورند که تقویت اخلاق الهی در جنگ و تلاش برای از میان بردن ذهنیت جنگ‌طلبی و سلطه‌گری اهمیتی فراتر از قوانین بین‌المللی موجود دارد. نگاه نظام سلطه (همچون رویکرد دولت‌هایی که از تعهدات بین‌المللی مانند یونسکو و سازمان ملل خارج شده یا آنها را نقض می‌کنند) در تضاد با اخلاق جنگی در سنت الهی است.

عاملی بیان کرد: در سنت ابراهیمی-مسیحی (از جمله موضع‌گیری پاپ علیه روحیه سلطه‌طلبی) و نیز در تعالیم اسلامی اصولی برای جنگ عادلانه ذکر شده است. بر اساس روایات منسوب به پیامبر اسلام (ص) هنگام اعزام سربازان به جنگ توصیه می‌شد که به نام خدا و در راه خدا و بر روش پیامبر حرکت کنید. به دشمنان خیانت نکنید و هنگام مذاکره جنگ را آغاز نکنید. اجساد دشمنان را مثله نکنید و مکر نورزید. پیرمرد ضعیف، زن و کودک را نکشید. درختان را قطع نکنید مگر در ناچاری. هرکس از مشرکین پناه بخواهد، در امان است تا کلام خدا را بشنود؛ اگر بپذیرد از برادران دینی است و اگر امتناع کرد، او را به منزلگاه خود برسانید. این رویکرد نشان‌دهنده احترام به انسان، طبیعت و تلاش برای برقراری جنگی عادلانه در اندیشه اسلامی است.

انتهای پیام
خبرنگار:
مجتبی افشار
دبیر:
فاطمه بختیاری
captcha