به گزارش خبرنگار ایکنا، حجتالاسلام سعیدرضا عاملی، استاد گروه ارتباطات و مطالعات جهان دانشگاه تهران طی سخنانی در نشست علمی «پیامدهای اخلاقی هوش مصنوعی؛ ملاحظات اخلاقی در توسعه مسئولانه نظامهای هوش مصنوعی» که امروز، ۱۶ اردیبهشتماه در تالار ملل دانشکده مطالعات جهان دانشگاه تهران برگزار شد، با اشاره به الزامات اخلاقی هوش مصنوعی در منازعات مسلحانه گفت: هوش مصنوعی در حوزه اخلاق جنگ توصیههایی را مطرح میسازد که باید منطبق بر احترام به کرامت انسانی و پرهیز از تخریب اماکن طبیعی و زیستبومهای انسانی باشد. در این راستا توجه به ظرفیتهای خاص این فناوری ضرورتی انکارناپذیر مییابد. به منظور ورود به مسئله، ابتدا باید به ماهیت بنیادین هوش مصنوعی اشاره کرد.
ویافزود: هوش مصنوعی به مثابه یک ظرفیت خودکار در حوزه ارتباطات انسانی دگرگونیهای اساسی ایجاد میکند. این فناوری همزمان ارتباط گرم و ارتباط سرد را از میان برمیدارد و رابطه میان یکبهیک، یکبههمه و همهبههمه را تحت سیطره الگوریتمهایی بازتعریف میکند که مسیر ارتباطات را از پیش طراحی میکنند. هنگامی که هوش مصنوعی در بستر جنگ به کار گرفته میشود و در غیاب روح انسانی و مواجهه مستقیم بشری این ویژگیها خطرات و پیچیدگیهای عملیات نظامی را به میزان چشمگیری افزایش میدهد.
قدرت همزمانی هوش مصنوعی
عاملی گفت: خطای الگوریتمی در چنین شرایطی میتواند فاجعهآمیز باشد؛ مشابه فاجعهای که در «مدرسه شجره طیبه» رخ داد و به شهادت ۱۶۸ کودک معصوم انجامید. یکی از ظرفیتهای کلیدی هوش مصنوعی قدرت همزمانی است؛ بدین معنا که براساس پارامترهای طراحیشده قادر است دهها عملیات را به طور همزمان اجرا کند. این ویژگی به طور طبیعی میزان مخاطرات را افزایش میدهد.
وی با اشاره به تمایز جنگ سنتی و جنگ هوشمند اظهار کرد: در گذشته فرماندهان نظامی هزینه انسانی جنگ را به طور محسوس درک میکردند. آنها در میدان جنگ حضور داشتند، کشتار را مشاهده میکردند، صحنههای تخریب را از نزدیک میدیدند و بوی باروت را استشمام میکردند. اما در جنگ هوشمند، فضا کاملاً دگرگون میشود. جنگ از راه دور اداره میشود و تلفات جانی برای عاملان آن که در بستر فناوری قرار دارند، محسوس و عینی نیست.
نسبت اخلاق جنگ با هوش مصنوعی
عاملی ادامه داد: بحث اصلی در اینجا، نسبت اخلاق جنگ با هوش مصنوعی است. اگرچه جنگ به خودی خود پدیدهای ناعادلانه و مبتنی بر تبعیض انسانی و اجتماعی است، اما با فرض وقوع آن میتوان پرسش از تحقق جنگ عادلانه را مطرح کرد. جنگی را میتوان عادلانه دانست که با ضوابط مورد تأکید در منابع بینالمللی از جمله اصول تفکیک، تناسب و احترام به کرامت انسانی منطبق باشد.
وی بیان کرد: در مقابل اظهارات مقامات نظامی برخی کشورها حاکی از رویکردی متفاوت است. برای نمونه، وزیر جنگ آمریکا به صراحت از عدم رعایت اصول اخلاقی سخن گفته و ارتش آن کشور همواره خود را نوک نیزه معرفی کرده است. معاون وزیر جنگ این کشور تضمین میدهد که رزمندگان آمریکایی هرگز وارد نبردی منصفانه نشوند و بهترین سیستمها را برای حداکثر کشتار در اختیار داشته باشند. وزارت جنگ آمریکا متعهد شده است که مرگبارترین نیروی جنگی روی سیاره زمین باقی بماند. این منطق، مبتنی بر کشتار وسیع است. سابقه تاریخی نیز گویای این واقعیت است: کشتار جمعی در کامبوج ۲۵ سال، جنگ ویتنام از ۱۹۵۵ تا ۱۹۷۶ به مدت ۲۱ سال به طول انجامید و در مجموع ۲۵۰ سال اخیر، ایالات متحده تنها ۱۶ سال را بدون جنگ سپری کرده است.
عاملی با اشاره به ملاحظات بنیادین درباره ماهیت هوش مصنوعی گفت: برای درک دقیقتر نسبت هوش مصنوعی و اخلاق جنگ، توجه به چند ویژگی بنیادین این فناوری ضروری است. اولین ویژگی ماهیت دیجیتال در مقابل آنالوگ است. هوش مصنوعی بر بستری دیجیتال عمل میکند، نه آنالوگ. در حالی که جنگ فیزیکی با ماهیتی آنالوگ (عیانی و محسوس) همراه است، پدیده هوش مصنوعی مبتنی بر منطق الگوریتمی و پارامترهای محاسباتی طراحی میشود.
وی ادامه داد: ویژگی دوم شبکهای بودن است. هوش مصنوعی از عنصر شبکهای بودن برخوردار است، نه تکبعدی و منفرد. این فناوری عناصر را به یکدیگر و شبکهها را با هم پیوند میزند. به تعبیری، ماژولهایی که هر یک دارای چندین وجه ارتباطی هستند، به صورتی یکبهیک، یکبههمه و همهبههم مرتبط میشوند تا پویایی مورد نظر تحقق یابد.
عاملی گفت: سومین ویژگی همزمانی است. در عالم آنالوگ، پدیدهها به ترتیب و جایگزین یکدیگر رخ میدهند(مانند صف ایستادن). زمان فیزیکی مبتنی بر مرگ و حیات متوالی است، یک آن، چیزی از میان میرود و آن دیگر، پدید میآید؛ بنابراین گذشته، حال و آینده در آن معنا مییابد؛ اما در هوش مصنوعی با مفهومی به نام همهجا حاضر، مواجهیم که همزمانی پدیدهها را ممکن میسازد. قدرت پویایی حاصل از این ویژگی با هیچ الگوی سنتی قابل مقایسه نیست. ویژگی چهارم ابعاد کوانتومی است. با ظهور ریزفناوریها و تراشههای نانومقیاس، هوش مصنوعی به ماهیتی کوانتومی نیز نزدیک شده است. ویژگیهایی همچون برهمنهی (معلق بودن) و عدم قطعیت و نیز توانایی ایجاد فاصله میان صفر و یک در تراشههای بسیار کوچک، این پدیده را پیچیدهتر میسازد.
بهرهمندی از زمان مجازی
وی افزود: پنجمین ویژگی بهرهمندی از زمان مجازی است. زمان مجازی عنصر مهمی در این میان است، زیرا در آن، مسیر خطی نیست. در زمان مجازی، سه عنصر فاصله، حرکت و سرعت دستخوش دگرگونی میشوند. با حذف فاصله، حرکت و سرعت نیز بیمعنا میشوند و همه عناصر در یک نقطه قرار میگیرند. بدین ترتیب، مفهوم پویای «همهجا حاضر» تحقق یافته و قابلیت کار در فضای مجازی فراهم میآید.
عاملی با اشاره به مقوله جنگ و احترام به انسان(دیدگاه حقوق بشردوستانه)، تصریح کرد: هسته مرکزی حقوق بینالملل بشردوستانه بر این فرض استوار است که حتی در خشونت سازمانیافته جنگ نمیتوان از خطقرمزهای انسانی عبور کرد. کنوانسیونهای ژنو (۱۹۴۹) و پروتکل الحاقی (۱۹۷۷) این خطقرمزها را در قالب اصولی، چون تفکیک، تناسب و احتیاط صورتبندی کردهاند. با ورود هوش مصنوعی به زنجیره تصمیمگیری نظامی، این پرسش مطرح میشود که آیا ماشین فاقد درک بافت انسانی، وجدان اخلاقی و مسئولیتپذیری حقوقی میتواند احترام به این اصول را تضمین کند؟ پاسخ از دیدگاه تحلیلگران منفی ارزیابی میشود.
وی در ادامه با اشاره به اصل تفکیک اظهار کرد: براساس ماده ۵۱ پروتکل اول و ماده ۱۳ پروتکل دوم ژنو، طرفین درگیر موظفند همواره میان نظامیان و غیر نظامیان و نیز اهداف نظامی و اشیای غیرنظامی (ساختمانها، پلها، جنگلها، طبیعت) تفاوت قائل شوند. حمله به اهداف غیرنظامی به طور مطلق ممنوع است. بر اساس قوانین بینالمللی، جنگآغازانه (جنگ تهاجمی) مجاز نیست و تنها دفاع مشروع به رسمیت شناخته میشود. در فرهنگ تشیع نیز جنگ ابتدایی جز در عصر امام معصوم حرام اعلام شده است. بند ۵ ماده ۵۱ پروتول اول، هر حملهای را ممنوع میکند که خسارت به جان یا اموال غیرنظامیان وارد آورد و این خسارت در مقایسه با مزیت نظامی مستقیم و ملموس مورد انتظار، بیش از حد باشد. در این چارچوب، ترور شخصیتهای نظامی ایران(که در زمان ترور، اقدام نظامی فعالی نداشتهاند) به عنوان اقدامی علیه افراد غیر نظامی تلقی میشود، زیرا شرط فعلیت نظامی در آن موارد احراز نشده است.
عاملی گفت: در دوران پیش از انقلاب صنعتی (حدود سال ۱۸۰۰ میلادی)، قدرت نظامی تابع معادلهای زیستی مبتنی بر چرخه سوختوساز بود. در مناطق استپی و در بازه زمانی سده سوم پیش از میلاد تا دوره مغولان(سده سیزدهم میلادی) و نیز خلافتهای عربی در سده هفتم مهمترین محدودیت در میدان نبرد، خستگی زیستی رزمندگان بود. جنگآوران با ابزارهای ابتدایی، چون نیزه و شمشیر با یکدیگر نبرد میکردند؛ ازاینرو، تأثیر مخرب جنگها در آن دوره چندان گسترده نبود. در مقام مقایسه، لشکر مغول میتوانست روزانه ۱۰۰ کیلومتر پیشروی کند، در حالی که ارتشهای اروپایی همدوره حداکثر ۲۰ کیلومتر در روز قادر به پیشروی بودند.
وی ادامه داد: با اختراع مسلسل ماکسیم در سال ۱۸۸۴ توسط هایرام ماکسیم، گسستی بزرگ در تاریخ جنگآوری پدید آمد. این سلاح برای نخستین بار قادر بود با سرعت ۶۰۰ گلوله در دقیقه و برد مؤثر بیش از هزار متر عمل کند. اولین نمایش وحشتناک از قدرت این مسلسل در نبرد «سوماتا» (۱۸۹۳-۱۸۹۴) در آفریقا روی داد که ۵۰ سرباز بریتانیایی مسلح به چهار قبضه مسلسل ماکسیم توانستند سه هزار جنگجوی محلی را در عرض ۹۰ دقیقه از میان بردارند. با پیشرفت فناوری نظامی، امکان کشتار جمعی گستردهتر شد. در جنگهای جهانی اول و دوم حدود ۹۷ میلیون انسان کشته شدند که سهم عظیمی از آن را غیرنظامیان تشکیل میدادند. جنگ جهانی اول را میتوان اوج کشتار خطی-صنعتی دانست؛ بشریت برای نخستین بار در برابر تولید انبوه مرگ، ناگزیر به وضع قوانین بازدارنده شد. در این دوره، سلاحهایی، چون گاز خردل، توپخانههای لولهبلند با نرخ آتش ۱۵ گلوله در دقیقه و بمبافکنهای راهبردی (مانند گوتاهای آلمان) جنگ صنعتی را متولد کردند. در نبرد سُم، طی ۱۴۱ روز، ۱.۲ میلیون نفر کشته شدند (میانگین ۸۵۰۰ نفر در روز) و در نبرد وردن، ۷۰۰ هزار نفر طی ۱۰ ماه جان باختند. حجم بالای تلفات انسانی در اروپا میان سالهای ۱۹۲۵ تا ۱۹۴۹ زمینهساز شکلگیری حقوق بینالملل بشردوستانه، کنوانسیون ژنو (۱۹۴۹)، پروتکلهای الحاقی و ممنوعیت سلاحهای شیمیایی بر مبنای پروتکل ۱۹۲۵ شد. با این حال، در جنگ هشت ساله علیه ایران، سلاحهای شیمیایی در سطح وسیع به کار گرفته شد و همچنان پیامدهای آن بر جای مانده است.
وی با اشاره به عصر هستهای و الکترونیک نیز گفت: در ۶ اوت ۱۹۴۵، بمب اتمی «پسر کوچک» با قدرت ۱۵ کیلوتن TNT شهر هیروشیما را بمباران کرد و طی چند ثانیه ۱۴۰ هزار نفر را کشت. سه روز بعد، بمب «مرد چاق» با قدرت ۲۱ کیلوتن TNT در ناکازاکی منفجر شد و ۷۰ هزار تن جان باختند. از آن تاریخ تاکنون (۸۱ سال) دیگر از بمب اتم استفاده نشده، اما وجود حدود ۱۲ هزار کلاهک هستهای در جهان تهدیدی دائمی برای بشریت محسوب میشود. استفاده از این سلاحها میتواند «زمستان هستهای» به همراه آورد و دمای زمین را به منفی ۵۰ درجه سلسیوس کاهش دهد.
عاملی با اشاره به عصر دیجیتال و شبکهای (جنگ از راه دور) نیز اظهار کرد: این دوره پس از حملات ۱۱ سپتامبر ۲۰۰۱ و با شکلگیری مفهوم جنگ علیه ترور تعریف میشود. جنگ در این عصر، فاقد رویارویی فیزیکی مستقیم و در نتیجه عاری از رنج بیواسطه قربانیان نیست؛ اما فشار روانی و اجتماعی قابل توجهی بر جوامع وارد میآورد. در این الگو، یکی از طرفین درگیری با برخورداری از هزاران کلاهک هستهای و صرف بودجه سالانه ۹۰ میلیارد دلار برای نگهداری آنها، در کشورهای دیگر (مانند ایران) علیه ظرفیتهای صلحآمیز هستهای برای مصارف انرژی، پزشکی و سایر کاربردهای غیرنظامی جنگافروزی میکند.
عصر الگوریتم و خودکاری شدن جنگ
عاملی با اشاره به عصر الگوریتم و خودکاری شدن جنگ (کشتار رایانهای/هوش مصنوعی) افزود: در این دوره سامانههای مبتنی بر الگوریتم با استفاده از هزاران میلیارد پارامتر امکان تصمیمگیری خودکار را دارند. این سیستمها فاقد ترحم، اخلاق و درک انسانی هستند و در دنیایی بدون استهلاک و بر مبنای منطق پارامتریک عمل میکنند. آغاز این دوره به ۲۴ فوریه ۲۰۲۲ (تهاجم روسیه به اوکراین) نسبت داده میشود. در این جنگ برای نخستین بار، مقیاسپذیری هوش مصنوعی در میدان نبرد واقعی به نمایش درآمد. روسیه از سامانههای تخصصی محاسباتی برای هدفگیری توپخانه با دخالت محدود انسانی و اوکراین از نرمافزارهای سیستم اطلاعات جغرافیایی برای پردازش دادههای ماهوارهای و پیشنهاد مختصات شلیک استفاده کردند. همچنین پهپادهای انتحاری مجهز به الگوریتمهای ردیابی خودکار، نشانههای اولیه از خودکارسازی زنجیره کشتار بودند. با این حال، در تمام موارد یادشده، تصمیم نهایی برای شلیک همچنان با اپراتور انسانی بود که در محیطی دور از میدان نبرد اتخاذ میشد.
چالشهای انسانی هوش مصنوعی در جنگ
وی با اشاره به چالشهای انسانی هوش مصنوعی در جنگ گفت: یکی از مهمترین چالشهای کاربرد هوش مصنوعی در مخاصمات مسلحانه ناتوانی این سیستمها در درک بافت انسانی است. هوش مصنوعی نظامی دچار شکاف معنایی است به این معنا که الگوریتم، داده را صرفاً مجموعهای از پیکسلها، سیگنالها یا مختصات جغرافیایی میبیند، اما معنای انسانی آن داده را درک نمیکند. برای نمونه، برخی مکانها صرفاً به اعتبار نامگذاری به عنوان هدف شناسایی میشوند، در حالی که بار معنایی واقعی آن نام (مانند وجود غیر نظامیان یا اماکن مذهبی) مورد توجه قرار نمیگیرد.
عاملی با اشاره به چالش تناسب در حقوق بشردوستانه افزود: در نظریه جنگ عادلانه و حقوق بینالملل بشردوستانه، اصل تناسب مبتنی بر ارزیابی کیفی و زمینهمند است. یک فرمانده انسانی باید عواملی، چون میزان اطمینان از اطلاعات، ابهامات موجود، ارزشهای انسانی در معرض خطر و حتی وجدان عمومی را در تصمیم خود دخیل کند. برای مثال، یک فرمانده ممکن است خطر مرگ پنج غیرنظامی را برای کشتن 10 سرباز دشمن بپذیرد، اما اگر آن پنج غیرنظامی کودک باشند، ممکن است همان خطر را حتی برای کشتن بیست سرباز نپذیرد. در سیستمهای خودکار مبتنی بر هوش مصنوعی، چنین قضاوت کیفی و زمینهمندی حذف میشود.
وی با اشاره به پرهیز از کشتار جمعی هوشمند و مفهوم نظارت معنادار، تصریح کرد: در گذشته گاه امپراتوریها با کشتار جمعی به گسترش قدرت خود پرداختند، اما در قرن بیستویکم انتظار میرود که کشتار جمعی دیگر رخ ندهد. گروه کارشناسان دولتی ذیل کنوانسیون سلاحهای متعارف از سال ۲۰۱۴ تاکنون در حال بحث درباره این موضوع هستند، اما طی بیش از یک دهه نتوانستهاند به تعریفی الزامآور دست یابند.
وی افزود: با این حال، اجماع رو به رشدی در میان حقوقدانان بینالمللی، جامعه مدنی و بسیاری از دولتها شکل گرفته است که بر اساس آن، نظارت معنادار مستلزم سه عنصر زیر است: ۱. اطلاعرسانی: تصمیمگیرنده انسانی باید به تمام اطلاعات مرتبط با هدف دسترسی داشته باشد و این اطلاعات نباید توسط الگوریتم فیلتر یا تحریف شود. ۲. مسئولیتناپذیری (عدم واگذاری تصمیم به ماشین): مسئولیت تصمیم به کشتن هرگز نمیتواند به ماشین واگذار شود؛ حتی اگر ماشین فرآیند شناسایی و هدفگیری را انجام دهد.۳. بههنگام بودن: انسان باید فرصت کافی برای بررسی و توسعه الگوریتم داشته باشد و صرفاً به خروجی الگوریتم تکیه نکند.
عاملی بیان کرد: در جمعبندی مباحث کارشناسی یکی از پیشنهادهای مشخص برای مهار رفتار ضداخلاقی هوش مصنوعی در جنگ موضوع قفل اخلاقی است. بر این اساس، اگر سیستمهای هوش مصنوعی نتوانند با اطمینان ۹۹.۹ درصد غیرنظامی بودن یک هدف را اثبات کنند، حمله به طور خودکار ممنوع شده و پرونده برای بررسی انسانی ارجاع میشود.
وی با اشاره به نمونههایی از مصادیق جنگ هوشمند علیه ایران گفت: در رویاروییهای اخیر نمونههایی از کشتار شخصیتهای محبوب ایرانی گزارش شده است. ترور سپهبد قاسم سلیمانی به دستور مقامات وقت آمریکا. در مراسم تشییع پیکر ایشان بیش از ۱۰ میلیون نفر شرکت کردند. براساس گزارشها، رویکرد نظامی سردار سلیمانی همواره مبتنی بر پرهیز از کشتار غیر ضروری و اطلاعرسانی پیشاپیش به غیرنظامیان در مناطق عملیاتی (مانند فلوجه) بوده است. شهادت بیش از سه هزار نفر (شامل حدود ۲۲۰ کودک) در جریان درگیریهای اخیر که برخی از آنها با عنوان خطای هوش مصنوعی توجیه شده است. برای نمونه حمله به مدرسه «شجره طیبه» از سوی برخی منابع خطای هوش مصنوعی عنوان شده، اما تحلیلگران مستقل این توجیه را ناکافی و مصداق «وحشتآفرینی در جنگ» ارزیابی میکنند.
لزوم تقویت اخلاق الهی در برابر سلطهگری
وی با اشاره به لزوم تقویت اخلاق الهی در برابر سلطهگری گفت: بسیاری از کارشناسان بر این باورند که تقویت اخلاق الهی در جنگ و تلاش برای از میان بردن ذهنیت جنگطلبی و سلطهگری اهمیتی فراتر از قوانین بینالمللی موجود دارد. نگاه نظام سلطه (همچون رویکرد دولتهایی که از تعهدات بینالمللی مانند یونسکو و سازمان ملل خارج شده یا آنها را نقض میکنند) در تضاد با اخلاق جنگی در سنت الهی است.
عاملی بیان کرد: در سنت ابراهیمی-مسیحی (از جمله موضعگیری پاپ علیه روحیه سلطهطلبی) و نیز در تعالیم اسلامی اصولی برای جنگ عادلانه ذکر شده است. بر اساس روایات منسوب به پیامبر اسلام (ص) هنگام اعزام سربازان به جنگ توصیه میشد که به نام خدا و در راه خدا و بر روش پیامبر حرکت کنید. به دشمنان خیانت نکنید و هنگام مذاکره جنگ را آغاز نکنید. اجساد دشمنان را مثله نکنید و مکر نورزید. پیرمرد ضعیف، زن و کودک را نکشید. درختان را قطع نکنید مگر در ناچاری. هرکس از مشرکین پناه بخواهد، در امان است تا کلام خدا را بشنود؛ اگر بپذیرد از برادران دینی است و اگر امتناع کرد، او را به منزلگاه خود برسانید. این رویکرد نشاندهنده احترام به انسان، طبیعت و تلاش برای برقراری جنگی عادلانه در اندیشه اسلامی است.
انتهای پیام