صفحه نخست

فعالیت قرآنی

سیاست و اقتصاد

بین الملل

معارف

اجتماعی

فرهنگی

شعب استانی

چندرسانه ای

عکس

آذربایجان شرقی

آذربایجان غربی

اردبیل

اصفهان

البرز

ایلام

خراسان جنوبی

بوشهر

چهارمحال و بختیاری

خراسان رضوی

خراسان شمالی

سمنان

خوزستان

زنجان

سیستان و بلوچستان

فارس

قزوین

قم

کردستان

کرمان

کرمانشاه

کهگیلویه و بویر احمد

گلستان

گیلان

لرستان

مازندران

مرکزی

هرمزگان

همدان

یزد

بازار

صفحات داخلی

کد خبر: ۴۳۵۰۷۴۷
تاریخ انتشار : ۱۶ ارديبهشت ۱۴۰۵ - ۱۳:۵۱
حجت‌الاسلام حمید شهریاری:

دبیرکل مجمع جهانی تقریب مذاهب به تشریح یکی از کاستی‌های مهم اسناد اخلاقی پرداخت و گفت: علمای اخلاق نتوانسته‌اند فضایل اخلاقی انسانی را طبقه‌بندی کنند؛ یعنی تعیین کنند بالاترین ارزش انسانی چیست که هیچ ارزش دیگری نباید فدای آن شود. طبقه‌بندی ارزش‌ها به ما امکان اولویت‌بندی در تخصیص منابع محدود را می‌دهد؛ مثلاً اینکه آیا هزینه‌ها صرف هوش مصنوعی شود یا صرف رفتار‌های اجتماعی.

به گزارش خبرنگار ایکنا، حجت‌الاسلام حمید شهریاری، دبیرکل مجمع جهانی تقریب مذاهب طی سخنانی در نشست علمی «پیامد‌های اخلاقی هوش مصنوعی؛ ملاحظات اخلاقی در توسعه مسئولانه نظام‌های هوش مصنوعی» که امروز، ۱۶ اردیبهشت‌ماه در محل تالار ملل دانشکده مطالعات جهان دانشگاه تهران برگزار شد، گفت: در خصوص ملاحظات اخلاقی در حوزه هوش مصنوعی، ابتدا باید به یک پرسش فلسفی بنیادین اشاره کرد که نسبت انسان با ماشین‌های هوشمند چیست؟ این پرسش که آیا ماشین می‌تواند جایگزین انسان شود یا اینکه انسان خود به نوعی ماشین فلسفی تبدیل می‌شود، از منظر فلسفه اسلامی پاسخی منفی دارد. انسان هرگز توسط ماشین حتی اگر به هوشی قوی دست یابد و فیلم‌های هالیوودی آینده‌نگارانه‌ای از سرنوشت ماشین‌های هوشمند ساخته شود جایگزین نخواهد شد. نخستین دلیل فلسفی آن است که انسان افزون بر جسم و رفتار‌های جسمانی، از روح برخوردار است و این روح، وجه تمایز فلسفی او با ماشین محسوب می‌شود.

وی افزود: البته ممکن است انسان دچار نوعی ماشین‌وارگی یا سگ‌وارگی شود؛ بدین معنا که در برخی جوامع، ارتباط با حیوانات به مرحله نخستین ارتقا یافته و انسان‌ها ترجیح می‌دهند با سگ‌ها انس گیرند تا با همنوعان خود. به همین ترتیب، قابل پیش‌بینی است که در آینده برخی انسان‌ها ترجیح دهند با ماشین‌ها ارتباط برقرار کنند تا با سایر انسان‌ها. این پدیده نشان‌دهنده تنزلی در هویت انسانی است.

شهریاری ادامه داد: دومین پاسخ به این پرسش که آیا ماشین می‌تواند انسان شود، باز هم منفی است و به ماهیت کرامت انسانی بازمی‌گردد. کرامت احتمالاً غنی‌ترین مفهوم اخلاقی است که می‌توان در ملاحظات اخلاقی به کار گرفت. 15 تا 20 سال پیش در جلسات یونسکو در فرانسه درباره ملاحظات اخلاقی جامعه اطلاعاتی شرکت داشتم. در آن جلسات، یکی از مقامات قضایی دانمارک یا بلژیک با پورنوگرافی در وب مخالفت می‌کرد و برخلاف رویکرد رایج غربی که صرفاً به حمایت از کودکان و نوجوانان محدود می‌شود، استدلال می‌نمود که پورنوگرافی با کرامت و شرافت انسانی سازگار نیست. انسان دارای کرامت و شرف است و این مفهوم عامی است که در بسیاری از ملاحظات اخلاقی در حوزه‌های مهندسی و غیر مهندسی کاربرد دارد.

وی افزود: به نظر می‌رسد این مفهوم کلیدی‌ترین مفهوم فرادینی باشد که می‌توان از آن بهره جست، هرچند مستندات قرآنی و روایی نیز برای آن وجود دارد. بدین ترتیب، «ماشین‌وارگی» (یا همانندسازی رفتار انسان با ماشین) خلاف کرامت انسانی است. اگر بخواهیم درخت فضایل انسانی را ترسیم کنیم که تمام فضیلت‌ها از آن نشئت بگیرد، کرامت یا ریشه یا تنه آن درخت است.

شهریاری گفت: یکی از کاستی‌های مهم اسناد اخلاقی موجود این است که علمای اخلاق نتوانسته‌اند فضایل اخلاقی انسانی را طبقه‌بندی کنند؛ یعنی تعیین کنند بالاترین ارزش انسانی چیست که هیچ ارزش دیگری نباید فدای آن شود. برخی تقوا را نام برده‌اند، اما به نظر می‌رسد دو چیز در رأس هرم ارزش‌ها قرار دارند: نخست کرامت (که به عفت و شرافت انسان مربوط می‌شود) و دوم عدالت (که به ارتباط انسان با انسان مرتبط است). این دو مفهوم عام در تمام مجامع بین‌المللی قابل استناد هستند و مبانی اسلامی نیز آنها را تأیید می‌کند. طبقه‌بندی ارزش‌ها به ما امکان اولویت‌بندی در تخصیص منابع محدود را می‌دهد؛ مثلاً اینکه آیا هزینه‌ها صرف هوش مصنوعی شود یا صرف رفتار‌های اجتماعی.

وی افزود: در کتاب «اخلاق فناوری اطلاعات» پنج نکته در باب اخلاق هوش مصنوعی ذکر شده است. اما در اینجا باید به یک مبحث روش‌شناختی مهم اشاره کرد. هنگامی که از اخلاق کاربردی در یک حوزه خاص سخن می‌گوییم، صرف برشمردن فضایل کلی اخلاقی (مانند صداقت، شجاعت، امنیت و عدالت) کار حرفه‌ای نیست؛ زیرا این ارزش‌ها عام و مشترک میان همه حوزه‌ها هستند. برای مثال، صداقت و راستگویی در هوش مصنوعی نیز مانند هر عرصه دیگری باید رعایت شود، اما این امر اختصاص به هوش مصنوعی ندارد.

ملاحظات اخلاقی در هوش مصنوعی

وی ادامه داد: بنابراین ملاحظات اخلاقی در هوش مصنوعی به دو نوع تقسیم می‌شوند. نوع نخست، ملاحظاتی که به طور خاص به همان حوزه تعلق دارند؛ یعنی در حوزه‌های دیگر یا وجود ندارند یا بسیار محدودند. برای نمونه، در منابع غربی مانند کتاب راسل و دیگران، مفهوم «شفافیت» از جمله مفاهیم خاص حوزه هوش مصنوعی معرفی شده است که در بسیاری از کتاب‌ها بدان اشاره شده و از اولویت آماری برخوردار است. نوع دوم، ملاحظات عام اخلاقی (مانند صداقت) که مشروط بر آنکه در حوزه هوش مصنوعی خصوصیت ویژه‌ای پیدا کنند، قابل طرح هستند. در غیر این صورت، تمام ارزش‌های اخلاقی به طور یکسان باید در هوش مصنوعی رعایت شوند و ذکر مجدد آنها ضرورتی ندارد.

شهریاری بیان کرد: برای روشن‌تر شدن مطلب مثال حریم خصوصی را بررسی می‌کنیم. حریم خصوصی یک ارزش انسانی عام است و در همه جا باید رعایت شود. اما چرا در فناوری اطلاعات و به ویژه هوش مصنوعی، حریم خصوصی به عنوان یکی از برترین ملاحظات اخلاقی مطرح می‌شود؟ زیرا فناوری اطلاعات مربوط به حریم خصوصی را به میزان بی‌سابقه و قیاس‌ناپذیری در اختیار بشر قرار می‌دهد. پیش از فناوری اطلاعات، ورود به حریم خصوصی دیگران محدود بود (مثلاً نگاه کردن از پشت بام همسایه یا دسترسی به یک نامه کاغذی). اما پس از فناوری اطلاعات، تصرف در حریم خصوصی چنان گسترش و عمقی یافته که می‌توان گفت عملاً هیچ‌کس حریم خصوصی واقعی ندارد، مگر آنکه تصور کند دارد. اگر کسی به اطلاعات شخصی شما حساس شود و قصد دسترسی داشته باشد، به آسانی می‌تواند به آن دست یابد. این ویژگی خاص فناوری اطلاعات باعث می‌شود که حریم خصوصی به عنوان یک ملاحظه اخلاقی خاص در این حوزه ذکر شود (چه از نظر تغییر ماهیت، چه از نظر گسترش و عمق فزاینده).

وی افزود: بنابراین توصیه عالمان فلسفه اخلاق به تدوین‌کنندگان اسناد این است که هنگام نوشتن ملاحظات اخلاقی در یک حوزه کاربردی یا باید ویژگی‌های اختصاصی آن حوزه را بنویسند، یا آن دسته از ارزش‌های عام را که در آن حوزه خصوصیتی ویژه پیدا کرده‌اند.

شهریاری ادامه داد: در ادامه گفتار قبلی، اکنون به چند اصل اساسی اشاره می‌شود که برخی از آنها توسط همکاران مطرح شده است. بر مبنای این هفت اصل و سپس ارزش‌های محوری ملاحظات اصلی در هوش مصنوعی به جمع‌بندی می‌پردازیم. اصل نخست آنکه هوش مصنوعی در مسیر توسعه خود نباید با وجدانیات خیر و شر بشریت منافات پیدا کند. مقصود از بشر تمامی انسان‌هاست و دانشی که بشر نسبت به خیر و شر دارد، باید هنگام توسعه هوش مصنوعی محترم شمرده شود. اصل دوم تأکید بر خودتنظیم‌گری است. صرف تدوین اصول و ملاحظات اخلاقی، تا زمانی که عاملان و دست‌اندرکاران این حوزه الزامات درونی نیافته باشند، کافی نیست. مقررات بیرونی بدون انگیزه‌های درونی نمی‌توانند فناوری را در مسیر خیر و خدمت به بشریت هدایت کنند.

وی ادامه داد: اصل سوم داده‌های انسانی خطاپذیرند. باید از این امر پرهیز شود که داده‌های خطاپذیر منشأ هوشمندی دستگاه قرار گیرند. این اصل به یک الزام مهندسی تبدیل می‌شود. اصل چهارم اینکه هوش مصنوعی نباید موجب ضرر و زیان شود. اینکه در موارد تزاحم منافع (ضرر یکی در مقابل منفعت دیگری) چه باید کرد، نیاز به بررسی جداگانه دارد. مهندسان، سیاستمداران، حاکمان و سرمایه‌گذاران چهار نهادی هستند که باید رعایت این اصل را بررسی کنند. اصل پنجم اصول و قواعد پیشینی است که مقبولیت همگانی دارند و نیز ملاحظات خاص (همانند عدالت) باید رعایت شوند.

شهریاری افزود: اصل ششم ضرورت آینده‌نگاری است. باید مطالعه کرد که هوش مصنوعی به کدام سو در حرکت است. بدون شناخت مسیر آینده نمی‌توان ملاحظات اخلاقی آن را بیان کرد؛ بنابراین عالمان فلسفه اخلاق در حوزه هوش مصنوعی نیازمند دانش آینده‌نگاران هستند تا مسیر تحولات را روشن سازند. اصل هفتم نیز پیشگیری از انحصار است. بر مبنای این هفت اصل، هفت ارزش مورد تأکید قرار می‌گیرد. نخستین ارزش شفافیت است. یعنی کاربر باید بداند طراحی سیستم هوشمند چه اهدافی را دنبال می‌کند، چه اصولی بر آن حاکم است، و آیا سوگیری خاصی در پس نمایش واقعیت وجود دارد یا نه. شفافیت بدین معناست که هر سازنده ماشینی باید اهداف خود را آشکارا اعلام کند. الزامی نیست که سوگیری وجود نداشته باشد (چرا که همگان دارای سوگیری هستند)، اما باید آن سوگیری اعلام گردد.

وی گفت: ارزش دوم در واقع زنجیره‌ای از سه مؤلفه به ترتیب اهمیت یعنی ارزیابی خطرها، مهارپذیری خطر‌ها و جبران خسارات است. کاربر باید بتواند میزان خطرناکی ماشین و موقعیت‌های خطر آن را ارزیابی کند. سپس ابزار‌هایی در اختیار داشته باشد تا خطر را مهار کند.(برای نمونه، ماشینی که همزمان عکس می‌گیرد و شلیک می‌کند، باید قابل مهار باشد) و در نهایت، اگر خطایی رخ داد، امکان جبران ضرر و زیان و آن خطر باید فراهم شود. این سه مؤلفه به صورت زنجیره‌ای طراحی شده‌اند. توضیحات بیشتری در این باره وجود دارد که به دلیل محدودیت زمان ارائه نشد.

وی بیان کرد: در ادامه مباحث پیشین، اصل مهم دیگر حمایت از حیات، سلامت و رفاه عمومی است. بدین معنا که حتی در ساخت ابزار‌های جنگی و سامانه‌های هوشمند نظامی نباید به گونه‌ای طراحی شوند که محیط انسانی و جغرافیای زمین را به مخاطره اندازند. امروزه روش‌های نقطه‌زنی دقیق هرچند خسارات انسانی مشخص و معینی به همراه دارند، اما باید به گونه‌ای هوشمندانه رعایت شوند که آسیب‌های جانبی به حداقل برسد.

توجه به عواطف انسانی در عرضه کالا و خدمات

وی افزود: از دیگر اصول ضروری، توجه به عواطف انسانی در عرضه کالا و خدمات است. بدین معنا که نباید با احساسات انسان‌ها بازی شود و یا افراد به اجبار به خرید کالا یا استفاده از خدماتی وادار شوند که امکان انتخاب آزادانه از آنها سلب شده باشد. انسان‌ها برخلاف ماشین‌ها دارای عواطف و احساسات هستند. هر اندازه که ماشین هوشمند پیشرفت کند، هرگز دردی چه جسمی و چه روحی احساس نخواهد کرد. اما انسان دارای درد جسمی و رنج روحی است؛ بنابراین کالا‌ها و خدماتی که ارائه می‌شوند باید به این عواطف انسانی توجه داشته باشند.

وی اظهار کرد: نکته بعدی ضرورت ایجاد یک سازوکار نظارتی بر رفتار ربات‌ها و ماشین‌های هوشمند است. از آنجا که آینده این فناوری‌ها به طور قطعی قابل پیش‌بینی نیست و آینده‌پژوهان صرفاً احتمالاتی را مطرح می‌کنند، لازم است یک ناظر جهانی (با نظام طبقه‌بندی مناسب) وجود داشته باشد. این ناظر جهانی روند تحولات را پایش کرده، در صورت لزوم به موقع تصمیم‌گیری نماید و از بروز مشکلات و بحران‌های احتمالی پیش از وقوع جلوگیری کند.

انتهای پیام