به گزارش خبرنگار ایکنا، حجتالاسلام حمید شهریاری، دبیرکل مجمع جهانی تقریب مذاهب طی سخنانی در نشست علمی «پیامدهای اخلاقی هوش مصنوعی؛ ملاحظات اخلاقی در توسعه مسئولانه نظامهای هوش مصنوعی» که امروز، ۱۶ اردیبهشتماه در محل تالار ملل دانشکده مطالعات جهان دانشگاه تهران برگزار شد، گفت: در خصوص ملاحظات اخلاقی در حوزه هوش مصنوعی، ابتدا باید به یک پرسش فلسفی بنیادین اشاره کرد که نسبت انسان با ماشینهای هوشمند چیست؟ این پرسش که آیا ماشین میتواند جایگزین انسان شود یا اینکه انسان خود به نوعی ماشین فلسفی تبدیل میشود، از منظر فلسفه اسلامی پاسخی منفی دارد. انسان هرگز توسط ماشین حتی اگر به هوشی قوی دست یابد و فیلمهای هالیوودی آیندهنگارانهای از سرنوشت ماشینهای هوشمند ساخته شود جایگزین نخواهد شد. نخستین دلیل فلسفی آن است که انسان افزون بر جسم و رفتارهای جسمانی، از روح برخوردار است و این روح، وجه تمایز فلسفی او با ماشین محسوب میشود.
وی افزود: البته ممکن است انسان دچار نوعی ماشینوارگی یا سگوارگی شود؛ بدین معنا که در برخی جوامع، ارتباط با حیوانات به مرحله نخستین ارتقا یافته و انسانها ترجیح میدهند با سگها انس گیرند تا با همنوعان خود. به همین ترتیب، قابل پیشبینی است که در آینده برخی انسانها ترجیح دهند با ماشینها ارتباط برقرار کنند تا با سایر انسانها. این پدیده نشاندهنده تنزلی در هویت انسانی است.
شهریاری ادامه داد: دومین پاسخ به این پرسش که آیا ماشین میتواند انسان شود، باز هم منفی است و به ماهیت کرامت انسانی بازمیگردد. کرامت احتمالاً غنیترین مفهوم اخلاقی است که میتوان در ملاحظات اخلاقی به کار گرفت. 15 تا 20 سال پیش در جلسات یونسکو در فرانسه درباره ملاحظات اخلاقی جامعه اطلاعاتی شرکت داشتم. در آن جلسات، یکی از مقامات قضایی دانمارک یا بلژیک با پورنوگرافی در وب مخالفت میکرد و برخلاف رویکرد رایج غربی که صرفاً به حمایت از کودکان و نوجوانان محدود میشود، استدلال مینمود که پورنوگرافی با کرامت و شرافت انسانی سازگار نیست. انسان دارای کرامت و شرف است و این مفهوم عامی است که در بسیاری از ملاحظات اخلاقی در حوزههای مهندسی و غیر مهندسی کاربرد دارد.
وی افزود: به نظر میرسد این مفهوم کلیدیترین مفهوم فرادینی باشد که میتوان از آن بهره جست، هرچند مستندات قرآنی و روایی نیز برای آن وجود دارد. بدین ترتیب، «ماشینوارگی» (یا همانندسازی رفتار انسان با ماشین) خلاف کرامت انسانی است. اگر بخواهیم درخت فضایل انسانی را ترسیم کنیم که تمام فضیلتها از آن نشئت بگیرد، کرامت، ریشه یا تنه آن درخت است.
شهریاری گفت: یکی از کاستیهای مهم اسناد اخلاقی موجود این است که علمای اخلاق نتوانستهاند فضایل اخلاقی انسانی را طبقهبندی کنند؛ یعنی تعیین کنند بالاترین ارزش انسانی چیست که هیچ ارزش دیگری نباید فدای آن شود. برخی تقوا را نام بردهاند، اما به نظر میرسد دو چیز در رأس هرم ارزشها قرار دارند: نخست کرامت (که به عفت و شرافت انسان مربوط میشود) و دوم عدالت (که به ارتباط انسان با انسان مرتبط است). این دو مفهوم عام در تمام مجامع بینالمللی قابل استناد هستند و مبانی اسلامی نیز آنها را تأیید میکند. طبقهبندی ارزشها به ما امکان اولویتبندی در تخصیص منابع محدود را میدهد؛ مثلاً اینکه آیا هزینهها صرف هوش مصنوعی شود یا صرف رفتارهای اجتماعی.
وی افزود: در کتاب «اخلاق فناوری اطلاعات» پنج نکته در باب اخلاق هوش مصنوعی ذکر شده است. اما در اینجا باید به یک مبحث روششناختی مهم اشاره کرد. هنگامی که از اخلاق کاربردی در یک حوزه خاص سخن میگوییم، صرف برشمردن فضایل کلی اخلاقی (مانند صداقت، شجاعت، امنیت و عدالت) کار حرفهای نیست؛ زیرا این ارزشها عام و مشترک میان همه حوزهها هستند. برای مثال، صداقت و راستگویی در هوش مصنوعی نیز مانند هر عرصه دیگری باید رعایت شود، اما این امر اختصاص به هوش مصنوعی ندارد.
ملاحظات اخلاقی در هوش مصنوعی
وی ادامه داد: بنابراین ملاحظات اخلاقی در هوش مصنوعی به دو نوع تقسیم میشوند. نوع نخست، ملاحظاتی که به طور خاص به همان حوزه تعلق دارند؛ یعنی در حوزههای دیگر یا وجود ندارند یا بسیار محدودند. برای نمونه، در منابع غربی مانند کتاب راسل و دیگران، مفهوم «شفافیت» از جمله مفاهیم خاص حوزه هوش مصنوعی معرفی شده است که در بسیاری از کتابها بدان اشاره شده و از اولویت آماری برخوردار است. نوع دوم، ملاحظات عام اخلاقی (مانند صداقت) که مشروط بر آنکه در حوزه هوش مصنوعی خصوصیت ویژهای پیدا کنند، قابل طرح هستند. در غیر این صورت، تمام ارزشهای اخلاقی به طور یکسان باید در هوش مصنوعی رعایت شوند و ذکر مجدد آنها ضرورتی ندارد.
شهریاری بیان کرد: برای روشنتر شدن مطلب مثال حریم خصوصی را بررسی میکنیم. حریم خصوصی یک ارزش انسانی عام است و در همه جا باید رعایت شود. اما چرا در فناوری اطلاعات و به ویژه هوش مصنوعی، حریم خصوصی به عنوان یکی از برترین ملاحظات اخلاقی مطرح میشود؟ زیرا فناوری اطلاعات مربوط به حریم خصوصی را به میزان بیسابقه و قیاسناپذیری در اختیار بشر قرار میدهد. پیش از فناوری اطلاعات، ورود به حریم خصوصی دیگران محدود بود (مثلاً نگاه کردن از پشت بام همسایه یا دسترسی به یک نامه کاغذی). اما پس از فناوری اطلاعات، تصرف در حریم خصوصی چنان گسترش و عمقی یافته که میتوان گفت عملاً هیچکس حریم خصوصی واقعی ندارد، مگر آنکه تصور کند دارد. اگر کسی به اطلاعات شخصی شما حساس شود و قصد دسترسی داشته باشد، به آسانی میتواند به آن دست یابد. این ویژگی خاص فناوری اطلاعات باعث میشود که حریم خصوصی به عنوان یک ملاحظه اخلاقی خاص در این حوزه ذکر شود (چه از نظر تغییر ماهیت، چه از نظر گسترش و عمق فزاینده).
وی افزود: بنابراین توصیه عالمان فلسفه اخلاق به تدوینکنندگان اسناد این است که هنگام نوشتن ملاحظات اخلاقی در یک حوزه کاربردی یا باید ویژگیهای اختصاصی آن حوزه را بنویسند، یا آن دسته از ارزشهای عام را که در آن حوزه خصوصیتی ویژه پیدا کردهاند.
شهریاری ادامه داد: در ادامه گفتار قبلی، اکنون به چند اصل اساسی اشاره میشود که برخی از آنها توسط همکاران مطرح شده است. بر مبنای این هفت اصل و سپس ارزشهای محوری ملاحظات اصلی در هوش مصنوعی به جمعبندی میپردازیم. اصل نخست آنکه هوش مصنوعی در مسیر توسعه خود نباید با وجدانیات خیر و شر بشریت منافات پیدا کند. مقصود از بشر تمامی انسانهاست و دانشی که بشر نسبت به خیر و شر دارد، باید هنگام توسعه هوش مصنوعی محترم شمرده شود. اصل دوم تأکید بر خودتنظیمگری است. صرف تدوین اصول و ملاحظات اخلاقی، تا زمانی که عاملان و دستاندرکاران این حوزه الزامات درونی نیافته باشند، کافی نیست. مقررات بیرونی بدون انگیزههای درونی نمیتوانند فناوری را در مسیر خیر و خدمت به بشریت هدایت کنند.
وی ادامه داد: اصل سوم دادههای انسانی خطاپذیرند. باید از این امر پرهیز شود که دادههای خطاپذیر منشأ هوشمندی دستگاه قرار گیرند. این اصل به یک الزام مهندسی تبدیل میشود. اصل چهارم اینکه هوش مصنوعی نباید موجب ضرر و زیان شود. اینکه در موارد تزاحم منافع (ضرر یکی در مقابل منفعت دیگری) چه باید کرد، نیاز به بررسی جداگانه دارد. مهندسان، سیاستمداران، حاکمان و سرمایهگذاران چهار نهادی هستند که باید رعایت این اصل را بررسی کنند. اصل پنجم اصول و قواعد پیشینی است که مقبولیت همگانی دارند و نیز ملاحظات خاص (همانند عدالت) باید رعایت شوند.
شهریاری افزود: اصل ششم ضرورت آیندهنگاری است. باید مطالعه کرد که هوش مصنوعی به کدام سو در حرکت است. بدون شناخت مسیر آینده نمیتوان ملاحظات اخلاقی آن را بیان کرد؛ بنابراین عالمان فلسفه اخلاق در حوزه هوش مصنوعی نیازمند دانش آیندهنگاران هستند تا مسیر تحولات را روشن سازند. اصل هفتم نیز پیشگیری از انحصار است. بر مبنای این هفت اصل، هفت ارزش مورد تأکید قرار میگیرد. نخستین ارزش شفافیت است. یعنی کاربر باید بداند طراحی سیستم هوشمند چه اهدافی را دنبال میکند، چه اصولی بر آن حاکم است، و آیا سوگیری خاصی در پس نمایش واقعیت وجود دارد یا نه. شفافیت بدین معناست که هر سازنده ماشینی باید اهداف خود را آشکارا اعلام کند. الزامی نیست که سوگیری وجود نداشته باشد (چرا که همگان دارای سوگیری هستند)، اما باید آن سوگیری اعلام گردد.
وی گفت: ارزش دوم در واقع زنجیرهای از سه مؤلفه به ترتیب اهمیت یعنی ارزیابی خطرها، مهارپذیری خطرها و جبران خسارات است. کاربر باید بتواند میزان خطرناکی ماشین و موقعیتهای خطر آن را ارزیابی کند. سپس ابزارهایی در اختیار داشته باشد تا خطر را مهار کند.(برای نمونه، ماشینی که همزمان عکس میگیرد و شلیک میکند، باید قابل مهار باشد) و در نهایت، اگر خطایی رخ داد، امکان جبران ضرر و زیان و آن خطر باید فراهم شود. این سه مؤلفه به صورت زنجیرهای طراحی شدهاند. توضیحات بیشتری در این باره وجود دارد که به دلیل محدودیت زمان ارائه نشد.
وی بیان کرد: در ادامه مباحث پیشین، اصل مهم دیگر حمایت از حیات، سلامت و رفاه عمومی است. بدین معنا که حتی در ساخت ابزارهای جنگی و سامانههای هوشمند نظامی نباید به گونهای طراحی شوند که محیط انسانی و جغرافیای زمین را به مخاطره اندازند. امروزه روشهای نقطهزنی دقیق هرچند خسارات انسانی مشخص و معینی به همراه دارند، اما باید به گونهای هوشمندانه رعایت شوند که آسیبهای جانبی به حداقل برسد.
توجه به عواطف انسانی در عرضه کالا و خدمات
وی افزود: از دیگر اصول ضروری، توجه به عواطف انسانی در عرضه کالا و خدمات است. بدین معنا که نباید با احساسات انسانها بازی شود و یا افراد به اجبار به خرید کالا یا استفاده از خدماتی وادار شوند که امکان انتخاب آزادانه از آنها سلب شده باشد. انسانها برخلاف ماشینها دارای عواطف و احساسات هستند. هر اندازه که ماشین هوشمند پیشرفت کند، هرگز دردی چه جسمی و چه روحی احساس نخواهد کرد. اما انسان دارای درد جسمی و رنج روحی است؛ بنابراین کالاها و خدماتی که ارائه میشوند باید به این عواطف انسانی توجه داشته باشند.
وی در پایان اظهار کرد: نکته بعدی ضرورت ایجاد یک سازوکار نظارتی بر رفتار رباتها و ماشینهای هوشمند است. از آنجا که آینده این فناوریها به طور قطعی قابل پیشبینی نیست و آیندهپژوهان صرفاً احتمالاتی را مطرح میکنند، لازم است یک ناظر جهانی (با نظام طبقهبندی مناسب) وجود داشته باشد. این ناظر جهانی روند تحولات را پایش کرده، در صورت لزوم به موقع تصمیمگیری نماید و از بروز مشکلات و بحرانهای احتمالی پیش از وقوع جلوگیری کند.