کد خبر: 4189451
تاریخ انتشار : ۰۳ دی ۱۴۰۲ - ۰۹:۳۳

راهکارهای مقابله با چالش‌های اخلاقی هوش مصنوعی

یک پژوهشگر فضای سایبر درباره راهکارهای مقابله با چالش‌های اخلاقی هوش مصنوعی گفت: در این زمینه می‌توان از نظارت و ارزیابی مداوم بر روی عملکرد و اثرات هوش مصنوعی بر جامعه استفاده و از احترام و حفظ حقوق و منافع انسان‌ها در برابر هوش مصنوعی اطمینان حاصل کرد.

هوش مصنوعیاسماعیل کفاشی، دکترای فضای سایبر در گفت‌وگو با ایکنا درباره چالش‌های هوش مصنوعی در حوزه رسانه گفت: فناوری‌های نوظهور جدید به ویژه هوش مصنوعی که یک فناوری نوظهور و برهم زن است و جامعه را به سمت خروج از حاکمیت پیش می‌برد، یک موضوع VUCA است، یعنی عدم قطعیت داشته و مبهم است، در حال توسعه و رشد سریع بوده و با پیچیدگی بسیار همراه است، لیکن هوش مصنوعی در حوزه رسانه و اخلاق رسانه‌ای چالش‌های گسترده و فرصت‌های متعددی را ایجاد کرده است. یکی از این چالش‌ها، تأثیر هوش مصنوعی بر شغل و کیفیت روزنامه‌نگاران و محتوا‌سازان است که باعث شده برخی تولیدکنندگان با توجه به استفاده گسترده و قدرت هوش مصنوعی از کار بیکار شده یا خواهند شد.

وی افزود: اختلافات قانونی و نظارتی بین سازمان‌های رسانه‌ای و شرکت‌های فناوری در مورد مالکیت و مجوز محتوای تولید شده توسط هوش مصنوعی که خود از مهمترین چالش‌های حوزه مالکیت معنوی اثر است و عدم آشنایی با توانایی‌های هوش مصنوعی و اعتماد بی‌جا به محتوای تولید شده توسط آن به ویژه برای مخاطبانی که آشنایی کافی با آن را ندارند، موجب چالش‌های جدی خواهد شد. بنابراین در این زمینه آگاه‌سازی و آموزش سواد رسانه‌ای به مخاطبان و کاربران در راستای محتوای تولید شده توسط هوش مصنوعی برای عدم ایجاد سوگیری شناختی در مخاطبان ضروری است.

کفاشی ادامه داد: نیاز به استفاده از هوش مصنوعی برای پاسخگویی به شبهات و چالش‌های جدید در حوزه دین و مذهب، عدم دستیابی هوش مصنوعی به اطلاعات روز با توجه به تحریم‌های موجود علیه ملت ایران، فقدان دقت در اطلاعات و تفاوت پاسخ هوش مصنوعی به سوالات مشابه با زبان‌های مختلف(برای مثال فارسی و انگلیسی) با توجه به جستجو در استخر داده‌های متفاوت، استفاده از محتوای تولید شده توسط دیگران در فضای مجازی و عدم اخذ مجوز برای استفاده از آن‌ها توسط هوش مصنوعی، عدم تجمیع محتوایی هوش مصنوعی در یک تکنولوژی و تفکیک حوزه‌های مختلف تولید محتوا و در نتیجه عدم آشنایی فعالان حوزه رسانه با این سامانه‌ها، قدرت هوش مصنوعی در پردازش اطلاعات و تولید محتوا، اما فاقد خلاقیت انسانی لازم و فقدان قوانین لازم در موضوعات و چالش‌های حقوقی حوزه رسانه، هوش مصنوعی و نیروی انسانی از چالش‌های دیگر هوش مصنوعی در حوزه رسانه است.

فرصت‌های هوش مصنوعی برای ارتقای صنعت رسانه 

این پژوهشگر فضای مجازی در ادامه با بیان اینکه هوش مصنوعی فرصت‌هایی را نیز برای ارتقای صنعت رسانه فراهم کرده است، تصریح کرد: کاهش هزینه‌های عملیاتی و افزایش بهره‌وری و سرعت در تولید محتوا، ایجاد محتوای جذاب با استفاده از الگوریتم‌های هوش مصنوعی و در بسیاری موارد شبیه انسان، ارائه خدمات و محتوای شخصی‌سازی شده و متناسب با نیاز‌ها و علایق مخاطبان (شخصی‌سازی customize شدن محتوا برای مخاطب)، بهبود ارتباط و تعامل با مخاطبان و کاربران با استفاده از ربات‌های گفت‌وگوی هوشمند، بصری‌سازی اطلاعات و داده‌های مربوط به موضوعات مختلف تخصصی برای رسانه‌ها به صورت نمودار، گراف، اینفوگرافیک و ... از روی داده‌های بزرگ(بیگ دیتا) برای فهم بیشتر روند‌ها و ایجاد تصویر بزرگ (big picture) از موضوعات مختلف برای مخاطبان، فیلتر کردن مخاطبان و ایجاد حباب اطلاعاتی برای انداختن مخاطب در مارپیچ سکوت در موضوعات رسانه‌ای و شناختی و آنالیز رفتار مخاطبان براساس رفتارشان در شبکه‌های اجتماعی و رسانه‌های تعاملی برای دسته بندی آنان در موضوعات شناختی از جمله فرصت‌هایی است که هوش مصنوعی برای حوزه رسانه فراهم می‌کند.

وی همچنین اخلاق در حوزه هوش مصنوعی را مورد اشاره قرار داد و بیان کرد: اخلاق در حوزه هوش مصنوعی مهم است؛ چراکه فناوری هوش مصنوعی برای تقویت یا جایگزینی هوش انسانی طراحی شده است. وقتی فناوری برای تکرار زندگی انسان طراحی شده است، همان مسائلی که می‌تواند قضاوت انسان را مخفی کند، می‌تواند به فناوری نفوذ کند. (به عبارت دیگر، فناوری هوش مصنوعی ممکن است از همان عواملی که می‌توانند قضاوت انسان را تحت تأثیر قرار دهند، متأثر شود. برای مثال، اگر داده‌هایی که هوش مصنوعی از آن‌ها یاد می‌گیرد، دارای تعصب یا تبعیض باشند، هوش مصنوعی نیز ممکن است تصمیمات تعصبی یا تبعیض‌آمیز بگیرد. این می‌تواند به ناعادلانه بودن و آسیب رساندن به افراد یا گروه‌های خاص منجر شود).

چالش‌های اخلاقی هوش مصنوعی

کفاشی با اشاره به برخی از چالش‌های اخلاقی هوش مصنوعی گفت: تعصب و تبعیض در الگوریتم‌ها یکی از چالش‌های اخلاقی است که اگر داده‌های آموزشی تعصب یا تبعیض داشته باشند، الگوریتم نیز همان تعصب را خواهد داشت. این می‌تواند به تصمیم‌گیری‌های ناعادلانه و ضرر به افراد یا گروه‌های خاص منجر شود. همچنین حریم خصوصی و امنیت داده‌ها نیز حائز اهمیت است و هوش مصنوعی به اطلاعات شخصی افراد برای یادگیری نیاز دارد. این اطلاعات می‌تواند بدون رضایت یا اطلاع آن‌ها جمع‌آوری، ذخیره، استفاده یا در برخی موارد سوءاستفاده شود؛ این موضوع می‌تواند حریم خصوصی و حقوق افراد را نقض کند.

این پژوهشگر حوزه رسانه شفافیت الگوریتم‌ها را به عنوان یکی از چالش‌های اخلاقی هوش مصنوعی دانست و افزود: برخی از الگوریتم‌های هوش مصنوعی بسیار پیچیده و غیرقابل‌ درک هستند. این باعث می‌شود که رفتار و تصمیم‌گیری آن‌ها پیش‌بینی‌ناپذیر و توجیه‌ناپذیر باشد. این موضوع همچنین می‌تواند به عدم اعتماد، عدم پاسخگویی و عدم مسئولیت‌پذیری منجر شود. در رابطه با اثرات اجتماعی و اقتصادی نیز هوش مصنوعی می‌تواند بر روی شغل، توزیع درآمد، رفاه، ارزش‌ها، فرهنگ و انسانیت تأثیرگذار باشد که به ایجاد فرصت‌ها یا چالش‌های جدید برای انسان‌ها منجر خواهد شد. برای مثال، هوش مصنوعی می‌تواند برخی از شغل‌ها را خودکارسازی کرده و افراد را بیکار یا نیازمند مهارت‌های جدید کند که این موضوع باعث ایجاد اثر شناختی روی انسان‌ها در حوزه عدم رعایت حقوق و اخلاق می‌شود.

وی در پاسخ به سؤالی درباره راهکار مقابله با چالش‌های اخلاقی هوش مصنوعی بیان کرد: در این راستا نیاز به توجه و بررسی دقیق‌تر داریم که باید از اصول و قوانین اخلاقی برای طراحی، توسعه و استفاده از هوش مصنوعی استفاده کنیم. همچنین از مشارکت و همکاری بین دانشمندان، متخصصان، مسئولان، کاربران و ذی‌نفعان از زمینه‌های مختلف برای تضمین هوش مصنوعی مسئولانه و اخلاقی بهره‌برداری کنیم. آموزش و آگاهی‌بخشی به مردم درباره هوش مصنوعی و اخلاق آن نیز یکی از موارد تأثیرگذار در این حوزه است. همچنین می‌توان از نظارت و ارزیابی مداوم بر روی عملکرد و اثرات هوش مصنوعی بر جامعه استفاده و از احترام و حفظ حقوق و منافع انسان‌ها در برابر هوش مصنوعی اطمینان حاصل کرد.

گفت‌وگو از سمیه قربانی

انتهای پیام
captcha