اسماعیل کفاشی، دکترای فضای سایبر در گفتوگو با ایکنا درباره چالشهای هوش مصنوعی در حوزه رسانه گفت: فناوریهای نوظهور جدید به ویژه هوش مصنوعی که یک فناوری نوظهور و برهم زن است و جامعه را به سمت خروج از حاکمیت پیش میبرد، یک موضوع VUCA است، یعنی عدم قطعیت داشته و مبهم است، در حال توسعه و رشد سریع بوده و با پیچیدگی بسیار همراه است، لیکن هوش مصنوعی در حوزه رسانه و اخلاق رسانهای چالشهای گسترده و فرصتهای متعددی را ایجاد کرده است. یکی از این چالشها، تأثیر هوش مصنوعی بر شغل و کیفیت روزنامهنگاران و محتواسازان است که باعث شده برخی تولیدکنندگان با توجه به استفاده گسترده و قدرت هوش مصنوعی از کار بیکار شده یا خواهند شد.
وی افزود: اختلافات قانونی و نظارتی بین سازمانهای رسانهای و شرکتهای فناوری در مورد مالکیت و مجوز محتوای تولید شده توسط هوش مصنوعی که خود از مهمترین چالشهای حوزه مالکیت معنوی اثر است و عدم آشنایی با تواناییهای هوش مصنوعی و اعتماد بیجا به محتوای تولید شده توسط آن به ویژه برای مخاطبانی که آشنایی کافی با آن را ندارند، موجب چالشهای جدی خواهد شد. بنابراین در این زمینه آگاهسازی و آموزش سواد رسانهای به مخاطبان و کاربران در راستای محتوای تولید شده توسط هوش مصنوعی برای عدم ایجاد سوگیری شناختی در مخاطبان ضروری است.
کفاشی ادامه داد: نیاز به استفاده از هوش مصنوعی برای پاسخگویی به شبهات و چالشهای جدید در حوزه دین و مذهب، عدم دستیابی هوش مصنوعی به اطلاعات روز با توجه به تحریمهای موجود علیه ملت ایران، فقدان دقت در اطلاعات و تفاوت پاسخ هوش مصنوعی به سوالات مشابه با زبانهای مختلف(برای مثال فارسی و انگلیسی) با توجه به جستجو در استخر دادههای متفاوت، استفاده از محتوای تولید شده توسط دیگران در فضای مجازی و عدم اخذ مجوز برای استفاده از آنها توسط هوش مصنوعی، عدم تجمیع محتوایی هوش مصنوعی در یک تکنولوژی و تفکیک حوزههای مختلف تولید محتوا و در نتیجه عدم آشنایی فعالان حوزه رسانه با این سامانهها، قدرت هوش مصنوعی در پردازش اطلاعات و تولید محتوا، اما فاقد خلاقیت انسانی لازم و فقدان قوانین لازم در موضوعات و چالشهای حقوقی حوزه رسانه، هوش مصنوعی و نیروی انسانی از چالشهای دیگر هوش مصنوعی در حوزه رسانه است.
این پژوهشگر فضای مجازی در ادامه با بیان اینکه هوش مصنوعی فرصتهایی را نیز برای ارتقای صنعت رسانه فراهم کرده است، تصریح کرد: کاهش هزینههای عملیاتی و افزایش بهرهوری و سرعت در تولید محتوا، ایجاد محتوای جذاب با استفاده از الگوریتمهای هوش مصنوعی و در بسیاری موارد شبیه انسان، ارائه خدمات و محتوای شخصیسازی شده و متناسب با نیازها و علایق مخاطبان (شخصیسازی customize شدن محتوا برای مخاطب)، بهبود ارتباط و تعامل با مخاطبان و کاربران با استفاده از رباتهای گفتوگوی هوشمند، بصریسازی اطلاعات و دادههای مربوط به موضوعات مختلف تخصصی برای رسانهها به صورت نمودار، گراف، اینفوگرافیک و ... از روی دادههای بزرگ(بیگ دیتا) برای فهم بیشتر روندها و ایجاد تصویر بزرگ (big picture) از موضوعات مختلف برای مخاطبان، فیلتر کردن مخاطبان و ایجاد حباب اطلاعاتی برای انداختن مخاطب در مارپیچ سکوت در موضوعات رسانهای و شناختی و آنالیز رفتار مخاطبان براساس رفتارشان در شبکههای اجتماعی و رسانههای تعاملی برای دسته بندی آنان در موضوعات شناختی از جمله فرصتهایی است که هوش مصنوعی برای حوزه رسانه فراهم میکند.
وی همچنین اخلاق در حوزه هوش مصنوعی را مورد اشاره قرار داد و بیان کرد: اخلاق در حوزه هوش مصنوعی مهم است؛ چراکه فناوری هوش مصنوعی برای تقویت یا جایگزینی هوش انسانی طراحی شده است. وقتی فناوری برای تکرار زندگی انسان طراحی شده است، همان مسائلی که میتواند قضاوت انسان را مخفی کند، میتواند به فناوری نفوذ کند. (به عبارت دیگر، فناوری هوش مصنوعی ممکن است از همان عواملی که میتوانند قضاوت انسان را تحت تأثیر قرار دهند، متأثر شود. برای مثال، اگر دادههایی که هوش مصنوعی از آنها یاد میگیرد، دارای تعصب یا تبعیض باشند، هوش مصنوعی نیز ممکن است تصمیمات تعصبی یا تبعیضآمیز بگیرد. این میتواند به ناعادلانه بودن و آسیب رساندن به افراد یا گروههای خاص منجر شود).
کفاشی با اشاره به برخی از چالشهای اخلاقی هوش مصنوعی گفت: تعصب و تبعیض در الگوریتمها یکی از چالشهای اخلاقی است که اگر دادههای آموزشی تعصب یا تبعیض داشته باشند، الگوریتم نیز همان تعصب را خواهد داشت. این میتواند به تصمیمگیریهای ناعادلانه و ضرر به افراد یا گروههای خاص منجر شود. همچنین حریم خصوصی و امنیت دادهها نیز حائز اهمیت است و هوش مصنوعی به اطلاعات شخصی افراد برای یادگیری نیاز دارد. این اطلاعات میتواند بدون رضایت یا اطلاع آنها جمعآوری، ذخیره، استفاده یا در برخی موارد سوءاستفاده شود؛ این موضوع میتواند حریم خصوصی و حقوق افراد را نقض کند.
این پژوهشگر حوزه رسانه شفافیت الگوریتمها را به عنوان یکی از چالشهای اخلاقی هوش مصنوعی دانست و افزود: برخی از الگوریتمهای هوش مصنوعی بسیار پیچیده و غیرقابل درک هستند. این باعث میشود که رفتار و تصمیمگیری آنها پیشبینیناپذیر و توجیهناپذیر باشد. این موضوع همچنین میتواند به عدم اعتماد، عدم پاسخگویی و عدم مسئولیتپذیری منجر شود. در رابطه با اثرات اجتماعی و اقتصادی نیز هوش مصنوعی میتواند بر روی شغل، توزیع درآمد، رفاه، ارزشها، فرهنگ و انسانیت تأثیرگذار باشد که به ایجاد فرصتها یا چالشهای جدید برای انسانها منجر خواهد شد. برای مثال، هوش مصنوعی میتواند برخی از شغلها را خودکارسازی کرده و افراد را بیکار یا نیازمند مهارتهای جدید کند که این موضوع باعث ایجاد اثر شناختی روی انسانها در حوزه عدم رعایت حقوق و اخلاق میشود.
وی در پاسخ به سؤالی درباره راهکار مقابله با چالشهای اخلاقی هوش مصنوعی بیان کرد: در این راستا نیاز به توجه و بررسی دقیقتر داریم که باید از اصول و قوانین اخلاقی برای طراحی، توسعه و استفاده از هوش مصنوعی استفاده کنیم. همچنین از مشارکت و همکاری بین دانشمندان، متخصصان، مسئولان، کاربران و ذینفعان از زمینههای مختلف برای تضمین هوش مصنوعی مسئولانه و اخلاقی بهرهبرداری کنیم. آموزش و آگاهیبخشی به مردم درباره هوش مصنوعی و اخلاق آن نیز یکی از موارد تأثیرگذار در این حوزه است. همچنین میتوان از نظارت و ارزیابی مداوم بر روی عملکرد و اثرات هوش مصنوعی بر جامعه استفاده و از احترام و حفظ حقوق و منافع انسانها در برابر هوش مصنوعی اطمینان حاصل کرد.
گفتوگو از سمیه قربانی
انتهای پیام