چالش های اخلاقی در رسانه های نوین
به گزارش خبرنگار سرویس فرهنگی و اجتماعی خبرگزاری رسا، نشست تخصصی «رسانه هاي نوین و چالش هاي اخلاقی» ذیل همایش ملی «دین فرهنگ و رسانه های نوین» عصر سه شنبه در دانشکده دین و رسانه دانشگاه صداوسیما به دبیری دکتر سعید امیرکاوه عضو هیئت علمی دانشگاه صداوسیما برگزار شد.
چالش هاي اخلاقی هوش مصنوعی در رسانه هاي نوین و راهکارهاي مواجهه با آن
در اولین مقاله این نشست سرکار خانم آمنه کلاته آقامحمدي مقاله «چالش هاي اخلاقی هوش مصنوعی در رسانه هاي نوین و راهکارهاي مواجهه با آن» که با همراهی محمدمهدي نصرهرندي نوشته است را ارائه کرد.
در این مقاله پس از طرح 19 چالش هوش مصنوعی در خصوص اخلال در اخلاق از جمله سوگیری هوش مصنوعی، فقدان کیفیت داده، دستکاری اجتماعی و... به رهکارهای مقابله پرداخته است.
چکیده این مقاله در ادامه تقدیم شما می شود:
در سالهای اخیر هوشمصنوعی در صنعت رسانه تحولات بزرگی را ایجاد کرده و موجب افزایش بهرهوری در موارد زیادی از جمله تولید محتوا، ارتباط با مخاطب و درک مخاطب شدهاست. هوشمصنوعی موجب سادهسازی فرآیندها، افزایش دقت، سرعت و کاهش هزینهها میشود. با استفاده از هوشمصنوعی در شبکههای اجتماعی اطلاعات کلیدی و بسیار راهبردی در اختیار فعالان بازار قرار میگیرد. دادههایی که هوشمصنوعی به صاحبان مشاغل فعال در شبکههای اجتماعی میدهد در بهبود و خلق استراتژیها مؤثر هستند. نتایج پژوهش حاضر نشان می دهد نگرانی عمومی در مورد چالش های اخلاقی هوشمصنوعی موجه است. هوشمصنوعی میتواند پیامدهای منفی زیادی داشتهباشد و چالش های اخلاقی را در خصوص حفظ حریم خصوصی، نظارت و حفاظت از دادهها، وابستگی و اعتیاد به هوشمصنوعی، جعل عمیق دستکاریهای اجتماعی؛ دستکاری رفتار، عدم شفافیت سیستمهای هوشمصنوعی، سوگیری، فقدان اعتماد کاربران، نشر اطلاعات نادرست، کمک به وقوع شورشها و به خطر افتادن امنیت عمومی جوامع، حذف مشاغل رسانهای؛ گویندگی خبر، نویسندگی و طراحی، انحصار قدرت اقتصادی، مناقشه بر سر مالکیت محصول رسانهای، فقدان کیفیت داده، تسلط بر انسانها، فقدان آزادی، تضعیف خلاقیت، از دست دادن مهارت، کاهش ارزش انسانی، فقدان ارزشگذاری اطلاعات. و.. ایجاد کند. یکی از راههای حفاظتهای سازمانی در برابر خطرات هوشمصنوعی، اخلاق هوشمصنوعی است و ضروری است برای آنها راهکارهایی در نظر گرفته و بهنوعی هوشمصنوعی در صنعت رسانه مدیریت شود تا از بروز اتلاف منابع و آسیبهای جبرانناپذیر پیشگیری شود. قانونگذاری، حسابرسی اخلاقی، سواد رسانههای دیجیتال به عنوان راهکارهای مواجهه با چالشهای اخلاقی هوشمصنوعی در صنعت رسانه در پژوهش حاضر مطرح شده اند.
چالش هاي اخلاق پژوهش در سایه ابزارهاي مبتنی بر هوش مصنوعی
در ادامه این نشست تخصصی مقاله: «چالش هاي اخلاق پژوهش در سایه ابزارهاي مبتنی بر هوش مصنوعی» نوشته سیدمحمدعلی مرتضوی شاهرودی با همراهی دکتر عیسی زارعی مدیر پژوهش دانشگاه صداوسیما ارائه شد.
در این مقاله پس از بررسی ابزارهای هوش مصنوعی و ابزارهای مختلف آن به چالش های این ابزار در روند پژوهش پرداخته و از مواجهه اخلاقی با آن ها سخن گفته شده است.
در یافته ها و نتایج مواردی مانند صداقت و امانتداری، بیطرفی و حقیقتجویی، قانونمداری و خودسامانی، ستفاده صحیح از داده ها، مسئولیت پذیری، حریم خصوصی، شفافیت، پیشداوری در نتایج به عنوان اصول اخلاقی مواجهه با هوش مصنوعی در پژوهش نام برده شده است.
چکیده این مقاله به شرح ذیل است:
اخلاق پژوهش به رعایت مجموعهای از اصول و قواعد اخلاقی که در فرآیند تدوین و انتشار یافتههای علمی اشاره دارد گفته میشود. این اصول شامل اخلاق علمی که به معنای داشتن دانش کافی در حوزه تحقیقاتی و استفاده از منابعی است که محقق واقعاً مطالعه کرده باشد، رعایت استنادها و سپاسگزاری ازکسانی است که در پژوهش مشارکت داشتهاند، میباشد. با این حال، محققان در عرصه پژوهش، همواره درگیر چالشهای اخلاقی متنوعی از جمله سرقت ادبی، سوءاستفاده از دادهها، حفظ حریم خصوصی، و نیاز به پاسخگویی و شفافیت بودهاند. این چالشها نیازمند توجه و راهکارهای اخلاقی دقیقی هستند تا از کیفیت و نوآوری تحقیقات حفاظت شود و از سوءاستفادههای احتمالی جلوگیری گردد. بیتردید ورود هوش مصنوعی به حوزه پژوهش و دسترسی افراد به ابزارهای مبتنی بر هوش مصنوعی، این چالشها را دوچندان نموده است. با توجه به حجم عظیم دادههایی که ابزارهای مبتنی بر هوش مصنوعی میتواند پردازش کند، رعایت چارچوبها و اخلاق پژوهش، اهمیت بسزایی دارد. مقاله حاضر در پی آن است که زمینهها و ابعاد چالشهای استفاده از ابزارهای مبتنی بر هوش مصنوعی در پژوهشهای علمی را بحث و بررسی نماید.
یافتههای پژوهش نشان داد علی رغم اینکه هوش مصنوعی به عنوان یک فناوری پیشرفته، تأثیرات گستردهای در حوزههای مختلف دارد و میتواند به پیشرفت علم و جامعه کمک کند، اما استفاده از ابزارهای مبتنی بر هوش مصنوعی در فرایندهای پژوهشی چالش هایی به لحاظ اخلاقی در حوزه هایی همچون صداقت و امانتداری، بیطرفی و حقیقتجویی، قانونمداری و خودسامانی، استفاده صحیح از دادهها، مسئولیتپذیری، حریم خصوصی و شفافیت، پیشداوری در نتایج و کپیرایت ایجاد خواهد کرد. با این حال، به نظر میرسد با افزایش حساسیت پژوهشگران و برنامهنویسان هوش مصنوعی در خصوص ابعاد مختلف اخلاق پژوهش و نیز با تولید نرمافزارهایی با قبلیت شناسایی اعتبار و اصالت متون، میتوان آسیبهای ناشی از سوءاستفادههای احتمالی را کم نمود.
تأملّی در بابِ هوش مصنوعی و ارتقای قضاوت اخلاقی؛ واکاویِ چالشها و فرصتها
آخرین مقاله این نشست نیز با عنوان «تأملّی در بابِ هوش مصنوعی و ارتقای قضاوت اخلاقی؛ واکاویِ چالشها و فرصتها» نوشته رضا جعفری دانشجوی دکتری توسط وی ارائه شد.
این مقاله نیز به چالش های هوش مصنوعی از منظر اخلاق پرداخته و با تشریح عملکرد هوش مصنوعی، تشریح انواع آن به چالش های آن پرداخته است.
چکیده این مقاله به شما تقدیم می شود:
با گسترش روزافزون هوش مصنوعی در زندگی بشر، بررسی ابعاد اخلاقی این فناوری نوین، بهویژه در حوزه قضاوت اخلاقی، اهمیتی دوچندان یافته است. قضاوت اخلاقی فرایندی پیچیده برای تعیین درستی یا نادرستی یک عمل یا تصمیم بر اساس معیارهای اخلاقی است. این فرایند نقشی حیاتی در زندگی فردی و اجتماعی ایفا میکند و به ما در اتخاذ تصمیمات درست و اخلاقی یاری میرساند. این پژوهش به بررسی عمیق مسائل و چالشهای مرتبط با هوش مصنوعی و قضاوت اخلاقی میپردازد و به دنبال پاسخ به این پرسش اساسی است که هوش مصنوعی چگونه میتواند در فرایند قضاوت اخلاقی انسان ایفای نقش کند. این پژوهش با رویکردی تحلیلی - توصیفی و با استفاده از روش کتابخانهای به بررسی منابع و ادبیات موجود در زمینه هوش مصنوعی، اخلاق و قضاوت اخلاقی میپردازد. هوش مصنوعی با استفاده از الگوریتمهای پیچیده و یادگیری ماشین، قادر به پردازش اطلاعات و تصمیمگیری در زمینههای مختلف است. بهکارگیری هوش مصنوعی در قضاوت اخلاقی مزایایی مانند افزایش دقت، سرعت و بیطرفی را به همراه دارد. بااینوجود، چالشهای متعددی در این زمینه وجود دارد، از جمله فقدان درک ظرافتهای اخلاقی، تعصب و فقدان خلاقیت و ابتکار. واگذاری کامل قضاوت اخلاقی به هوش مصنوعی در حال حاضر امری غیرقابلاعتماد است. هوش مصنوعی میتواند بهعنوان ابزاری برای کمک به انسان در فرایند قضاوت اخلاقی مورداستفاده قرار گیرد، اما اتخاذ تصمیمات نهایی باید بر عهده انسان باشد.