تعارض شفافیت و محرمانگی؛ بنبست اخلاقی پژوهشهای مبتنی بر هوش مصنوعی
به گزارش خبرنگار سرویس فرهنگی و اجتماعی خبرگزاری رسا، دکتر مهدی فدایی، مدیر گروه اخلاق و تربیت دانشگاه باقرالعلوم(ع) و معاون پژوهشی این دانشگاه ظهر پنجشنبه 27 آذر در پانزدهمین پیشنشست علمی همایش «دین، فرهنگ و فناوری» که در این دانشگاه با موضوع «چالشهای روش شناختی پژوهشگران در کاربست هوش مصنوعی؛ از صحت داده تا اتکاپذیری نتایج» برگزار شد، با تأکید بر ضرورت بهرهگیری از ظرفیتهای علمی و پژوهشی کشور، به تبیین چالشهای اخلاقی کاربست هوش مصنوعی در پژوهشهای علمی پرداخت.
وی در ابتدای سخنان خود، بر اهمیت استفاده از توانمندی اساتید دانشگاهی و مراکز پژوهشی از جمله مرکز تحقیقات مجلس در ارتقای کیفی کمیتهها و نشستهای علمی این همایش تأکید کرد و اظهار داشت: ورود به بحث هوش مصنوعی بدون صورتبندی دقیق اخلاقی، پژوهش را با خطاهای جدی مواجه میسازد.
فدایی با اشاره به سابقه بیش از یک دهه فعالیت خود در حوزه اخلاق کاربردی و اخلاق حرفهای، در جهت طرح بحث، زاویه نگاه خود را ناظر به اخلاق پژوهش و چالشهای اخلاقی ناشی از استفاده از هوش مصنوعی در فرآیندهای علمی معرفی کرد.
وی افزود: در ادبیات اخلاق کاربردی، مفهوم «چالش اخلاقی» دارای معانی متعددی است که عدم تفکیک آنها موجب خلط مباحث و ارائه راهکارهای ناکارآمد میشود. از اینرو، تبیین دقیق این مفاهیم، پیشنیاز هرگونه سیاستگذاری و راهنمای عملی در حوزه پژوهشهای مبتنی بر هوش مصنوعی است.
این استاد دانشگاه در ادامه، با اشاره به اینکه نخستین گام در تحلیل اخلاقی، شفافسازی مفاهیم است، خاطرنشان کرد: در این ارائه تلاش میشود چالشهای اخلاقی در سه سطح ابهام نظری، آسیب اخلاقی و تعارض اخلاقی بررسی شود و نشان داده شود که این چالشها در کدام بخش از چرخه پژوهش مبتنی بر هوش مصنوعی، از مرحله گردآوری داده تا مدلسازی، ارزیابی و گزارشدهی، بروز مییابد و چگونه میتواند به تضعیف صحت دادهها و کاهش اتکاپذیری نتایج پژوهش منجر شود.
سهگانه چالش اخلاقی در ادبیات اخلاق کاربردی
مدیر گروه اخلاق و تربیت دانشگاه باقرالعلوم(ع) با تشریح معنای نخست چالش اخلاقی، آن را ناظر به «تعارض اخلاقی» یا دوراهیهای اخلاقی دانست و گفت: در این معنا، فاعل اخلاقی در موقعیتی قرار میگیرد که دو یا چند اصل اخلاقی بهطور همزمان و تصادفی با یکدیگر تعارض پیدا میکنند و پژوهشگر نمیداند کدامیک را باید مقدم بدارد. وی با اشاره به مثال معروف «مسئله تراموا»، این نوع تعارض را از زمینههای اصلی شکلگیری حوزههایی مانند اخلاق مهندسی، اخلاق پزشکی و اخلاق پژوهش دانست که هدف آنها، کمک به تصمیمگیری اخلاقی در موقعیتهای پیچیده است.
وی افزود: در کشور ما نیز این رویکرد در قالب رشتهها و دروس رسمی نهادینه شده است؛ بهگونهای که در دانشکدههای علوم پزشکی، دکتری تخصصی اخلاق پزشکی و در رشتههای فنی و مهندسی، واحدهای درسی اخلاق مهندسی ارائه میشود. به گفته دکتر فدایی، تمرکز این حوزهها عمدتاً بر حل تعارضات اخلاقی و مدیریت ریسک در فعالیتهای حرفهای است و همین تجربهها میتواند در مواجهه با فناوریهای نوظهور مانند هوش مصنوعی نیز مورد استفاده قرار گیرد.
دکتر فدایی در تبیین معنای دوم چالش اخلاقی، آن را «آسیب اخلاقی» دانست و تصریح کرد: گاهی از اصطلاح چالش اخلاقی استفاده میشود، در حالی که مراد، تعارض میان اصول اخلاقی نیست، بلکه بروز نوعی ضعف یا انحراف اخلاقی است. به عنوان مثال، وقتی پژوهشگری دچار رذیلتهایی مانند بیدقتی، سهلانگاری یا منفعتطلبی میشود، این وضعیت یک آسیب اخلاقی محسوب میشود. وی تأکید کرد: راهحل آسیب اخلاقی با راهحل تعارض اخلاقی متفاوت است و خلط این دو، موجب ناکارآمدی سیاستها و دستورالعملهای اخلاق پژوهش میشود.
ابهام نظری؛ چالش پنهان پژوهشهای مبتنی بر هوش مصنوعی
معاون پژوهشی دانشگاه باقرالعلوم(ع) معنای سوم چالش اخلاقی را «ابهام نظری» معرفی کرد و گفت: در این حالت، پژوهشگر یا داور اخلاقی با مفاهیم یا مصادیق اخلاقی آشنایی دقیق ندارد. برای مثال، مفهوم عدالت، انصاف یا حریم خصوصی در یک پژوهش خاص برای او روشن نیست یا نمیداند در چه شرایطی افشای داده مجاز یا غیرمجاز است. وی افزود: این نوع چالش، نه ناشی از تعارض اصول اخلاقی است و نه الزاماً به آسیب اخلاقی بازمیگردد، بلکه ریشه در فقدان شفافیت مفهومی و نظری دارد.
دکتر فدایی با اشاره به پیچیدگی زنجیره داده در پژوهشهای مبتنی بر هوش مصنوعی اظهار داشت: استفاده از دادههای عظیم، مدلهای زبانی و دادههای مصنوعی موجب میشود تعاریف مفاهیم کلیدی لغزنده شود و داوری اخلاقی با ابهام مواجه گردد. برای نمونه، زمانی که دادهها توسط هوش مصنوعی تولید یا پالایش میشوند، این پرسش جدی مطرح میشود که اعتبار و صحت این دادهها تا چه حد قابل اتکا است و اساساً «داده پاک» چه تعریفی دارد. وی تأکید کرد: این ابهامات نظری میتواند مستقیماً به خطاهای روششناختی در پژوهش منجر شود.
وی تصریح کرد: اگر این ابهامات در مراحل مختلف چرخه پژوهش شناسایی و مدیریت نشوند، پیامد آن تضعیف دو رکن اساسی پژوهش، یعنی صحت دادهها و قابلیت اعتماد به نتایج خواهد بود. به گفته دکتر فدایی، اخلاق پژوهش در عصر هوش مصنوعی صرفاً ناظر به رفتار فردی پژوهشگر نیست، بلکه به فهم دقیق مفاهیم و سازوکارهای فنی نیز وابسته است.
آسیبهای اخلاقی و وسوسههای پژوهشگر در عصر هوش مصنوعی
دکتر فدایی در ادامه به آسیبهای اخلاقی ناشی از کاربست هوش مصنوعی در پژوهش پرداخت و گفت: فشار زمان، انگیزههای نهادی، تعارض منافع و حتی راحتطلبی پژوهشگر از جمله عواملی است که میتواند زمینهساز آسیب اخلاقی شود. وی افزود: پژوهشگری که برای دفاع از پایاننامه یا ارائه گزارش پروژه تحت فشار زمانی قرار دارد، ممکن است به استفاده نادرست یا افراطی از ابزارهای هوش مصنوعی روی آورد؛ امری که اگرچه لزوماً خطای فنی نیست، اما میتواند به انحراف اخلاقی و روششناختی منجر شود.
وی با ذکر مثالی توضیح داد: استفاده از هوش مصنوعی برای نگارش مقدمه مقاله، اگر بدون تسلط پژوهشگر بر روش تحقیق انجام شود، ممکن است محتوایی تولید کند که با ماهیت پژوهش، بهویژه در تحقیقات کیفی مانند تحلیل مضمون، همخوانی نداشته باشد. این ناتوانی در تشخیص، پژوهشگر را دچار خطاهای اخلاقی و علمی میکند. دکتر فدایی تأکید کرد: این آسیبها بهویژه برای پژوهشگران تازهکار و دانشجویان تحصیلات تکمیلی جدیتر است.
معاون پژوهشی دانشگاه باقرالعلوم(ع) یکی از مصادیق بارز آسیب اخلاقی را «استفاده پنهان یا کممستند از هوش مصنوعی» دانست و گفت: وسوسه پنهانکاری، مانند تلاش برای عبور از سامانههای مشابهتیاب یا عدم ثبت دقیق پرامپتها، مصداق روشن چالش اخلاقی به معنای آسیب اخلاقی است. وی با اشاره به آییننامه بنیاد ملی علم در خصوص استفاده از ابزارهای هوش مصنوعی، تصریح کرد: ارجاع حداقلی یا غیرشفاف به استفاده از AI، نقض اخلاق پژوهش محسوب میشود.
تعارض اخلاقی میان شفافیت و محرمانگی دادهها
دکتر فدایی بخش سوم و محوری بحث خود را به تعارض اخلاقی اختصاص داد و اظهار داشت: تعارض اخلاقی زمانی رخ میدهد که دو وظیفه اخلاقی معتبر بهطور همزمان بر عهده پژوهشگر قرار گیرد؛ مانند تعارض میان شفافیت و محرمانگی دادهها. وی افزود: در پژوهشهای مبتنی بر هوش مصنوعی، برای امکان داوری و بازتولید نتایج، لازم است جزئیاتی مانند پرامپتها، نسخه مدلها و تنظیمات فنی گزارش شود، اما در برخی حوزهها، بهویژه پژوهشهای پزشکی، امنیتی یا قضایی، افشای این اطلاعات با اصل محرمانگی در تعارض قرار میگیرد.
وی با اشاره به نمونههایی از پژوهشهای رفتاری و قضایی، خاطرنشان کرد: در چنین موقعیتهایی، پژوهشگر ناگزیر از انتخاب اخلاقی است و هیچ پاسخ از پیشتعیینشدهای وجود ندارد. دکتر فدایی تأکید کرد: اخلاق کاربردی به پژوهشگر کمک میکند تا در این موقعیتها، با در نظر گرفتن زمینهها، اهداف و پیامدها، بهترین تصمیم اخلاقی ممکن را اتخاذ کند؛ تصمیمی که ممکن است از پژوهشگری به پژوهشگر دیگر متفاوت باشد.
وی راهحل این تعارضها را در تدوین پروتکلهای میانرشتهای دانست و گفت: پاسخ به این مسائل نه صرفاً در حوزه اخلاق و نه صرفاً در حوزه فنی قابل ارائه نیست، بلکه نیازمند همکاری متخصصان اخلاق، هوش مصنوعی و حوزههای تخصصی مانند اخلاق زیستی است. تدوین چنین پروتکلهایی میتواند پژوهشگران را در مواجهه با تعارضهای اخلاقی یاری دهد و از بروز خطاهای جدی جلوگیری کند.
مسئولیت نهایی پژوهشگر در قبال نتایج تولیدشده با AI
دکتر فدایی در بخش پایانی سخنان خود به مسئله مسئولیت اخلاقی در زنجیره تولید تا مصرف داده پرداخت و تصریح کرد: بر اساس آییننامه بنیاد ملی علم، مسئولیت نهایی محتوا، حتی در صورت استفاده از هوش مصنوعی، بر عهده پژوهشگر است. وی افزود: این آییننامه تأکید میکند که هوش مصنوعی فاقد درک عمیق علمی، اخلاقی و اجتماعی است و بنابراین تصمیمگیری نهایی و تفسیر نتایج باید توسط پژوهشگر انجام شود.
وی با اشاره به امکان بازنگری دورهای این آییننامه، خاطرنشان کرد: اگرچه احتمال لایهبندی مسئولیتها در آینده وجود دارد، اما در وضعیت کنونی، پژوهشگر باید خود را پاسخگوی صحت علمی، دقت روششناختی و انطباق اخلاقی پژوهش بداند. دکتر فدایی همچنین به دیدگاههای انتقادی نسبت به استفاده از هوش مصنوعی اشاره کرد و گفت: برخی اندیشمندان، استفاده از AI را به دلیل تهدید عاملیت انسانی، غیراخلاقی میدانند، اما واقعیتهای اقتصادی و ساختار قدرت جهانی، استفاده از این فناوری را به یک واقعیت گریزناپذیر تبدیل کرده است.
دکتر فدایی در پایان تأکید کرد: آنچه امروز بیش از هر چیز اهمیت دارد، نه نفی یا پذیرش مطلق هوش مصنوعی، بلکه توسعه چارچوبهای اخلاقی و مسئولانه برای استفاده از آن در پژوهش است؛ چارچوبهایی که بتواند از کرامت انسانی، اعتبار علمی و اعتماد عمومی به نتایج پژوهشها صیانت کند.