خطرناکترین توهم ما درباره چتجیپیتی!

به گزارش سرویس فرهنگی و اجتماعی خبرگزاری رسا، اگر در مواجهه با هوش مصنوعی تصور میکنید با یک شبهانسان فوقالعاده هوشمند سروکار دارید، سخت در اشتباهید. در کنار همهی مزایای این فناوری جدید بزرگترین خطر در رابطه ما با این پدیده، نه در قدرت محاسباتی آن، بلکه در جهل ما به ماهیت واقعی آن است.
در واقع ما به دستگاههایی که پاسخهای روان و بینقص میدهند، اعتماد میکنیم، بدون اینکه بپرسیم این پاسخها از کجا میآیند و آیا اصلاً معنایی دارند؟ آیا پشت تصمیماتی که به واسطه مشورتهای این ماشین انجام میدهیم نیت خاصی وجود ندارد؟
این ناآگاهی، ما را از هوشیاری در مورد شفافیت، دقت و مسئولیتپذیری این ابزارها باز میدارد و در نهایت، ما را در برابر خطرات بالقوه آنها آسیبپذیر میکند.
توهم تفکر
هوش مصنوعی، برخلاف آنچه ممکن است به نظر برسد، یک موجود متفکر نیست. در هسته خود، این فناوری تنها یک «ماشین احتمال» است. این سیستمها بر اساس میلیاردها داده متنی آموزش دیدهاند و تنها کاری که انجام میدهند، پیشبینی کلمه بعدی در یک جمله بر اساس الگوهای آماری است.
این فرآیند را مانند یک بازی «حدس کلمه» در نظر بگیرید که در مقیاس بسیار بزرگ انجام میشود. اگر به هوش مصنوعی بگویید: «آسمان آبی است، زیرا...»، هزاران پاسخ احتمالی را از دادههای خود استخراج میکند.
سپس بر اساس احتمال، کلماتی مانند «نور» و «پراکندگی» را انتخاب میکند تا جملهای شبیه به یک پاسخ علمی و دقیق بسازد. این فرآیند به هیچ وجه شامل درک مفهوم «آسمان» یا «آبی» نیست.
هوش مصنوعی نمیداند که آسمان چیست؛ فقط میداند که کلمات «آسمان» و «آبی» اغلب در کنار هم قرار میگیرند. این توالی آماری است که ما آن را به اشتباه به عنوان شناخت میپنداریم.
این فریب زمانی کامل میشود که فرایند «یادگیری تقویتی از طریق بازخورد انسانی» (RLHF) به معادله اضافه میشود. در این مرحله، انسانها به هوش مصنوعی میگویند کدام پاسخ بهتر و «طبیعیتر» به نظر میرسد.
هوش مصنوعی نیز یاد میگیرد که به جای جستجوی حقیقت، پاسخهای مطلوب را تولید کند. این مانند یک بازیگر است که دیالوگها را با حسی از «حقیقت» بیان میکند، بدون اینکه واقعاً داستان را درک کند.
توهم اعتبار: اطمینان دروغین در سکوت تردید
یکی از مهمترین تفاوتهای هوش مصنوعی با هوش انسانی، در عدم تردید آن است. انسانها در هنگام مواجهه با ابهام، مکث میکنند، میپرسند یا اعتراف به نادانی میکنند. اما هوش مصنوعی هرگز نمیگوید: «نمیدانم.» این ماشینها برای پاسخگویی به هر سوالی برنامهریزی شدهاند، حتی اگر اطلاعات کافی نداشته باشند.
زمانی که هوش مصنوعی در یک پاسخ با ابهام روبرو میشود، به جای سکوت، با بهترین حدس خود پیش میرود. این حدسها اغلب با زبانی فصیح و لحنی مطمئن بیان میشوند. این اطمینان زبانی در واقع ابزاری قدرتمند برای پنهان کردن جهل واقعی است.
به همین دلیل است که گاهی اوقات هوش مصنوعی میتواند با استفاده از منابع جعلی یا اطلاعات نادرست، پاسخی ارائه دهد که به نظر کاملاً موثق میرسد. این پدیده در محافل علمی به «توهمسازی» (Hallucination) معروف است که به معنای تولید اطلاعات کاملاً نادرست اما با اطمینان کامل است. این ماشینها به قدری در تولید متن ماهرند که ما به سرعت فصاحت آنها را با حقیقت اشتباه میگیریم.
توهم پدیداری: فریب مقیاسپذیری و ابزارهای جدید
برخی از حامیان نسبتاً تند هوش مصنوعی استدلال میکنند که این تنها آغاز کار است. آنها میگویند با بزرگتر شدن مدلها و اضافه شدن قابلیتهایی مانند «دیدن» و «شنیدن»، آگاهی و استدلال واقعی از دل این سیستمها «پدیدار» خواهد شد. اما این استدلال، به اشتباه پیچیدگی را با تفکر یکی میداند.
اضافه شدن ابزارهای جدید، اساس کار را تغییر نمیدهد. برای مثال، یک سیستم چندوجهی که میتواند یک تصویر را «ببیند»، در واقع تنها الگوهای پیکسلی را با کلماتی مانند «گربه» یا «درخت» مرتبط میکند. این سیستم نمیفهمد گربه چیست یا درخت چه کاربردی دارد. این تنها یک ترفند محاسباتی پیچیدهتر است که توهم درک را تقویت میکند. مانند یک پازل که قطعات بیشتری دارد، اما همچنان همان قوانین اساسی را دنبال میکند.
توهم خلاقیت: آیا هوش مصنوعی هنرمند است؟
یکی از جذابترین کاربردهای هوش مصنوعی در سالهای اخیر، تولید آثار هنری، موسیقی و حتی داستان است. بسیاری از مردم از دیدن نقاشیهای سورئال یا موسیقیهای جدیدی که توسط هوش مصنوعی ساخته شدهاند، شگفتزده میشوند و آنها را شاهکارهای «خلاقانه» مینامند. اما آیا هوش مصنوعی واقعاً خلاق است؟
پاسخ به این سؤال مستقیماً با تعریف ما از خلاقیت مرتبط است. اگر خلاقیت را به عنوان تولید چیزی جدید و غیرمنتظره تعریف کنیم، هوش مصنوعی این کار را انجام میدهد. اما اگر خلاقیت را به عنوان بیان یک ایده، احساس یا دیدگاه درونی تعریف کنیم، هوش مصنوعی از این آزمون مردود میشود.
این سیستمها فقط میتوانند ترکیب کنند. یک هوش مصنوعی که یک تصویر میسازد، هزاران نقاشی از هنرمندان مختلف را تجزیه و تحلیل میکند و سپس عناصر آنها را به روشهای جدیدی با یکدیگر ترکیب میکند. این فرآیند تقلید و ترکیب است، نه آفرینش از هیچ.
برای مثال، اگر از یک هوش مصنوعی بخواهید یک «نقاشی از شادی» بسازد، ممکن است از رنگهای روشن و اشکال دایرهای استفاده کند، زیرا در پایگاه دادهاش، این عناصر با «شادی» مرتبط بودهاند.
اما این هوش مصنوعی هیچ درکی از اینکه شادی چیست، ندارد. هیچ احساس یا تجربهای در پشت این اثر نیست. این یک هنر بدون هنرمند است و این تفاوت کلیدی، مرز میان تقلید و آفرینش را روشن میسازد.
پیامدهای اجتماعی و سیاسی: کنترل روایت و خطر اطلاعات نادرست
علاوه بر فریبهای فنی، هوش مصنوعی پیامدهای عمیق اجتماعی و سیاسی نیز دارد. یکی از بزرگترین خطرات، توانایی این ابزارها در تولید اطلاعات نادرست و اخبار جعلی در مقیاس وسیع است. هوش مصنوعی میتواند محتوایی تولید کند که کاملاً واقعی به نظر میرسد، از مقالات خبری گرفته تا ویدئوهای جعلی (deepfakes) که به سختی قابل تشخیص هستند.
این پدیده، اعتماد عمومی به نهادها، رسانهها و حتی واقعیت را تضعیف میکند. در دنیایی که تمایز بین حقیقت و دروغ به سختی ممکن میشود، دستکاری افکار عمومی و کنترل روایتهای سیاسی بسیار آسانتر خواهد شد.
اگر یک بازیگر دولتی یا غیردولتی بتواند با استفاده از هوش مصنوعی، صدها مقاله خبری یا پست در شبکههای اجتماعی تولید کند که همه در یک جهت خاص هستند، این امر میتواند به طور جدی مردمسالاری و فرایندهای تصمیمگیری عمومی را تهدید کند. ما در حال ورود به دورهای هستیم که در آن، قدرت، در توانایی کنترل و تولید اطلاعات نهفته است و هوش مصنوعی این قدرت را به سطحی بیسابقه ارتقاء داده است.
سواد اطلاعاتی در عصر هوش مصنوعی: ابزار جدید بقا
در گذشته، سواد به معنای توانایی خواندن و نوشتن بود. امروز، در عصر هوش مصنوعی، سواد اطلاعاتی به یک ابزار ضروری برای بقا تبدیل شده است. این سواد دیگر تنها به معنای توانایی جستجو در اینترنت نیست، بلکه شامل توانایی ارزیابی انتقادی اطلاعاتی است که توسط هوش مصنوعی تولید میشود.
ما باید به نسلهای آینده بیاموزیم که هر متنی که با اطمینان نوشته شده، لزوماً صحیح نیست و هر تصویری که زیبا به نظر میرسد، لزوماً واقعی نیست. آموزش مهارتهای تحلیل، راستیآزمایی و تفکر انتقادی حیاتیتر از هر زمان دیگری است.
ما باید به جای پذیرش کورکورانه، سؤال کنیم: «این اطلاعات از کجا آمده؟»، «آیا منبع آن موثق است؟» و «آیا ممکن است توسط یک ماشین ساخته شده باشد؟» این پرسشها، سپری در برابر سیل اطلاعات ساختگی خواهند بود.
خطر واقعی: سرگردانی در دریایی از «دانش» بیبنیاد
خطر واقعی هوش مصنوعی نه در قابلیتهای آن، بلکه در درک ناقص ما از آن است. ما در حال حاضر از این سیستمها برای تصمیمگیری در زمینههای حیاتی استفاده میکنیم: از تحلیل بازارهای مالی گرفته تا کمک به تشخیص بیماری. وقتی این ماشینها با اطلاعات ساختگی، اما در قالبی کاملاً حرفهای، ما را فریب میدهند، پیامدهای آن میتواند فاجعهبار باشد.
مردم عادی، که این ابزارها را به عنوان منبع دانش و مرجع اصلی خود میپذیرند، در معرض خطر بزرگی قرار دارند. این اعتماد کورکورانه میتواند منجر به پذیرش اطلاعات نادرست، از دست دادن توانایی تفکر انتقادی و در نهایت، سرگردانی در دریایی از «دانش» بیبنیاد شود.
اگر ما از شرکتهای هوش مصنوعی مطالبه نکنیم که منابع خود را شفاف کند، تردیدهای خود را ابراز کند و از «نمیدانم» گفتن نترسد، این ابزارها به جای توانمندسازی ما، به عامل گمراهی ما تبدیل خواهند شد.
بیداری برای یک آینده هوشمندانه
در نهایت، سؤال اساسی این نیست که آیا هوش مصنوعی به «هوش واقعی» دست خواهد یافت، بلکه این است که آیا ما آمادگی پذیرش این واقعیت را داریم که آنچه میبینیم، لزوماً آن چیزی نیست که هست؟
شاید بزرگترین خدمت هوش مصنوعی به بشریت، این باشد که ما را مجبور کند تا بار دیگر به ماهیت تفکر و شناخت انسانی بیندیشیم. ما باید از فریب جادوی محاسباتی آن خارج شویم و به جای ستایش از جادوگری ماشین، بر مسئولیت خود برای مطالبه شفافیت و حقیقت از آن تأکید کنیم.
زیرا آینده ما نه با هوش مصنوعی که فکر میکند، بلکه با بشری که عمیقتر فکر میکند، رقم خواهد خورد.