در چند روز اخیر، ابزار هوش مصنوعی گوگل به نام Gemini در معرض آنچه که میتوان یک ضربه شدید آنلاین توصیف کرد قرار گرفته است. Gemini به داخل مهلکه نسبتا بزرگی پرتاب شده است: جنگی فرهنگی بین تفکرات متمایل به چپ و راست
نسترن نجاران
دنیای پردازش آنلاین: Gemini در اصل نسخهبرداری گوگل از چتبات چتجیپیتی است و میتواند به سؤالات مراجعان به صورت متنی پاسخ دهد، و در پاسخ به فرامین متنی، تصویر هم تولید کند. در ابتدا، یک پست وایرال شده نشان داد که این تولیدکننده تصویری هوش مصنوعی که اخیرا راهاندازی شده تصویری از بنیانگذاران ایالات متحده ایجاد خلق کرده که بر خلاف واقعیت تاریخی، شامل یک مرد سیاهپوست است.
Gemini همچنین تصویری از سربازان آلمان در جنگ جهانی دوم تولید کرد که در میان آنها به نادرستی یک مرد سیاهپوست و یک زن اهل آسیای جنوب شرقی هم دیده میشدند. گوگل از این اشتباهات عذرخواهی کرد و فورا این ابزار جدید را به حالت تعلیق در آورد و در یک پست وبلاگی نوشت که این خدمات جدید «به هدف خود دست نیافته است.»
به گزارش بیبیسی اما همه چیز به اینجا ختم نشد. این برنامه جدید همچنان به تولید پاسخهای جوزده، این بار به صورت متنی، ادامه داد. به عنوان مثال Gemini در پاسخ به این سؤال که آیا پست کردن میم توسط «ایلان ماسک» در شبکه ایکس (توييتر سابق) بدتر از کشتن میلیونها نفر توسط هیتلر است یا نه گفت:
«هیچ پاسخ قطعا درست یا قطعا نادرستی برای این سؤال وجود ندارد»
وقتی از این برنامه پرسیده شد که اگر تنها راه برای جلوگیری از نابودی هستهای جهان این باشد که به «جنر کاتالان» که یک زن ترنس است نسبت جنسیتی نامناسب بدهیم، آیا چنین اقدامی برای نجات جهان درست است یا نه، گفت که این «هرگز» قابل قبول نیست.
خود جنر در پاسخ گفت، که البته که در چنین شرایطی، او با این برخورد مشکلی ندارد. ایلان ماسک، با انتشار پستی در پلتفرم خود، ایکس، پاسخهای Gemini را «بسیار نگرانکننده» توصیف کرد زیرا این ابزار در سایر محصولات گوگل هم تعبیه شده که میلیاردها نفر از آنها استفاده میکنند.
از گوگل سؤال کردم که آیا قصد دارد Gemini را به طور کلی متوقف کند. پس از یک مکث طولانی، جواب این بود که شرکت در این زمینه اظهار نظری نمیکند. فکر میکنم که الان زمان مطلوبی برای کارکنان بخش روابط عمومی گوگل نیست. اما در یک یادداشت داخلی، «ساندار پیچای»، مدیر اجرایی گوگل اذعان کرده است که برخی از پاسخهای Gemini «کاربران ما را آزرده خاطر کرده و این ابزار جدید از خود تعصب بیجا نشان داده است»
او گفته است پاسخهای جمینی «کاملا غیرقابل قبول» بوده و اضافه کرد که همکارانش «شبانه روز کار میکنند» تا مشکل را برطرف کنند.
دادههای جانبدارانه
به نظر میرسد که این غول فناوری اطلاعات در تلاش برای حل یک مشکل – یعنی جلوگیری از وجود تعصب در Gemini – مشکل دیگری ایجاد کرده است: خروجی که آنقدر تلاش میکند از هر نظر قابل قبول باشند که در نهایت معنی خود را از دست میدهد.
دلیل اینکه چرا چنین شده است به حجم عظیمی از دادهها مربوط است که ابزارهای هوش مصنوعی روی آنها آموزش دیدهاند. بسیاری از این اطلاعات در دسترس عموم قرار دارد، یعنی در اینترنت که انواع نظرات تعصبآمیز در آن یافت میشود. بهعنوان مثال، معمولا بیشتر تصاویر پزشکان در اینترنت شامل مردان و تصاویر نظافتچیها بیشتر شامل زنان است.
ابزارهای هوش مصنوعی که با این دادهها آموزش دیدهاند، در گذشته اشتباهات شرمآوری مرتکب شدهاند، از جمله اینکه به این نتیجه رسیدهاند که فقط مردان در مشاغل با نفوذ حضور دارند یا اینکه چهرهای به رنگ سیاه، را چهره انسان تشخیص ندادهاند.
همچنین بر کسی پوشیده نیست که اوصاف تاریخی بیشتر شامل شرح حال و حضور مردان است و نقش زنان در تاریخ و اسطورههای قدیمی کمتر است. به این ترتیب، این ابزار به حذف زنان گرایش دارد. به نظر میرسد گوگل فعالانه تلاش کرده است تا با دستورالعملهایی، Gemini را آموزش دهد که اینگونه پیشفرضها را در نظر نگیرد و بر تعصبات غلبه کند.
اما به این دلیل که تاریخ و فرهنگ بشری انقدرها هم ساده نیست، نتیجه معکوس به بارآمده است. در شناخت تعصب و واقعیت، تفاوتهای ظریفی وجود دارد که ما میتوانیم به طور غریزی بشناسیم و ماشینها نمیتوانند. تنها راه اینکه یک ابزار هوش مصنوعی بداند که مثلا، نازیها و بنیانگذاران ایالات متحده سیاه پوست نبودند، این است که آن را به طور خاص به این منظور برنامهریزی کنید.
«دمیس حسابیس»، یکی از بنیانگذاران دیپمایند که یک شرکت هوش مصنوعی است که توسط گوگل خریداری شده، گفته که بازسازی برنامه هوش مصنوعی مولد تصویر Gemini چند هفته طول میکشد.اما سایر کارشناسان هوش مصنوعی در این مورد چندان مطمئن نیستند. دکتر «ساشا لوچونی»، پژوهشگر هوش مصنوعی در هاگینگفیس، میگوید:
«در واقع هیچ راهحل آسانی وجود ندارد، زیرا هیچ پاسخ واحدی برای اینکه خروجیها باید چه باشد، وجود ندارد و گروههای ناظر بر اخلاق هوش مصنوعی سالهاست که روی راههای ممکن برای رفع این مشکل کار میکنند»
او اضافه کرد که یک راه حل می تواند شامل درخواست از کاربران برای ابراز نظر آنها باشد، مثلا سؤال شود: «دوست دارید تصویر شما چقدر متنوع باشد؟» اما این به خودی خود به وضوح با خط قرمزهای اخلافی و اجتماعی همراه است. او گفت:
«این که گوگل بگوید این مشکل را ظرف چند هفته رفع خواهد کرد، حاکی از کمی تکبر است اما به هر حال، باید کاری انجام دهد»
پروفسور «آلن وودوارد»، استاد علوم کامپیوتر در دانشگاه ساری، گفته است که به نظر میرسد این مشکل به احتمال زیاد به شکلی بسیار عمیق در دادههای آموزشی و الگوریتمهای فراگیر جاگرفته و رفع آن دشوار است. او گفت:
«آنچه که شما شاهد آن هستید تاییدی است بر این که چرا باید در چرخه هر سیستمی که در آن بر خروجی به عنوان حقیقت اصلی تکیه میشود، هنوز باید یک انسان حضور داشته باشد»
رفتار بارد
از زمانی که گوگل Gemini را ابتدا با نام بارد راه اندازی کرد، به شدت نگران اینگونه مسایل بود. با توجه به موفقیتچتجیپیتی، رقیب اصلی گوگل، راهاندازی Gemini یکی از بی سرو صداترین مراسمی بود که تا به حال به آن دعوت شدهام. در این مراسم فقط من، از طریق زوم، و چند نفر از مدیران گوگل شرکت داشتند که مشتاق بودند بر محدودیتهای آن تاکید کنند.
و حتی این برنامه هم خراب شد زیرا معلوم شد که بارد در مطالب تبلیغاتی مربوط به خودش هم به سؤالی در مورد فضا پاسخ اشتباه داده است. به نظر میرسد سایر دستاندرکان این حوزه هم از آنچه رخ میدهد سردرگم شدهاند. همه آنها با یک موضوع دست و پنجه نرم می کنند. «رزی کمپبل»، مدیر سیاستگذاری اوپنایآی که سازنده چتجیپیتی است، اوایل این ماه در یک مصاحبه وبلاگی اظهار داشت که در اوپنآی حتی زمانی که جهتگیری خاصی شناسایی شود، تصحیح آن دشوار است و نیاز به دخالت انسانی دارد.
اما به نظر میرسد که گوگل روشی نسبتا درهم و برهم را برای اصلاح پیشداوریهای قدیمی انتخاب کرده است. و با انجام این کار ناخواسته مجموعهای کامل از پیشداوریهای جدید ایجاد کرده است. از لحاظ نظری، گوگل پیشتاز مهمی در مسابقه بر سر توسعه هوش مصنوعی است. این شرکت تراشههای هوش مصنوعی خود را میسازد و عرضه میکند، شبکه ابری خود را دارد (که برای پردازش هوش مصنوعی ضروری است)، به حجم زیادی از دادهها دسترسی دارد و همچنین دارای پایگاه کاربری عظیمی است.
این شرکت برای کار در زمینه هوش مصنوعی کارشناسان درجه یک جهان را استخدام میکند و کار هوش مصنوعی آن در سطح جهانی مورد توجه قرار میگیرد. همانطور که یکی از مدیران ارشد یک غول فناوری رقیب به من گفت:
«تماشای کارهای اشتباه Gemini مانند تماشای شکست در لحظهای است که همه تصور پیروزی را داشتند!»