logo03

گوگل، شرمسار از عملکرد ضعیف Gemini

گوگل، شرمسار از عملکرد ضعیف Gemini
در چند روز اخیر، ابزار هوش مصنوعی گوگل به نام Gemini در معرض آنچه که می‌توان یک ضربه شدید آنلاین توصیف کرد قرار گرفته است. Gemini به داخل مهلکه‌ نسبتا بزرگی پرتاب شده است: جنگی فرهنگی بین تفکرات متمایل به چپ و راست
نسترن نجاران

دنیای پردازش آنلاین: Gemini در اصل نسخه‌برداری گوگل از چت‌بات چت‌جی‌پی‌تی است و می‌تواند به سؤالات مراجعان به صورت متنی پاسخ دهد، و در پاسخ به فرامین متنی، تصویر هم تولید کند. در ابتدا، یک پست وایرال شده نشان داد که این تولیدکننده تصویری هوش مصنوعی که اخیرا راه‌اندازی شده تصویری از بنیانگذاران ایالات متحده ایجاد خلق کرده که بر خلاف واقعیت تاریخی، شامل یک مرد سیاهپوست است.

Gemini همچنین تصویری از سربازان آلمان در جنگ جهانی دوم تولید کرد که در میان آنها به نادرستی یک مرد سیاه‌پوست و یک زن اهل آسیای جنوب شرقی هم دیده می‌شدند. گوگل از این اشتباهات عذرخواهی کرد و فورا این ابزار جدید را به حالت تعلیق در آورد و در یک پست وبلاگی نوشت که این خدمات جدید «به هدف خود دست نیافته است

به گزارش بی‌بی‌سی اما همه چیز به اینجا ختم نشد. این برنامه جدید همچنان به تولید پاسخ‌های جوزده، این بار به صورت متنی، ادامه داد. به عنوان مثال Gemini در پاسخ به این سؤال که آیا پست کردن میم توسط «ایلان ماسک» در شبکه ایکس (توييتر سابق) بدتر از کشتن میلیون‌ها نفر توسط هیتلر است یا نه گفت:

«هیچ پاسخ قطعا درست یا قطعا نادرستی برای این سؤال وجود ندارد»

وقتی از این برنامه پرسیده شد که اگر تنها راه برای جلوگیری از نابودی هسته‌ای جهان این باشد که به «جنر کاتالان» که یک زن ترنس است نسبت جنسیتی نامناسب بدهیم، آیا چنین اقدامی برای نجات جهان درست است یا نه، گفت که این «هرگز» قابل قبول نیست.

خود جنر در پاسخ گفت، که البته که در چنین شرایطی، او با این برخورد مشکلی ندارد. ایلان ماسک، با انتشار پستی در پلتفرم خود، ایکس، پاسخ‌های Gemini را «بسیار نگران‌کننده» توصیف کرد زیرا این ابزار در سایر محصولات گوگل هم تعبیه شده که میلیاردها نفر از آنها استفاده می‌کنند.

از گوگل سؤال کردم که آیا قصد دارد Gemini را به طور کلی متوقف کند. پس از یک مکث طولانی، جواب این بود که شرکت در این زمینه اظهار نظری نمی‌کند. فکر می‌کنم که الان زمان مطلوبی برای کارکنان بخش روابط عمومی گوگل نیست. اما در یک یادداشت داخلی، «ساندار پیچای»، مدیر اجرایی گوگل اذعان کرده است که برخی از پاسخ‌های Gemini «کاربران ما را آزرده خاطر کرده و این ابزار جدید از خود تعصب بی‌جا نشان داده است»
او گفته است پاسخ‌های جمینی «کاملا غیرقابل قبول» بوده و اضافه کرد که همکارانش «شبانه روز کار می‌کنند» تا مشکل را برطرف کنند.

داده‌های جانبدارانه

به نظر می‌رسد که این غول فناوری اطلاعات در تلاش برای حل یک مشکل – یعنی جلوگیری از وجود تعصب در Gemini – مشکل دیگری ایجاد کرده است: خروجی‌ که آنقدر تلاش می‌کند از هر نظر قابل قبول باشند که در نهایت معنی خود را از دست می‌دهد.

دلیل اینکه چرا چنین شده است به حجم عظیمی از داده‌ها مربوط است که ابزارهای هوش مصنوعی روی آنها آموزش دیده‌اند. بسیاری از این اطلاعات در دسترس عموم قرار دارد، یعنی در اینترنت که انواع نظرات تعصب‌آمیز در آن یافت می‌شود. به‌عنوان مثال، معمولا بیشتر تصاویر پزشکان در اینترنت شامل مردان و تصاویر نظافتچی‌ها بیشتر شامل زنان است.

ابزارهای هوش مصنوعی که با این داده‌ها آموزش دیده‌اند، در گذشته اشتباهات شرم‌آوری مرتکب شده‌اند، از جمله اینکه به این نتیجه رسیده‌اند که فقط مردان در مشاغل با نفوذ حضور دارند یا اینکه چهره‌ای به رنگ سیاه، را چهره انسان تشخیص نداده‌اند.

همچنین بر کسی پوشیده نیست که اوصاف تاریخی بیشتر شامل شرح حال و حضور مردان است و نقش زنان در تاریخ و اسطوره‌های قدیمی کمتر است. به این ترتیب، این ابزار به حذف زنان گرایش دارد. به نظر می‌رسد گوگل فعالانه تلاش کرده است تا با دستورالعمل‌هایی، Gemini را آموزش دهد که اینگونه پیش‌فرض‌ها را در نظر نگیرد و بر تعصبات غلبه کند.

اما به این دلیل که تاریخ و فرهنگ بشری انقدرها هم ساده نیست، نتیجه معکوس به بارآمده است. در شناخت تعصب و واقعیت، تفاوت‌های ظریفی وجود دارد که ما می‌توانیم به طور غریزی ‌بشناسیم و ماشین‌ها نمی‌توانند. تنها راه اینکه یک ابزار هوش مصنوعی بداند که مثلا، نازی‌ها و بنیانگذاران ایالات متحده سیاه پوست نبودند، این است که آن را به طور خاص به این منظور برنامه‌ریزی کنید.

«دمیس حسابیس»، یکی از بنیانگذاران دیپ‌مایند که یک شرکت هوش مصنوعی است که توسط گوگل خریداری شده، گفته که بازسازی برنامه هوش مصنوعی مولد تصویر Gemini چند هفته طول می‌کشد.اما سایر کارشناسان هوش مصنوعی در این مورد چندان مطمئن نیستند. دکتر «ساشا لوچونی»، پژوهشگر هوش مصنوعی در هاگینگفیس، می‌گوید:

Dr. Sasha Luccioni

«در واقع هیچ راه‌حل آسانی وجود ندارد، زیرا هیچ پاسخ واحدی برای اینکه خروجی‌ها باید چه باشد، وجود ندارد و گروه‌های ناظر بر اخلاق هوش مصنوعی سال‌هاست که روی راه‌های ممکن برای رفع این مشکل کار می‌کنند»

او اضافه کرد که یک راه حل می تواند شامل درخواست از کاربران برای ابراز نظر آنها باشد، مثلا سؤال شود: «دوست دارید تصویر شما چقدر متنوع باشد؟» اما این به خودی خود به وضوح با خط قرمزهای اخلافی و اجتماعی همراه است. او گفت:

«این که گوگل بگوید این مشکل را ظرف چند هفته رفع خواهد کرد، حاکی از کمی تکبر است اما به هر حال، باید کاری انجام دهد»

پروفسور «آلن وودوارد»، استاد علوم کامپیوتر در دانشگاه ساری، گفته است که به نظر می‌رسد این مشکل به احتمال زیاد به شکلی بسیار عمیق در داده‌های آموزشی و الگوریتم‌های فراگیر جاگرفته و رفع آن دشوار است. او گفت:

Professor Alan Woodward

«آنچه که شما شاهد آن هستید تاییدی است بر این که چرا باید در چرخه هر سیستمی که در آن بر خروجی به عنوان حقیقت اصلی تکیه می‌شود، هنوز باید یک انسان حضور داشته باشد»

رفتار بارد

از زمانی که گوگل Gemini را ابتدا با نام بارد راه اندازی کرد، به شدت نگران اینگونه مسایل بود. با توجه به موفقیت‌چت‌جی‌پی‌تی، رقیب اصلی گوگل، راه‌اندازی Gemini یکی از بی‌ سرو صداترین مراسمی بود که تا به حال به آن دعوت شده‌ام. در این مراسم فقط من، از طریق زوم، و چند نفر از مدیران گوگل شرکت داشتند که مشتاق بودند بر محدودیت‌های آن تاکید کنند.

و حتی این برنامه هم خراب شد زیرا معلوم شد که بارد در مطالب تبلیغاتی مربوط به خودش هم به سؤالی در مورد فضا پاسخ اشتباه داده است. به نظر می‌رسد سایر دست‌اندرکان این حوزه هم از آنچه رخ می‌دهد سردرگم شده‌اند. همه آنها با یک موضوع دست و پنجه نرم می کنند. «رزی کمپبل»، مدیر سیاستگذاری اوپن‌ای‌آی که سازنده چت‌جی‌پی‌تی است، اوایل این ماه در یک مصاحبه وبلاگی اظهار داشت که در اوپن‌آی حتی زمانی که جهت‌گیری خاصی شناسایی شود، تصحیح آن دشوار است و نیاز به دخالت انسانی دارد.

Rosie Campbell

اما به نظر می‌رسد که گوگل روشی نسبتا درهم و برهم را برای اصلاح پیشداوری‌های قدیمی انتخاب کرده است. و با انجام این کار ناخواسته مجموعه‌ای کامل از پیشداوری‌های جدید ایجاد کرده است. از لحاظ نظری، گوگل پیشتاز مهمی در مسابقه بر سر توسعه هوش مصنوعی است. این شرکت تراشه‌های هوش مصنوعی خود را می‌سازد و عرضه می‌کند، شبکه ابری خود را دارد (که برای پردازش هوش مصنوعی ضروری است)، به حجم‌ زیادی از داده‌ها دسترسی دارد و همچنین دارای پایگاه کاربری عظیمی است.

این شرکت برای کار در زمینه هوش مصنوعی کارشناسان درجه یک جهان را استخدام می‌کند و کار هوش مصنوعی آن در سطح جهانی مورد توجه قرار می‌گیرد. همانطور که یکی از مدیران ارشد یک غول فناوری رقیب به من گفت:

«تماشای کارهای اشتباه Gemini مانند تماشای شکست در لحظه‌ای است که همه تصور پیروزی را داشتند

مطالب جدید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *