رسوایی بزرگ گوگل در هوش مصنوعی؛ چت‌بات‌های بارد و جمنای به دام نژادپرستی افتادند!

در عصری که فناوری هوش مصنوعی به سرعت در حال تغییر جهان است، گوگل نیز با چالش‌هایی روبه‌رو شده است که آینده ابزارهای هوش مصنوعی را متاثر می‌سازد. در این مقاله، به بررسی داستان پشت پرده توسعه چت‌بات «بارد» و مدل تولید تصویر «جمنای» می‌پردازیم تا ببینیم چگونه شتاب‌زدگی و ضعف‌های اخلاقی به بحران‌های جدی ختم شده‌اند.

روزهای پرتنش آغازین بارد؛ از شتاب تا سردرگمی

توسعه مدل هوش مصنوعی بارد در دسامبر ۲۰۲۱ (آذر و دی ۱۴۰۰) و پس از اعلام وضعیت اضطراری در گوگل آغاز شد. هدف، رقابت با ChatGPT شرکت OpenAI بود. اما تنها ۱۰۰ روز زمان برای ساخت این ابزار به تیم گوگل داده شد؛ راهبردی که به وضوح باعث ایجاد تنش و سردرگمی میان کارکنان شد. از طرفی، تأکید رسمی گوگل بر «عدم قربانی کردن کیفیت در برابر سرعت»، در عمل برای اعضای تیم، مبهم و غیرعملی به نظر می‌رسید.

در همین حین، نسخه‌های اولیه بارد خروجی‌هایی توهین‌آمیز، کلیشه‌ای و گاهی خنده‌دار تولید می‌کردند. به عنوان مثال، این چت‌بات افراد با نام‌های هندی را به‌صورت پیش‌فرض «بازیگر بالیوود» معرفی می‌کرد، در حالی که برای نام‌های چینی، عموماً از اصطلاح «دانشمند کامپیوتر» استفاده می‌کرد. حتی عملکرد‌های خطرناک‌تر نیز گزارش شد؛ مانند نوشتن اشعاری پر از مضامین خشن و نامرتبط با درخواست‌های کاربران.

جمنای؛ الگوریتم‌هایی در دام سوگیری نژادی

مدل تولید تصویر جمنای نیز نتوانست از بحران‌های اخلاقی و سوگیری‌های نژادی دور باشد. در برخی موارد، این مدل هنگام درخواست نشان دادن «متجاوز»، تصاویری از افراد تیره‌پوست تولید می‌کرد؛ مسئله‌ای که بلافاصله زنگ خطر تیم‌های بازبینی داخلی گوگل را به صدا درآورد. برخی از کارکنان پیشنهاد کردند قابلیت تولید چهره انسان به طور موقت غیرفعال شود، اما فشار مدیریت برای عرضه سریع این ابزارها به نگرانی‌های اخلاقی غالب شد.

یکی از نمونه‌های جنجالی این بود که الگوریتم جمنای در پاسخ به درخواست‌هایی مانند «سناتور آمریکایی قرن نوزدهم»، تنها تصاویر اقلیت‌های نژادی را تولید کرد و حتی یک فرد سفیدپوست در میان آن‌ها نبود. همچنین، هنگام تولید تصویر از سربازان نازی، چهره‌هایی عمدتاً غیرسفیدپوست ارائه می‌شد؛ رویدادی که واکنش تند رسانه‌های محافظه‌کار و سیاستمداران جمهوری‌خواه را برانگیخت و جمنای «هوش مصنوعی وُک» خوانده شد.

آینده ابزارهای هوش مصنوعی گوگل

تجارب اخیر گوگل در توسعه بارد و جمنای بار دیگر نشان داد که شتاب در رقابت بدون در نظر گرفتن اخلاق و نظارت، می‌تواند نه تنها به اشتباهات، بلکه به بحران‌های فرهنگی و رسانه‌ای بزرگ منجر شود. با این حال، اقدامات اخیر گوگل شامل جذب نیروهای جدید در بخش اعتماد و ایمنی و تدوین اصول اخلاقی جدید، نشان از تلاش این شرکت برای کنترل خسارات و بازسازی تصویر خود دارد.

Conclusion

هرچند هوش مصنوعی گوگل در مسیر پیشرفت با چالش‌های بزرگی رو‌به‌رو شد، اما آینده ابزارهای هوش مصنوعی نیازمند پایه‌های اخلاقی و کنترلی قوی‌تری است. این تجربه هشداری برای سایر شرکت‌هاست که نادیده‌گرفتن اصول انسانی و اخلاقی در رقابت‌های فناوری ممکن است هزینه‌های جبران‌ناپذیری به همراه داشته باشد.

«قرار است این ابزار به هر قیمتی منتشر شود.»

– یکی از اعضای پیشین تیم بازبینی گوگل

مطلب رو دوست داشتی؟

نظرت راجع به مطلب چیه؟

اشتراک گذاری این مطلب
مطالب
مرتبط

دیدگاه ها

دیدگاهی بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *