در عصری که فناوری هوش مصنوعی به سرعت در حال تغییر جهان است، گوگل نیز با چالشهایی روبهرو شده است که آینده ابزارهای هوش مصنوعی را متاثر میسازد. در این مقاله، به بررسی داستان پشت پرده توسعه چتبات «بارد» و مدل تولید تصویر «جمنای» میپردازیم تا ببینیم چگونه شتابزدگی و ضعفهای اخلاقی به بحرانهای جدی ختم شدهاند.
روزهای پرتنش آغازین بارد؛ از شتاب تا سردرگمی
توسعه مدل هوش مصنوعی بارد در دسامبر ۲۰۲۱ (آذر و دی ۱۴۰۰) و پس از اعلام وضعیت اضطراری در گوگل آغاز شد. هدف، رقابت با ChatGPT شرکت OpenAI بود. اما تنها ۱۰۰ روز زمان برای ساخت این ابزار به تیم گوگل داده شد؛ راهبردی که به وضوح باعث ایجاد تنش و سردرگمی میان کارکنان شد. از طرفی، تأکید رسمی گوگل بر «عدم قربانی کردن کیفیت در برابر سرعت»، در عمل برای اعضای تیم، مبهم و غیرعملی به نظر میرسید.
در همین حین، نسخههای اولیه بارد خروجیهایی توهینآمیز، کلیشهای و گاهی خندهدار تولید میکردند. به عنوان مثال، این چتبات افراد با نامهای هندی را بهصورت پیشفرض «بازیگر بالیوود» معرفی میکرد، در حالی که برای نامهای چینی، عموماً از اصطلاح «دانشمند کامپیوتر» استفاده میکرد. حتی عملکردهای خطرناکتر نیز گزارش شد؛ مانند نوشتن اشعاری پر از مضامین خشن و نامرتبط با درخواستهای کاربران.
جمنای؛ الگوریتمهایی در دام سوگیری نژادی
مدل تولید تصویر جمنای نیز نتوانست از بحرانهای اخلاقی و سوگیریهای نژادی دور باشد. در برخی موارد، این مدل هنگام درخواست نشان دادن «متجاوز»، تصاویری از افراد تیرهپوست تولید میکرد؛ مسئلهای که بلافاصله زنگ خطر تیمهای بازبینی داخلی گوگل را به صدا درآورد. برخی از کارکنان پیشنهاد کردند قابلیت تولید چهره انسان به طور موقت غیرفعال شود، اما فشار مدیریت برای عرضه سریع این ابزارها به نگرانیهای اخلاقی غالب شد.
یکی از نمونههای جنجالی این بود که الگوریتم جمنای در پاسخ به درخواستهایی مانند «سناتور آمریکایی قرن نوزدهم»، تنها تصاویر اقلیتهای نژادی را تولید کرد و حتی یک فرد سفیدپوست در میان آنها نبود. همچنین، هنگام تولید تصویر از سربازان نازی، چهرههایی عمدتاً غیرسفیدپوست ارائه میشد؛ رویدادی که واکنش تند رسانههای محافظهکار و سیاستمداران جمهوریخواه را برانگیخت و جمنای «هوش مصنوعی وُک» خوانده شد.
آینده ابزارهای هوش مصنوعی گوگل
تجارب اخیر گوگل در توسعه بارد و جمنای بار دیگر نشان داد که شتاب در رقابت بدون در نظر گرفتن اخلاق و نظارت، میتواند نه تنها به اشتباهات، بلکه به بحرانهای فرهنگی و رسانهای بزرگ منجر شود. با این حال، اقدامات اخیر گوگل شامل جذب نیروهای جدید در بخش اعتماد و ایمنی و تدوین اصول اخلاقی جدید، نشان از تلاش این شرکت برای کنترل خسارات و بازسازی تصویر خود دارد.
Conclusion
هرچند هوش مصنوعی گوگل در مسیر پیشرفت با چالشهای بزرگی روبهرو شد، اما آینده ابزارهای هوش مصنوعی نیازمند پایههای اخلاقی و کنترلی قویتری است. این تجربه هشداری برای سایر شرکتهاست که نادیدهگرفتن اصول انسانی و اخلاقی در رقابتهای فناوری ممکن است هزینههای جبرانناپذیری به همراه داشته باشد.
«قرار است این ابزار به هر قیمتی منتشر شود.»
– یکی از اعضای پیشین تیم بازبینی گوگل
دیدگاه ها