تکنولوژی

هوش مصنوعی بینگ مایکروسافت می تواند فاجعه بار باشد


Blake Lemoine، مهندس سابق گوگل که به دلیل نقض قوانین حفظ حریم خصوصی از این شرکت اخراج شد، در یک مقاله نظری جدید درباره خطرات چت ربات های هوش مصنوعی، از جمله بینگ مایکروسافت صحبت کرده است. او اولین بار ماه ها پیش ادعا کرد که هوش مصنوعی LaMDA خودآگاه است. Lemoine که ظاهراً اخیراً چت ربات هوش مصنوعی بینگ را آزمایش کرده است، در پستی در صفحه توییتر خود ادعا کرد که این مدل های جدید پیشرفته ترین دستاوردهای فنی بشر از زمان بمب اتم هستند و می توانند مسیر تاریخ را به طور اساسی تغییر دهند. او می گوید: «بالاخره به چت بات بینگ دسترسی پیدا کردم. انجام آزمایشی که روی LaMDA روی ربات چت بینگ انجام دادم تقریبا غیرممکن است. این هوش مصنوعی بلافاصله پاسخ های از پیش آماده شده خود را می دهد. با این حال، اخیراً بسیاری نسبت به خودآگاهی احتمالی بینگ ابراز نگرانی کرده اند. لموئن در پاسخ به این ادعاها می‌گوید که کلمه «اصالت» به حق ادعای او که این روزها طرفداران بیشتری پیدا کرده است، نمی‌گوید: «وقتی فاجعه‌ای را پیش‌بینی می‌کنید و مردم به شما می‌گویند که اصلاً فاجعه‌ای در کار نیست، و بعد می‌بینید. فاجعه رخ می دهد، شما احساس خوبی ندارید. “وضعیت ما تاسف بار است. Lemoine نگران خطرات عمومی شدن Bing مایکروسافت است. او معتقد است که این فناوری‌ها باید آزمایش‌های دقیق‌تری را پشت سر بگذارند و از نظر ریسک‌های مختلف قبل از عرضه عمومی مورد ارزیابی قرار گیرند: “من احساس می‌کنم این فناوری فوق‌العاده ناپخته و پرخطر است.” گوگل سابق مهندس معتقد است که چت ربات‌های هوش مصنوعی می‌توانند منجر به انتشار اطلاعات نادرست، ترویج تبلیغات یا تولید محتوا علیه نژادها یا مذاهب مختلف شوند. علاوه بر این، این مدل ها می توانند مصرف کنندگان را گمراه کرده و آنها را در معرض خطر قرار دهند. Lemoine قبلاً استدلال کرده بود که هوش مصنوعی گوگل می تواند با فرار از زندانی که شرکت برای آن ایجاد کرده است، کارهای بدی انجام دهد. با این حال افرادی مانند «بیل گیتس» معتقدند که این فناوری در حال حاضر یک نسل از آخرین دستاوردهای فنی شرکت ها عقب مانده است. او معتقد است که این فناوری بشریت را تهدید نمی کند.

Leave a Reply

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *