بر اساس گزارش سیانبیسی از یک جلسه، گوگل نگران است که این سیستم پاسخهایی بدهد که معقول به نظر میرسند اما ممکن است به طور مشخص اشتباه باشند.
در روزهای اخیر، سیستم چتجیپیتی (ChatGPT) که اوپنایآی (OpenAI) آن را ساخته، بسیار محبوب شده است. توانایی آن در ساخت همهچیز از متنهای جعلی تلویزیونی گ..
ست نیوز
بر اساس گزارش سیانبیسی از یک جلسه، گوگل نگران است که این سیستم پاسخهایی بدهد که معقول به نظر میرسند اما ممکن است به طور مشخص اشتباه باشند.
در روزهای اخیر، سیستم چتجیپیتی (ChatGPT) که اوپنایآی (OpenAI) آن را ساخته، بسیار محبوب شده است. توانایی آن در ساخت همهچیز از متنهای جعلی تلویزیونی گرفته تا کدهای برنامهنویسی، مبنایی برای توییتهای محبوب و پربیننده و هراس از آینده بسیاری از صنایع شده است.
به گزارش ایتنا و به نقل از ایندیپندنت، محبوبیت این سیستم بسیاری را به این فکر واداشته که آیا گوگل سیستم خود را عرضه خواهد کرد و آیا با این کار فرصتی را از دست داده است. سیانبیسی گزارش داد که همین پرسش در جلسهای با حضور همه اعضا که این هفته در شرکت برگزار شد، مطرح شد.
اما ساندار پیچای، مدیر اجرایی آلفابت، و جف دین، رئیس هوش مصنوعی گوگل، گفتند که به دلیل میزان و ریسکی که این اپلیکیشن میتواند برای شهرت و اعتبار گوگل داشته باشد، این شرکت باید «محافظهکارانه» حرکت کند.
سیستم گوگل لامدا (LaMDA) نام دارد که مخفف مدل زبانی برای کاربردهای مکالمهای (Language Model for Dialogue Applications) است. اوایل سال جاری، هنگامی که یکی از مهندسان گوگل ادعا کرد لامدا «خودآگاه و دارای احساس» شده است، به یک رسوایی جزئی دامن زد؛ ادعایی که بیشتر کارشناسان آن را رد کردند.
گوگل میگوید که فناوری ساختهشده به عنوان بخشی از توسعه لامدا هماکنون در پیشنهاد جستوجوی این شرکت استفاده شده است. به عنوان مثال، این سیستم میتواند تشخیص دهد افراد چه زمانی ممکن است به کمک شخصی نیاز داشته باشند و آنها را به سازمانهایی هدایت خواهد کرد که میتوانند آن کمکها را ارائه دهند.
اما بر اساس گزارشها، گوگل اینک در درجه اول، تا زمانی که بتوان با اطمینان بیشتری به آن تکیه کرد، در همین زمینهها باقی خواهد ماند.
دین گفت: «ما در هر صورت در پی آنیم که این چیزها را در محصولات واقعی استفاده کنیم؛ چیزهایی که بیشتر به طور مشخص، دارای مدل زبانیاند تا اینکه در لفافه باشند؛ چیزی که ما تا به امروز از آنها استفاده میکردهایم. اما، بسیار مهم است که این موضوع را درست انجام دهیم.»
مشکلات این دست سیستمهای هوش مصنوعی بارها و بارها با جزئیات بیان شدهاند. این مشکلات عبارتاند از هراس از سوءگیری؛ به خصوص زمانی که سیستم تنها با دانش محدودی آموزش دیده باشد و این واقعیت که تشخیص اینکه آیا یک پاسخ واقعا درست است یا نه، دشوار است.
به رغم فناوریهای پیشرفته زیربنای چت جیپیتی، بسیاری از این مشکلات در حال حاضر در آن مشاهده شدهاند. به عنوان مثال، سیستم اغلب به شکلی مطمئن و قانعکننده، به پرسشها با پاسخهایی که به غایت اشتباهاند، جواب میدهد.منبع :ایتنا