شرکت مادر فیس بوک از محققان دعوت می کند تا ایرادات نسخه GPT-3 خود را بررسی کرده و آن را جدا کنند.
آزمایشگاه هوش مصنوعی متا یک مدل زبان جدید عظیم ایجاد کرده است که هم توانایی های قابل توجه و هم نقص های مضر شبکه عصبی پیشگام OpenAI GPT-3 را به اشتراک می گذارد. و در اقدامی بی‌سابقه برای Big Tech، آن را در اختیار محققان قرار می‌دهد – همراه با جزئیات در مورد نحوه ساخت و آموزش آن .
ما قویاً معتقدیم که توانایی دیگران برای بررسی دقیق کار شما بخش مهمی از تحقیق است. ما واقعاً از این همکاری دعوت می کنیم.
حرکت متا برای اولین بار است که یک مدل زبان بزرگ کاملاً آموزش دیده در اختیار هر محققی قرار می گیرد که بخواهد آن را مطالعه کند. این خبر مورد استقبال بسیاری از افراد نگران نحوه ساخت این فناوری قدرتمند توسط تیم های کوچک پشت درهای بسته قرار گرفته است.
امیلی ام. بندر، زبان شناس محاسباتی در دانشگاه واشنگتن و منتقد مکرر شیوه توسعه و بکارگیری مدل های زبانی، می گوید: «من شفافیت اینجا را تحسین می کنم.
توماس ولف، دانشمند ارشد Hugging Face، استارت‌آپ هوش مصنوعی پشت BigScience ، پروژه‌ای که در آن بیش از 1000 داوطلب در سراسر جهان بر روی یک مدل زبان منبع باز با یکدیگر همکاری می‌کنند، می‌گوید: «این یک حرکت عالی است. او می گوید: «مدل های بازتر بهتر است.
مدل‌های زبان بزرگ – برنامه‌های قدرتمندی که می‌توانند پاراگراف‌هایی از متن تولید کنند و مکالمه انسانی را تقلید کنند – به یکی از داغ‌ترین گرایش‌ها در هوش مصنوعی در چند سال گذشته تبدیل شده‌اند. اما آنها دارای نقص های عمیق ، اطلاعات غلط طوطی وار، تعصب، و زبان سمی هستند.
در تئوری، قرار دادن افراد بیشتری برای کار روی مشکل باید کمک کند. با این حال، از آنجایی که مدل‌های زبانی برای آموزش به داده‌ها و قدرت محاسباتی زیادی نیاز دارند، تاکنون پروژه‌هایی برای شرکت‌های فناوری غنی باقی مانده‌اند. جامعه تحقیقاتی گسترده‌تر، از جمله اخلاق‌دانان و دانشمندان علوم اجتماعی که نگران استفاده نادرست از آنها هستند، مجبور شده‌اند از حاشیه تماشا کنند.
برای حمایت از روزنامه نگاری MIT Technology Review، لطفاً مشترک شوید .
هوش مصنوعی متا می گوید که می خواهد آن را تغییر دهد. پینو می گوید: «بسیاری از ما محقق دانشگاه بوده ایم. ما از شکافی که بین دانشگاه ها و صنعت در زمینه توانایی ساخت این مدل ها وجود دارد، می دانیم. در دسترس قرار دادن این یکی برای محققان بی‌معنا بود.» او امیدوار است که دیگران بر روی کار آنها منافذ کنند و آن را از هم جدا کنند یا بر روی آن بسازند. او می‌گوید وقتی افراد بیشتری درگیر هستند، پیشرفت‌ها سریع‌تر اتفاق می‌افتد.
متا مدل خود را با نام Open Pretrained Transformer (OPT) برای استفاده غیرتجاری در دسترس قرار داده است. همچنین در حال انتشار کد و دفترچه گزارشی است که روند آموزش را مستند می کند. دفترچه گزارش شامل به‌روزرسانی‌های روزانه اعضای تیم در مورد داده‌های آموزشی است: چگونه به مدل اضافه شد و چه زمانی، چه چیزی کار کرد و چه چیزی کار نکرد. محققان در بیش از 100 صفحه یادداشت، هر اشکال، خرابی و راه‌اندازی مجدد را در یک فرآیند آموزشی سه ماهه که از اکتبر 2021 تا ژانویه 2022 بدون وقفه اجرا می‌شد، ثبت می‌کنند.
OPT با 175 میلیارد پارامتر (مقادیر در شبکه عصبی که در حین آموزش بهینه می‌شوند)، به اندازه GPT-3 است. Pineau می‌گوید: این به دلیل طراحی بود. تیم OPT را برای مطابقت با GPT-3 هم از نظر دقت در تکالیف زبانی و هم از نظر سمیت آن ساخته است. OpenAI GPT-3 را به عنوان یک سرویس پولی در دسترس قرار داده است، اما خود مدل یا کد آن را به اشتراک نمی گذارد. Pineau می گوید، ایده این بود که یک مدل زبان مشابه برای مطالعه در اختیار محققان قرار دهیم.
OpenAI دعوت به اظهار نظر در مورد اطلاعیه متا را رد کرد.
گوگل که در حال بررسی استفاده از مدل های زبان بزرگ در محصولات جستجوی خود است، به دلیل عدم شفافیت نیز مورد انتقاد قرار گرفته است. این شرکت در سال 2020 هنگامی که اعضای برجسته تیم اخلاق هوش مصنوعی خود را پس از انجام مطالعه ای که مشکلات مربوط به این فناوری را برجسته می کرد، اخراج کرد، جنجال برانگیخت.
پس چرا متا این کار را می کند؟ به هر حال، متا شرکتی است که در مورد نحوه عملکرد الگوریتم‌های پشت فیس‌بوک و اینستاگرام سخنی نگفته است و به دفن یافته‌های نامطلوب توسط تیم‌های تحقیقاتی داخلی خود شهرت دارد. دلیل بزرگی برای رویکرد متفاوت متا هوش مصنوعی، خود Pineau است که چندین سال برای شفافیت بیشتر در هوش مصنوعی تلاش کرده است.
غول های فناوری بر تحقیقات تسلط دارند، اما مرز بین پیشرفت واقعی و نمایش محصول می تواند مبهم باشد. برخی از دانشمندان به اندازه کافی بوده اند.
Pineau به تغییر نحوه انتشار تحقیقات در چندین کنفرانس بزرگ کمک کرد و چک لیستی از مواردی که محققان باید در کنار نتایج خود ارائه کنند، از جمله کد و جزئیات مربوط به نحوه اجرای آزمایش‌ها را معرفی کرد. از زمانی که در سال 2017 به متا (در آن زمان فیس بوک) پیوست، از این فرهنگ در آزمایشگاه هوش مصنوعی خود دفاع کرده است.
او می گوید: «این تعهد به علم باز دلیل حضور من در اینجاست. "من با هیچ شرایط دیگری اینجا نبودم."
در نهایت، Pineau می خواهد نحوه قضاوت ما در مورد هوش مصنوعی را تغییر دهد. او می‌گوید: «آنچه که امروزه به آن پیشرفته‌تر می‌گوییم، نمی‌تواند فقط مربوط به عملکرد باشد. از نظر مسئولیت نیز باید به روز باشد.»
با این حال، ارائه یک مدل زبان بزرگ یک حرکت جسورانه برای متا است. پینو می‌گوید: «نمی‌توانم به شما بگویم که هیچ خطری وجود ندارد که این مدل زبانی را تولید کند که ما به آن افتخار نکنیم. "این خواهد شد."
مارگارت میچل، یکی از محققان اخلاق هوش مصنوعی که گوگل در سال 2020 مجبور به ترک آن شد و اکنون در Hugging Face است، انتشار OPT را حرکتی مثبت می داند. اما او فکر می کند که محدودیت هایی برای شفافیت وجود دارد. آیا مدل زبان با دقت کافی تست شده است؟ آیا مزایای قابل پیش بینی بیشتر از آسیب های قابل پیش بینی است – مانند تولید اطلاعات غلط یا زبان نژادپرستانه و زن ستیز؟
او می‌گوید: «ارائه یک مدل زبانی بزرگ برای جهانی که احتمالاً مخاطبان گسترده‌ای از آن استفاده می‌کنند یا تحت تأثیر نتایج آن قرار می‌گیرند، مسئولیت‌هایی را به همراه دارد. میچل خاطرنشان می کند که این مدل نه تنها به خودی خود، بلکه از طریق برنامه های کاربردی پایین دستی که محققان بر روی آن ایجاد می کنند، می تواند محتوای مضر تولید کند.
به گفته Pineau، هوش مصنوعی متا OPT را بررسی کرد تا برخی از رفتارهای مضر را حذف کند، اما نکته این است که مدلی را منتشر کند که محققان بتوانند از زگیل و همه چیز یاد بگیرند.
او می‌گوید: «گفت‌وگوهای زیادی در مورد چگونگی انجام این کار به گونه‌ای بود که به ما اجازه دهد شب‌ها بخوابیم، زیرا می‌دانستیم که یک خطر غیر صفر از نظر شهرت، یک خطر غیر صفر از نظر آسیب وجود دارد. او این ایده را رد می کند که شما نباید یک مدل را منتشر کنید زیرا بسیار خطرناک است – این دلیلی است که OpenAI برای عرضه نکردن نسخه قبلی GPT-3، GPT-2 ارائه کرد. او می‌گوید: «من نقاط ضعف این مدل‌ها را درک می‌کنم، اما این یک طرز فکر پژوهشی نیست.
صدها دانشمند در سراسر جهان با هم کار می کنند تا قبل از اینکه خیلی دیر شود، یکی از قدرتمندترین فناوری های نوظهور را درک کنند.
بندر، که این مطالعه را در مرکز اختلاف گوگل با میچل انجام داده است، همچنین نگران نحوه رسیدگی به آسیب های احتمالی است. او می‌گوید: «یک چیزی که در کاهش خطرات هر نوع فناوری یادگیری ماشینی واقعاً کلیدی است، ارزیابی‌ها و اکتشافات زمینی در موارد استفاده خاص است. «سیستم برای چه استفاده خواهد شد؟ چه کسی از آن استفاده خواهد کرد و خروجی های سیستم چگونه به آنها ارائه می شود؟
برخی از محققان این سوال را مطرح می‌کنند که چرا مدل‌های زبانی بزرگ با توجه به پتانسیل آسیب‌رسانی آنها ساخته می‌شوند. برای Pineau، این نگرانی ها باید با قرار گرفتن در معرض بیشتر، نه کمتر، پاسخ داده شود. او می گوید: «من معتقدم تنها راه برای ایجاد اعتماد، شفافیت شدید است.
او می‌گوید: «ما در سرتاسر جهان نظرات متفاوتی در مورد اینکه چه گفتاری مناسب است داریم و هوش مصنوعی بخشی از این گفتگو است. او انتظار ندارد که مدل های زبانی چیزهایی بگویند که همه با آن موافق هستند. اما چگونه با آن دست و پنجه نرم کنیم؟ شما در آن بحث به صداهای زیادی نیاز دارید.»
یک سری بررسی فناوری MIT به بررسی این موضوع می‌پردازد که چگونه هوش مصنوعی با سلب مالکیت جوامعی که قبلاً سلب مالکیت شده‌اند، عده‌ای قدرتمند را غنی می‌کند.
آخرین هوش مصنوعی تصویرسازی OpenAI شگفت‌انگیز است، اما سوالاتی را در مورد اینکه منظور ما از هوش چیست، ایجاد می‌کند.
کلماتی که مردم برای توصیف تجربیات سفر خود به کار می برند، می تواند به داروهای بهتری برای درمان بیماری های روانی منجر شود.
با افزایش تقاضا برای برچسب گذاری داده ها، یک فاجعه اقتصادی ونزوئلا را به زمین صفر برای مدل جدیدی از استثمار نیروی کار تبدیل کرد.
پیشنهادهای ویژه، داستان های برتر، رویدادهای آینده و موارد دیگر را کشف کنید.
از اینکه ایمیل خود را ثبت کردید، متشکریم!
به نظر می رسد مشکلی پیش آمده است.
ما در ذخیره تنظیمات برگزیده شما با مشکل روبرو هستیم. سعی کنید این صفحه را بازخوانی کنید و یک بار دیگر آنها را به روز کنید. اگر همچنان این پیام را دریافت می‌کنید، با فهرستی از خبرنامه‌هایی که می‌خواهید دریافت کنید، از طریق customer-service@technologyreview.com با ما تماس بگیرید.
گزارش‌های عمیق ما نشان می‌دهد که در حال حاضر چه خبر است تا شما را برای اتفاقات بعدی آماده کند.
اشتراک در برای حمایت از روزنامه نگاری ما
© 2022 بررسی فناوری MIT
source

قیمت شینگل
موکت
پارکت

تکنولوژی خبری
جهان خبری
اتو خبری
فرهنگی خبری
سرگرمی خبری
ورزشی خبری
اقتصادی خبری
علمی خبری
سلامتی خبری
علمی خبری
ورزشی خبری
فرهنگی خبری
اقتصادی خبری
با افتخار قدرت گرفته از WordPress | Theme: Newsup by Themeansar.

source

توسط salamatikhabari