این شرکت گفت که تسهیلات تنظیم دقیق و داده های آموزشی مورد استفاده برای تنظیم دقیق از طریق یک API تعدیل و سیستم تعدیل با قدرت GPT 4 مورد بررسی قرار می گیرند.
OpenAI گزینه تنظیم دقیق GPT 3.5 Turbo را معرفی کرده است که توسعه دهندگان هوش مصنوعی (AI) را قادر می سازد تا با استفاده از داده های اختصاصی ، عملکرد را در کارهای خاص افزایش دهند با این حال ، توسعه دهندگان انتقاد و همچنین هیجان را برای توسعه ابراز کرده اند.
OpenAI تصریح کرد که از طریق فرآیند تنظیم دقیق ، توسعه دهندگان می توانند قابلیت های GPT 3.5 Turbo را بر اساس نیازهای خود سفارشی کنند ، به عنوان مثال یک توسعهدهنده میتواند GPT 3.5 Turbo را برای ایجاد کد سفارشی یا خلاصهسازی ماهرانه اسناد قانونی به زبان آلمانی ، با استفاده از مجموعه دادهای که از عملیات تجاری مشتری گرفته شده است تنظیم کند.
اعلامیه اخیر واکنش محتاطانه توسعه دهندگان را برانگیخته است ، نظری که به یکی از کاربران X به نام Joshua Segeren نسبت داده میشود ، می گوید که اگرچه معرفی تنظیم دقیق GPT 3.5 Turbo جالب است اما یک راه حل جامع نیست ، بر اساس مشاهدات او بهبود درخواستها ، استفاده از پایگاههای داده برداری برای جستجوهای معنایی یا انتقال به GPT 4 اغلب نتایج بهتری نسبت به آموزش سفارشی به همراه دارد ، علاوه بر این عواملی وجود دارد که باید در نظر گرفته شوند ، مانند هزینه های راه اندازی و نگهداری مداوم.
مدل های پایه GPT 3.5 Turbo با نرخ 0.0004 دلار در هر 1000 توکن (واحدهای اساسی پردازش شده توسط مدل های زبان گسترده) شروع می شوند ، با این حال نسخه های تصفیه شده از طریق تنظیم دقیق هزینه بالاتری معادل 0.012 دلار به ازای هر 1000 توکن ورودی و 0.016 دلار به ازای هر 1000 توکن خروجی دارند ، علاوه بر این هزینه آموزش اولیه مرتبط با حجم داده اعمال می شود.
این ویژگی برای شرکت ها و توسعه دهندگانی که هدفشان ایجاد تعاملات شخصی سازی شده با کاربر است نیز اهمیت دارد ، برای مثال سازمانها میتوانند مدل را طوری تنظیم کنند که با صدای برندشان هماهنگ شود و اطمینان حاصل کنند که چت بات شخصیت و لحنی ثابتی را نشان میدهد که هویت برند را تکمیل میکند ، در حصول اطمینان از استفاده مسئولانه از تسهیلات تنظیم دقیق ، داده های آموزشی مورد استفاده برای تنظیم دقیق از طریق API تعدیل آنها و سیستم تعدیل با قدرت GPT 4 مورد بررسی دقیق قرار می گیرند ، این کار برای حفظ ویژگی های امنیتی مدل پیش فرض در طول فرآیند تنظیم دقیق انجام می شود.
این سیستم تلاش میکند تا دادههای آموزشی بالقوه ناایمن را شناسایی و حذف کند ، در نتیجه اطمینان حاصل میکند که خروجی تصفیهشده با هنجارهای امنیتی تعیینشده OpenAI مطابقت دارد ، همچنین به این معنی است که OpenAI سطح مشخصی از کنترل بر داده هایی که کاربران در مدل های خود وارد می کنند دارد.