Leo AI و Olama در حال آوردن RTX Local LLM به مرورگر Brave هستند

Leo AI و Olama در حال آوردن RTX Local LLM به مرورگر Brave هستند

یادداشت سردبیر: این پست بخشی از سری رمزگشایی هوش مصنوعیکه هوش مصنوعی را با در دسترس‌تر کردن فناوری، نمایش سخت‌افزار، نرم‌افزار، ابزار و شتاب‌دهنده‌های جدید برای کاربران رایانه‌های شخصی GeForce RTX و NVIDIA RTX، از بین می‌برد.

از بازی‌ها و برنامه‌های تولید محتوا گرفته تا ابزارهای توسعه نرم‌افزار و بهره‌وری، هوش مصنوعی به طور فزاینده‌ای در برنامه‌ها ادغام می‌شود تا تجربیات کاربر را افزایش دهد و کارایی را افزایش دهد.

این بهبودهای کارایی به کارهای روزمره مانند مرور وب نیز گسترش می یابد. Brave، یک مرورگر وب متمرکز بر حریم خصوصی، اخیراً دستیار هوشمند مبتنی بر هوش مصنوعی به نام Leo AI راه اندازی کرده است که علاوه بر ارائه نتایج جستجو، به کاربران کمک می کند مقالات و ویدیوها را خلاصه کنند، اطلاعات بینش را از اسناد استخراج کنند، به سؤالات پاسخ دهند و موارد دیگر.

هوش مصنوعی Leo به کاربران کمک می کند مقالات و ویدیوها را خلاصه کنند، اطلاعاتی را از اسناد استخراج کنند، به سؤالات پاسخ دهند و موارد دیگر.

فناوری پشت Brave و سایر ابزارهای مبتنی بر هوش مصنوعی ترکیبی از سخت‌افزار، کتابخانه‌ها و نرم‌افزار اکوسیستم است که برای رفع نیازهای منحصر به فرد هوش مصنوعی بهینه شده است.

چرا نرم افزار مهم است

پردازنده‌های گرافیکی NVIDIA از هوش مصنوعی در سطح جهانی، چه در یک مرکز داده یا یک رایانه محلی در حال اجرا باشد، قدرت می‌دهند. این شامل هسته‌های Tensor است که به طور خاص برای تسریع برنامه‌های هوش مصنوعی مانند هوش مصنوعی Leo از طریق پردازش اعداد موازی بسیار طراحی شده‌اند – به‌جای انجام آن‌ها یکی پس از دیگری، تعداد زیادی از محاسبات مورد نیاز برای هوش مصنوعی را به‌سرعت پردازش می‌کنند.

بخوانید:   روابط ایران و چین نیازمند تحرک مضاعف

اما سخت افزار عالی تنها زمانی اهمیت دارد که برنامه ها بتوانند به طور موثر از آن بهره ببرند. نرم افزاری که در بالای پردازنده های گرافیکی اجرا می شود برای ارائه سریع ترین و پاسخگوترین تجربه هوش مصنوعی بسیار مهم است.

لایه اول کتابخانه استنتاج هوش مصنوعی است که به عنوان مترجمی عمل می کند که درخواست ها را برای وظایف مشترک هوش مصنوعی دریافت می کند و آنها را به دستورالعمل های خاص برای کار با سخت افزار تبدیل می کند. کتابخانه های استنباط معروف عبارتند از TensorRT NVIDIA، DirectML مایکروسافت، و کتابخانه ای که توسط Brave و Leo AI از طریق Ollama استفاده می شود، به نام llama.cpp.

Llama.cpp یک کتابخانه و چارچوب متن باز است. از طریق CUDA – API NVIDIA که توسعه دهندگان را قادر می سازد تا GPU های GeForce RTX و NVIDIA RTX را بهینه کنند – شتاب Tensor Core را برای صدها مدل، از جمله مدل های محبوب زبان بزرگ (LLM) مانند Gemma، Llama 3، Mistral و Phi فراهم می کند.

در بالای کتابخانه استنتاج، برنامه های کاربردی اغلب از یک سرور استنتاج محلی برای ساده سازی فرآیند یکپارچه سازی استفاده می کنند. سرور استنتاج وظایفی مانند دانلود و پیکربندی مدل‌های هوش مصنوعی خاص را انجام می‌دهد تا برنامه مجبور به انجام این کار نباشد.

Ollama یک پروژه منبع باز است که در بالای llama.cpp قرار دارد و دسترسی به ویژگی های کتابخانه را فراهم می کند. از اکوسیستمی از برنامه‌های کاربردی پشتیبانی می‌کند که قابلیت‌های هوش مصنوعی بومی را ارائه می‌کنند. در سراسر پشته فناوری، NVIDIA در حال بهبود ابزارهایی مانند Olama برای سخت‌افزار NVIDIA است تا تجربیات هوش مصنوعی سریع‌تر و پاسخگوتر را در RTX ارائه دهد.

بخوانید:   DLC Horizon Forbidden West اکنون یک ادای احترام دوست داشتنی به لنس ردیک فقید دارد

تمرکز NVIDIA بر روی بهینه‌سازی به کل پشته فناوری – از سخت‌افزار گرفته تا نرم‌افزار سیستم گرفته تا کتابخانه‌های استنتاج و ابزارهایی که برنامه‌ها را قادر می‌سازد تا تجربیات هوش مصنوعی سریع‌تر و پاسخگوتر را در RTX ارائه دهند، گسترش می‌یابد.

در محل در مقابل ابر

هوش مصنوعی Brave's Leo می تواند در فضای ابری یا به صورت محلی روی رایانه از طریق Olama اجرا شود.

مزایای زیادی برای پردازش استنتاج با استفاده از یک مدل محلی وجود دارد. با ارسال نکردن ادعاها به سرور خارجی برای پردازش، تجربه خصوصی و همیشه در دسترس است. برای مثال، کاربران Brave می‌توانند بدون ارسال چیزی به فضای ابری، در مورد مسائل مالی یا پزشکی خود کمک بگیرند. اجرای محلی نیاز به پرداخت هزینه دسترسی نامحدود به ابر را نیز از بین می برد. با Ollama، کاربران می توانند از طیف وسیع تری از مدل های منبع باز نسبت به اکثر سرویس های میزبانی شده استفاده کنند، که اغلب تنها یک یا دو نوع از یک مدل هوش مصنوعی را پشتیبانی می کنند.

کاربران همچنین می‌توانند با فرم‌های تخصص‌های مختلف، مانند فرم‌های دوزبانه، فرم‌های کوچک، فرم‌های تولید کد و غیره تعامل داشته باشند.

فناوری RTX هنگام اجرای AI به صورت محلی، تجربه ای پاسخگو را امکان پذیر می کند. با استفاده از مدل Llama 3 8B با llama.cpp، کاربران می‌توانند انتظار پاسخ‌هایی تا 149 توکن در ثانیه یا تقریباً 110 کلمه در ثانیه داشته باشند. وقتی از Brave با هوش مصنوعی Leo و Olama استفاده می‌کنید، به معنای دریافت پاسخ سریع به سؤالات، درخواست‌های خلاصه محتوا و موارد دیگر است.

بخوانید:   اقدامات اضطراری چین در برابر موج بی سابقه گرما
اندازه‌گیری عملکرد توان داخلی NVIDIA در پردازنده‌های گرافیکی NVIDIA GeForce RTX، دارای مدل Llama 3 8B با طول توالی ورودی 100 توکن، تولید 100 توکن.

با Brave با Leo AI و Olama شروع کنید

نصب Olama آسان است — نصب کننده را از وب سایت پروژه دانلود کنید و اجازه دهید در پس زمینه اجرا شود. از طریق خط فرمان، کاربران می توانند طیف گسترده ای از قالب های پشتیبانی شده را دانلود و نصب کنند و سپس با الگوی محلی از خط فرمان تعامل داشته باشند.

برای دستورالعمل های ساده در مورد نحوه افزودن پشتیبانی محلی LLM از طریق Ollama، وبلاگ شرکت را بخوانید. هنگامی که Leo AI برای اشاره به Olama پیکربندی شد، از نرم افزار LLM میزبانی محلی برای ادعاها و پرس و جوها استفاده می کند. کاربران همچنین می‌توانند در هر زمانی بین مدل‌های ابری و داخلی جابجا شوند.

Brave با هوش مصنوعی Leo که روی Olama اجرا می‌شود و توسط RTX تسریع می‌شود، راهی عالی برای استفاده حداکثری از تجربه مرور شما است. همچنین می‌توانید در وبلاگ‌های رمزگشایی شده با هوش مصنوعی خلاصه کنید و سؤال بپرسید!

توسعه‌دهندگان می‌توانند درباره نحوه استفاده از Olama و llama.cpp در وبلاگ فنی NVIDIA اطلاعات بیشتری کسب کنند.

هوش مصنوعی مولد بازی، کنفرانس ویدیویی و تجربیات تعاملی از هر نوع را متحول می کند. با مشترک شدن، چیزهای جدید و آینده را درک کنید خبر رمزگشایی شده توسط هوش مصنوعی.

منبع: https://blogs.nvidia.com/blog/rtx-ai-brave-browser/