acadeo.ir Acadeo.ir آکـادئـو
آمــوزش هــای تخصصی هوش مصنوعی

توسعه و برنامه‌نویسی

توسعه وب
  • جنگو
  • ری‌اکت
  • نود جی‌اس
برنامه‌نویسی موبایل
  • اندروید
  • آی‌اواس
زبان‌های برنامه‌نویسی
  • پایتون
  • سی‌شارپ
  • جاوااسکریپت
  • جاوا
  • سی‌پلاس‌پلاس
  • گو
  • راست
توسعه بازی
  • یونیتی
  • آنریل انجین
پایگاه داده
  • SQL
  • NoSQL

فناوری اطلاعات و نرم‌افزار

هوش مصنوعی
  • یادگیری ماشین
  • یادگیری عمیق
  • بینایی ماشین
  • پردازش زبان طبیعی
  • داده‌کاوی
  • علم داده
  • شبکه‌های عصبی
  • یادگیری تقویتی
  • هوش مصنوعی در مراقبت‌های بهداشتی
  • هوش مصنوعی در مالی
  • هوش مصنوعی در آموزش
  • هوش مصنوعی در بازاریابی
  • هوش مصنوعی در رباتیک
  • مقالات آموزشی
  • لینک های مفید
    • مشاهده پروفایل
    • دوره ها
    • مالی
    • پرسش و دیدگاه ها
حساب کاربری
Acadeo.ir آکـادئـو
      • جنگو
      • ری‌اکت
      • نود جی‌اس
      • اندروید
      • آی‌اواس
      • پایتون
      • سی‌شارپ
      • جاوااسکریپت
      • جاوا
      • سی‌پلاس‌پلاس
      • گو
      • راست
      • یونیتی
      • آنریل انجین
      • SQL
      • NoSQL
      • یادگیری ماشین
      • یادگیری عمیق
      • بینایی ماشین
      • پردازش زبان طبیعی
      • داده‌کاوی
      • علم داده
      • شبکه‌های عصبی
      • یادگیری تقویتی
      • هوش مصنوعی در مراقبت‌های بهداشتی
      • هوش مصنوعی در مالی
      • هوش مصنوعی در آموزش
      • هوش مصنوعی در بازاریابی
      • هوش مصنوعی در رباتیک
نام نویسی در دوره
هزینه ثبت نام:
۲۳۰,۰۰۰
۹۲,۰۰۰ تومان
تخفیف:
مبلغ نهایی:
مدرس دوره
...
Udemy
دوره جامع یادگیری عمیق با JAX: بهینه‌سازی و پروژه‌های عملی
تکمیل شده

دوره جامع یادگیری عمیق با JAX: بهینه‌سازی و پروژه‌های عملی

همراه با زیرنویس فارسی ♻

🚀 در این دوره ۱۱ ساعته، با استفاده از JAX (کتابخانه محاسباتی گوگل) به دنیای یادگیری عمیق قدم بگذارید. پروژه‌های عملی جذاب مانند پردازش تصویر و طبقه‌بندی داده‌ها، مفاهیم پیشرفته مانند محاسبات توزیع‌شده، و ادغام با TensorFlow را یاد بگیرید. از ابزارهای بهم پیوسته Flax/Haiku بهره‌مند شوید و کدهای بهینه شده ۱۰۰ برابر سریع‌تر را کشف کنید!

مدت‌دوره 10:58:25
تعدادفصل‌ها 1
شرکت‌کنندگان 60 دانشجو
زیرنویس فارسی
معرفی دوره

🎓 دوره آموزشی جامع یادگیری عمیق با JAX | کتابخانه محاسباتی گوگل

📅 منتشر شده: آبان ۱۴۰۳ | ⏰ مدت زمان: ۱۰ ساعت و ۵۸ دقیقه
📁 حجم فایل: ۲.۴۶ گیگابایت | 🎞️ فرمت: ویدیویی (MP4) + صوتی (AAC)


🚀 چرا JAX انقلابی در یادگیری عمیق ایجاد کرده؟

JAX یک کتابخانه محاسباتی پیشرفته از گوگله که با ترکیب سرعت بالای NumPy و قابلیت‌های XLA، محاسبات ریاضی رو تا حد زیادی بهینه میکنه! این کتابخانه برای آموزش مدل‌های پیچیده، پردازش داده‌های حجیم و اجرای موازی کدها روی TPU/GPU طراحی شده. 🚄

📚 سرفصل‌های اصلی دوره:

  • 🔧 آشنایی با بدوی‌های JAX برای ساخت مدل‌های سفارشی
  • ⚡ اجرای محاسبات توزیع‌شده و موازی‌سازی کدها
  • 🧠 استفاده از کتابخانه‌های سطح بالا مثل Flax و Haiku
  • 🤝 ادغام JAX با TensorFlow و PyTorch
  • 📊 تحلیل داده‌های علمی با قابلیت‌های منحصربه‌فرد JAX

✨ ویژگی‌های منحصر به فرد این دوره:

  • 🎥 ترکیب کتاب صوتی و ویدیویی با نمایش کدها و نمودارها
  • 💡 آموزش توسط گریگوری ساپونوف، متخصص ارشد گوگل
  • 🛠️ انجام پروژه‌های واقعی مثل ساخت فیلتر تصویر و مدل طبقه‌بندی تصاویر
  • 📦 بهره‌گیری از اکوسیستم کامل JAX شامل ابزارهای بهینه‌سازی

🛠️ پروژه‌های عملی دوره:

  • 🎨 ساخت برنامه ویرایش تصویر با قابلیت‌های پردازش ماتریسی
  • 🤖 طراحی مدل‌های یادگیری عمیق با کارایی بالا
  • 🌐 پیاده‌سازی یادگیری فدرال و محاسبات توزیع‌شده

💡 نکته طلایی: JAX نه تنها سرعت اجرای کدها رو ۱۰۰ برابر میکنه، بلکه کنترل بی‌نظیری روی محاسبات سطح پایین به شما میده! 🧠

🎯 این دوره مناسب چه کسانیه؟

  • 👨💻 توسعه‌دهندگان هوش مصنوعی که میخوان کدهای بهینه‌تری بنویسند
  • 📈 دانشمندان داده برای پردازش سریع ماتریس‌های بزرگ
  • 🎓 دانشجویانی که میخوان وارد دنیای محاسبات高性能 بشن

پیش‌نمایش دوره

از فصل: یادگیری عمیق با جکس ، نسخه ویدیویی

سرفصلها
1
001 قسمت 1. مراحل اول
0:02:17 مشاهده
2
002 فصل 1. چه زمانی و چرا از JAX استفاده می کنیم
0:24:24 مشاهده
3
003 فصل 1. چگونه Jax با Numpy متفاوت است
0:08:32 مشاهده
4
004 فصل 1. چگونه Jax با Tensorflow و Pytorch متفاوت است
0:05:11 مشاهده
5
005 فصل 1. خلاصه
0:01:13 مشاهده
6
006 فصل 2. اولین برنامه شما در JAX
0:05:32 مشاهده
7
007 فصل 2. مروری بر یک پروژه یادگیری عمیق Jax
0:03:34 مشاهده
8
008 فصل 2. بارگیری و تهیه مجموعه داده
0:02:15 مشاهده
9
009 فصل 2. یک شبکه عصبی ساده در جکس
0:09:59 مشاهده
10
010 فصل 2. محاسبات بردار خودکار VMAP برای کار با دسته ها
0:06:38 مشاهده
11
011 فصل 2. AutoDiff نحوه محاسبه شیب ها بدون اطلاع از مشتقات
0:08:37 مشاهده
12
012 فصل 2
0:01:50 مشاهده
13
013 فصل 2. صرفه جویی و استقرار مدل
0:03:49 مشاهده
14
014 فصل 2. توابع خالص و تحولات سازنده چرا مهم هستند
0:03:37 مشاهده
15
015 فصل 2. خلاصه
0:01:23 مشاهده
16
016 قسمت 2. Core Jax
0:02:12 مشاهده
17
017 فصل 3. کار با آرایه ها
0:22:15 مشاهده
18
018 فصل 3. آرایه ها در جکس
0:24:43 مشاهده
19
019 فصل 3. تفاوت های Numpy
0:13:35 مشاهده
20
020 فصل 3 رابط سطح بالا و سطح پایین Jaxnumpy و Jax.Lax
0:06:38 مشاهده
21
021 فصل 3. خلاصه
0:02:08 مشاهده
22
022 فصل 4. محاسبه شیب
0:21:30 مشاهده
23
023 فصل 4. محاسبه شیب با autodiff
0:25:21 مشاهده
24
024 فصل 4. حالت رو به جلو و معکوس Autodiff
0:20:42 مشاهده
25
025 فصل 4. خلاصه
0:01:59 مشاهده
26
026 فصل 5.
0:22:15 مشاهده
27
027 فصل 5. jit Internalals
0:28:23 مشاهده
28
028 فصل 5. محدودیت های JIT
0:07:10 مشاهده
29
029 فصل 5. خلاصه
0:02:10 مشاهده
30
030 فصل 6. بردار کد شما
0:12:35 مشاهده
31
031 فصل 6. کنترل رفتار VMAP ()
0:10:48 مشاهده
32
032 فصل 6. موارد استفاده واقعی برای VMAP ()
0:10:19 مشاهده
33
033 فصل 6. خلاصه
0:01:20 مشاهده
34
034 فصل 7. موازی سازی محاسبات خود
0:20:19 مشاهده
35
035 فصل 7. کنترل رفتار PMAP ()
0:20:24 مشاهده
36
036 فصل 7. نمونه آموزش شبکه عصبی موازی داده ها
0:13:45 مشاهده
37
037 فصل 7. با استفاده از تنظیمات چندگانه
0:07:15 مشاهده
38
038 فصل 7. خلاصه
0:02:12 مشاهده
39
039 فصل 8. با استفاده از Sharding Tensor
0:21:38 مشاهده
40
040 فصل 8. MLP با تانسور Sharding
0:06:18 مشاهده
41
041 فصل 8. خلاصه
0:01:58 مشاهده
42
042 فصل 9. اعداد تصادفی در JAX
0:17:04 مشاهده
43
043 فصل 9. تفاوت با Numpy
0:19:36 مشاهده
44
044 فصل 9. تولید اعداد تصادفی در برنامه های زندگی واقعی
0:04:03 مشاهده
45
045 فصل 9. خلاصه
0:02:56 مشاهده
46
046 فصل 10. کار با پیرتری
0:09:07 مشاهده
47
047 فصل 10. توابع برای کار با Pytrees
0:13:52 مشاهده
48
048 فصل 10. ایجاد گره های پیرتری سفارشی
0:04:11 مشاهده
49
049 فصل 10. خلاصه
0:02:34 مشاهده
50
050 قسمت 3 اکوسیستم
0:01:35 مشاهده
51
051 فصل 11. کتابخانه های شبکه عصبی سطح بالاتر
0:25:52 مشاهده
52
052 فصل 11. طبقه بندی تصویر با استفاده از یک resnet
0:14:16 مشاهده
53
053 فصل 11. با استفاده از اکوسیستم صورت بغل
0:27:22 مشاهده
54
054 فصل 11. خلاصه
0:02:57 مشاهده
55
055 فصل 12. سایر اعضای اکوسیستم JAX
0:17:24 مشاهده
56
056 فصل 12. ماژول های یادگیری ماشین
0:05:55 مشاهده
57
057 فصل 12. ماژول های جکس برای سایر زمینه ها
0:02:43 مشاهده
58
058 فصل 12. خلاصه
0:01:11 مشاهده
59
059 پیوست a. نصب جکس
0:01:50 مشاهده
60
060 پیوست a. نصب JAX در GPU
0:03:34 مشاهده
61
061 پیوست a. نصب JAX در TPU
0:00:47 مشاهده
62
062 پیوست ب. با استفاده از Google Colab
0:02:23 مشاهده
63
063 پیوست ج. با استفاده از Google Cloud TPU
0:01:33 مشاهده
64
064 پیوست ج. اجرای یک نمونه TPU Cloud و اتصال آن به Google Colab
0:03:19 مشاهده
65
065 پیوست ج. منابع
0:00:39 مشاهده
66
066 پیوست د. موازی سازی تجربی
0:30:59 مشاهده
67
067 پیوست د. با استفاده از PJIT () برای موازی بودن تانسور
0:19:38 مشاهده
68
068 پیوست د. خلاصه
0:02:22 مشاهده
فایل‌های این فصل
دانلود رایگان فایل‌ها

این فایل شامل تمام منابع و فایل‌های مورد نیاز این فصل می‌باشد

دیدگاه و پرسش

برای ارسال نظر لازم است وارد سایت شوید.

هنوز نظری ثبت نشده است. اولین نفری باشید که نظر می‌دهد!

Acadeo.ir آکـادئـو
شماره تلفن 025-37749217
ساعات کاری ۰7:۰۰ - ۱۷:۰۰
دربــــاره

آکادئو یکی از پرتلاش‌ترین و بروزترین وبسایت های آموزشی در سطح ایران است که همیشه تلاش کرده تا بتواند جدیدترین و بروزترین مقالات و دوره‌های آموزشی را در اختیار علاقه‌مندان ایرانی قرار دهد. تبدیل کردن برنامه نویسان ایرانی به بهترین برنامه نویسان جهان هدف ماست.

لینک های مفید
  • قوانین و مقررات
  • مدرسان
  • درباره آکادئو
  • ارتباط با ما
خبرنامه

برای اطلاع از جدیدترین اخبار و جشنوراه‌های تخفیفی آکادئو ایمیل خود را وارد کنید.

شبکه های اجتماعی

© کليه حقوق محفوظ است