EITC/AI/TFQML TensorFlow Quantum Machine Learning یک برنامه صدور گواهینامه فناوری اطلاعات اروپا در مورد استفاده از کتابخانه Google TensorFlow Quantum برای پیاده سازی یادگیری ماشین در معماری چنار پردازنده Google Quantum پردازنده است.
برنامه درسی EITC/AI/TFQML TensorFlow Quantum Machine Learning بر دانش نظری و مهارت های عملی در استفاده از کتابخانه TensorFlow Quantum گوگل برای یادگیری ماشین مبتنی بر مدل محاسباتی کوانتومی پیشرفته در معماری چنار پردازنده Google Quantum در ساختار زیر متمرکز است ، شامل فیلم جامع محتوای تعلیمی به عنوان مرجع این گواهینامه EITC.
TensorFlow Quantum (TFQ) یک کتابخانه یادگیری ماشین کوانتومی برای نمونه سازی سریع مدلهای ترکیبی کوانتومی-کلاسیک ML است. تحقیقات در الگوریتم ها و برنامه های کوانتومی می تواند از چارچوب های محاسبات کوانتومی گوگل استفاده کند ، همه از TensorFlow.
TensorFlow Quantum بر روی داده های کوانتومی و ساخت مدل های ترکیبی کوانتومی-کلاسیک تمرکز دارد. این الگوریتم های محاسبات کوانتومی و منطق طراحی شده در Cirq (چارچوب برنامه ریزی کوانتومی مبتنی بر مدل مدارهای کوانتومی) را ادغام می کند و بدویهای محاسبات کوانتومی سازگار با API های TensorFlow موجود را همراه با شبیه سازهای مدار کوانتومی با کارایی بالا فراهم می کند. بیشتر بخوانید در مقاله سفید TensorFlow Quantum.
محاسبات کوانتومی استفاده از پدیده های کوانتومی مانند سوپرپیوست و درهم تنیدگی برای انجام محاسبات است. رایانه هایی که محاسبات کوانتومی را انجام می دهند به کامپیوترهای کوانتومی معروف هستند. اعتقاد بر این است که رایانه های کوانتومی قادر به حل برخی مشکلات محاسباتی مانند فاکتورگذاری عدد صحیح (که زمینه ساز رمزگذاری RSA است) هستند ، بسیار سریعتر از رایانه های کلاسیک. مطالعه محاسبات کوانتومی یکی از زیرشاخه های علم اطلاعات کوانتومی است.
محاسبات کوانتومی در اوایل دهه 1980 آغاز شد ، زمانی که پاول بنیوف ، فیزیکدان ، یک مدل مکانیکی کوانتوم از ماشین تورینگ را ارائه داد. بعداً ریچارد فاینمن و یوری مانین اظهار داشتند كه یك رایانه كوانتومی توانایی شبیه سازی مواردی را دارد كه یك رایانه كلاسیك نمی تواند. در سال 1994 ، پیتر شور الگوریتمی کوانتومی برای فاکتورگیری از اعداد صحیح ساخت که امکان رمزگشایی ارتباطات رمزگذاری شده با RSA را دارد. با وجود پیشرفت مداوم آزمایشی از اواخر دهه 1990 ، بیشتر محققان بر این باورند که "محاسبات کوانتومی مقاوم در برابر خطا هنوز یک رویای بسیار دور است." در سال های اخیر ، سرمایه گذاری برای تحقیقات محاسبات کوانتومی هم در بخش دولتی و هم در بخش خصوصی افزایش یافته است. در 23 اکتبر 2019 ، Google AI ، با همکاری اداره ملی هوانوردی و فضایی ایالات متحده (ناسا) ، ادعا کرد که یک محاسبه کوانتومی را انجام داده است که در هر رایانه کلاسیک غیرقابل اجرا است (اصطلاحاً نتیجه برتری کوانتومی).
چندین مدل از رایانه های کوانتومی (یا بهتر بگوییم ، سیستم های محاسبات کوانتومی) وجود دارد ، از جمله مدل مدار کوانتومی ، دستگاه تورینگ کوانتوم ، کامپیوتر کوانتومی آدیاباتیک ، رایانه کوانتومی یک طرفه و اتومات های مختلف سلول های کوانتومی. پرکاربردترین مدل ، مدار کوانتومی است. مدارهای کوانتومی براساس بیت کوانتوم یا "qubit" ساخته می شوند که تا حدی با بیت در محاسبات کلاسیک مشابه است. کیوبیت ها می توانند در یک حالت کوانتومی 1 یا 0 باشند ، یا می توانند در یک حالت فوق العاده از حالت های 1 و 0 قرار بگیرند. با این حال ، هنگامی که کیوبیت ها اندازه گیری می شوند ، نتیجه اندازه گیری همیشه یا 0 یا 1 است. احتمال این دو نتیجه به حالت کوانتومی بستگی دارد که کیوبیت ها بلافاصله قبل از اندازه گیری در آن قرار داشتند.
پیشرفت در ساخت یک رایانه کوانتومی فیزیکی بر فناوری هایی مانند ترامون ها ، تله های یونی و رایانه های کوانتومی توپولوژیکی متمرکز است که هدف آنها ایجاد کیوبیت های با کیفیت بالا است. این کیوبیت ها بسته به مدل محاسباتی کامل رایانه کوانتومی ، چه دروازه های منطق کوانتومی ، بازپخت کوانتوم یا محاسبات کوانتومی آدیاباتیک ، ممکن است متفاوت طراحی شوند. در حال حاضر تعدادی از موانع قابل توجه در راه ساخت رایانه های کوانتومی مفید وجود دارد. به طور خاص ، حفظ حالت های کوانتومی کیوبیت دشوار است زیرا آنها از تجزیه کوانتومی و وفاداری حالت رنج می برند. بنابراین رایانه های کوانتومی نیاز به تصحیح خطا دارند. هر مسئله محاسباتی که توسط یک کامپیوتر کلاسیک قابل حل باشد ، توسط یک کامپیوتر کوانتومی نیز قابل حل است. برعکس ، هر مشکلی که توسط یک کامپیوتر کوانتومی قابل حل باشد ، حداقل در اصل با توجه به زمان کافی ، می تواند توسط یک رایانه کلاسیک نیز حل شود. به عبارت دیگر ، رایانه های کوانتومی از نظریه Church-Turing پیروی می کنند. در حالی که این بدان معناست که رایانه های کوانتومی از نظر محاسبه هیچ مزیت اضافی نسبت به رایانه های کلاسیک ندارند ، الگوریتم های کوانتوم برای برخی از مشکلات دارای پیچیدگی های زمانی کمتری نسبت به الگوریتم های کلاسیک شناخته شده هستند. قابل توجه است ، اعتقاد بر این است که رایانه های کوانتومی قادر به حل سریع مشکلات خاصی هستند که هیچ رایانه ای کلاسیک قادر به حل آنها در هر زمان عملی نبوده است - امری مشهور به "برتری کوانتومی". مطالعه پیچیدگی محاسباتی مشکلات مربوط به رایانه های کوانتومی به عنوان تئوری پیچیدگی کوانتوم شناخته می شود.
Google Sycamore یک پردازنده کوانتومی است که توسط بخش هوش مصنوعی Google Inc. ایجاد شده است. این شامل 53 کیوبیت است.
در سال 2019 ، Sycamore در 200 ثانیه وظیفه ای را به اتمام رساند که گوگل ادعا کرد ، در مقاله ای از Nature ، یک ابر رایانه پیشرفته 10,000 هزار سال طول می کشد. بنابراین ، گوگل ادعا کرد که به برتری کوانتومی دست یافته است. برای تخمین زمانی که توسط یک ابر رایانه کلاسیک می شود ، گوگل بخش هایی از شبیه سازی مدار کوانتومی را در Summit ، قدرتمندترین کامپیوتر کلاسیک در جهان اجرا کرد. بعداً ، IBM یک استدلال مخالف ارائه داد و ادعا کرد که انجام این کار برای یک سیستم کلاسیک مانند Summit فقط 2.5 روز طول خواهد کشید. اگر ادعاهای گوگل تأیید شود ، این یک جهش نمایی در قدرت محاسبات است.
در آگوست سال 2020 مهندسان کوانتومی که برای گوگل کار می کردند بزرگترین شبیه سازی شیمیایی را روی رایانه کوانتومی گزارش کردند - تقریب Hartree-Fock با Sycamore با یک کامپیوتر کلاسیک جفت شده است که نتایج را تجزیه و تحلیل می کند تا پارامترهای جدیدی را برای سیستم 12 کیوبیتی فراهم کند.
در دسامبر سال 2020 ، پردازنده چینی Jiuzhang مبتنی بر فوتون ، ساخته شده توسط USTC ، به قدرت پردازش 76 کیوبیت دست یافت و 10 میلیارد برابر سریعتر از Sycamore بود ، و این دومین کامپیوتر برای دستیابی به برتری کوانتومی است.
آزمایشگاه هوش مصنوعی کوانتوم (که آزمایشگاه هوش کوانتومی یا QuAIL نیز نامیده می شود) یک ابتکار مشترک ناسا ، انجمن تحقیقات فضایی دانشگاه ها و گوگل (به طور خاص ، Google Research) است که هدف آن پیشگامی تحقیقات در مورد چگونگی کمک رایانه های کوانتومی به یادگیری ماشین است. و سایر مشکلات دشوار علوم کامپیوتر. این آزمایشگاه در مرکز تحقیقات ایمز ناسا میزبانی می شود.
آزمایشگاه هوش مصنوعی کوانتوم توسط Google Research در 16 مه 2013 در یک وبلاگ اعلام شد. در زمان راه اندازی ، آزمایشگاه از پیشرفته ترین رایانه کوانتومی تجاری D-Wave Two از D-Wave Systems استفاده می کرد.
در تاریخ 20 مه 2013 ، اعلام شد که افراد می توانند برای استفاده از وقت در D-Wave Two در آزمایشگاه اقدام کنند. در تاریخ 10 اکتبر 2013 ، گوگل فیلم کوتاهی از وضعیت فعلی آزمایشگاه AI Quantum را منتشر کرد. در 18 اکتبر 2013 ، گوگل اعلام کرد که فیزیک کوانتوم را در Minecraft گنجانده است.
در ژانویه 2014 ، گوگل نتایج مقایسه عملکرد D-Wave Two در آزمایشگاه با رایانه های کلاسیک را گزارش داد. نتایج مبهم بود و بحث داغی را در اینترنت برانگیخت. در 2 سپتامبر 2014 ، اعلام شد که آزمایشگاه AI Quantum ، با همکاری UC Santa Barbara ، ابتکاری را برای ایجاد پردازنده های اطلاعات کوانتومی مبتنی بر الکترونیک ابررسانا آغاز می کند.
در 23 اکتبر 2019 ، آزمایشگاه AI Quantum در مقاله ای اعلام کرد که به برتری کوانتومی دست یافته است.
Google AI Quantum با توسعه پردازنده های کوانتومی و الگوریتم های جدید کوانتومی برای کمک به محققان و توسعه دهندگان در حل مشکلات کوتاه مدت نظری و عملی در حال پیشرفت رایانش کوانتومی است.
در نظر گرفته شده است که رایانش کوانتومی به توسعه نوآوری های فردا ، از جمله هوش مصنوعی کمک می کند. به همین دلیل گوگل منابع قابل توجهی را برای ساخت سخت افزار و نرم افزار اختصاصی کوانتومی متعهد می کند.
محاسبات کوانتومی الگوی جدیدی است که در تسریع وظایف AI نقش زیادی دارد. هدف گوگل این است که به محققان و توسعه دهندگان دسترسی به چارچوب های منبع باز و قدرت محاسباتی را ارائه دهد که می تواند فراتر از توانایی های کلاسیک محاسبات عمل کند.
مناطق اصلی تمرکز Google AI Quantum عبارتند از:
- پردازنده های ابررسانای کیوبیت: کیوبیت های ابررسانا با معماری مقیاس پذیر مبتنی بر تراشه خطای دروازه دو کیوبیتی را هدف قرار می دهند <0.5/XNUMX٪.
- اندازه گیری Qubit: کاهش از دست دادن دو کیوبیت زیر 0.2٪ برای تصحیح خطا حیاتی است. ما در حال کار بر روی یک آزمایش برتری کوانتومی هستیم تا تقریباً یک مدار کوانتومی فراتر از توانایی های رایانه های کلاسیک و الگوریتم های پیشرفته را نمونه برداری کنیم.
- شبیه سازی کوانتوم: شبیه سازی سیستم های فیزیکی از جمله پیش بینی ترین کاربردهای محاسبات کوانتومی است. ما به ویژه بر روی الگوریتم های کوانتوم برای مدل سازی سیستم های الکترون متقابل با برنامه های کاربردی در شیمی و علوم مواد تمرکز می کنیم.
- بهینه سازی کمکی کوانتومی: ما در حال توسعه حلگرهای کلاسیک کوانتومی ترکیبی برای بهینه سازی تقریبی هستیم. جهش های حرارتی در الگوریتم های کلاسیک برای غلبه بر موانع انرژی را می توان با فراخوانی به روزرسانی های کوانتومی افزایش داد. ما به ویژه علاقه مند به انتقال منسجم جمعیت هستیم.
- شبکه های عصبی کوانتومی: ما در حال ایجاد چارچوبی برای پیاده سازی شبکه عصبی کوانتومی در پردازنده های کوتاه مدت هستیم. ما علاقه مند به درک این موضوع هستیم که چه مزایایی می تواند از طریق ایجاد حالتهای فوق العاده ترکیب در هنگام کار با شبکه ایجاد شود.
ابزارهای اصلی توسعه یافته توسط Google AI Quantum چارچوب های منبع باز هستند که به طور خاص برای توسعه الگوریتم های کوانتومی جدید طراحی شده اند تا به حل برنامه های کوتاه مدت برای مشکلات عملی کمک کنند. این شامل:
- Cirq: یک چارچوب کوانتومی منبع باز برای ساخت و آزمایش الگوریتم های پر سر و صدا در مقیاس متوسط کوانتوم (NISQ) در پردازنده های کوانتومی کوتاه مدت
- OpenFermion: یک پلت فرم منبع باز برای ترجمه مشکلات شیمی و علوم مواد به مدارهای کوانتومی است که می تواند بر روی سیستم عامل های موجود اجرا شود
برنامه های کوتاه مدت Google AI Quantum شامل:
شبیه سازی کوانتومی
طراحی مواد جدید و تبیین فیزیک پیچیده از طریق شبیه سازی دقیق شیمی و مدل های ماده چگال از امیدوار کننده ترین کاربردهای محاسبات کوانتومی است.
تکنیک های کاهش خطا
ما در تلاشیم تا روشهایی را در مسیر اصلاح خطای کوانتومی کامل ایجاد کنیم که توانایی کاهش چشمگیر نویز در دستگاههای فعلی را داشته باشند. در حالی که محاسبات کوانتومی متحمل خطا در مقیاس کامل ممکن است به پیشرفت های قابل توجهی نیاز داشته باشد ، ما روش گسترش فضای زیر کوانتومی را برای کمک به استفاده از تکنیک های اصلاح خطای کوانتومی برای بهبود عملکرد برنامه ها در دستگاه های کوتاه مدت توسعه داده ایم. علاوه بر این ، این روش ها آزمایش کدهای کوانتومی پیچیده را در دستگاه های کوتاه مدت تسهیل می کنند. ما به طور فعال این تکنیک ها را به مناطق جدیدی هل می دهیم و از آنها به عنوان پایه ای برای طراحی آزمایشات کوتاه مدت استفاده می کنیم.
یادگیری ماشین کوانتومی
ما در حال توسعه تکنیک های ترکیبی یادگیری ماشین کلاسیک کوانتومی در دستگاه های کوانتومی کوتاه مدت هستیم. ما در حال یادگیری مدار کوانتومی جهانی برای طبقه بندی و خوشه بندی داده های کوانتومی و کلاسیک هستیم. ما همچنین علاقه مند به شبکه های عصبی کوانتومی مولد و افتراقی هستیم که می توانند به عنوان تکرار کننده های کوانتومی و واحدهای تصفیه حالت در شبکه های ارتباطی کوانتومی یا برای تأیید سایر مدارهای کوانتومی استفاده شوند.
بهینه سازی کوانتومی
بهینه سازی های گسسته در هوا فضا ، خودرو و سایر صنایع ممکن است از بهینه سازی کلاسیک کوانتومی ترکیبی بهره مند شوند ، به عنوان مثال الگوریتم بازپخت شبیه سازی شده ، الگوریتم بهینه سازی کوانتومی (QAOA) و افزایش جمعیت کوانتومی با پردازنده های امروزی کاربرد دارند.
برای آشنایی کامل با برنامه درسی گواهینامه می توانید جدول زیر را گسترش داده و تجزیه و تحلیل کنید.
برنامه درسی گواهینامه یادگیری ماشین کوانتومی TensorFlow EITC/AI/TFQML به مواد آموزشی با دسترسی باز در فرم ویدیویی ارجاع می دهد. فرآیند یادگیری به یک ساختار گام به گام (برنامه ها -> درس ها -> موضوعات) تقسیم می شود که بخش های برنامه درسی مربوطه را پوشش می دهد. مشاوره نامحدود با کارشناسان حوزه نیز ارائه می شود.
برای جزئیات بیشتر در مورد روش صدور گواهینامه بررسی کنید چگونه کار می کند.
منابع مرجع برنامه درسی
TensorFlow Quantum (TFQ) یک کتابخانه یادگیری ماشین کوانتومی برای نمونه سازی سریع مدل های ترکیبی کوانتومی-کلاسیک ML است. تحقیقات در الگوریتم ها و برنامه های کوانتومی می تواند از چارچوب های محاسبات کوانتومی گوگل استفاده کند ، همه از TensorFlow. تمرکز TensorFlow Quantum بر داده های کوانتومی و ساخت مدل های ترکیبی کوانتومی-کلاسیک است. این الگوریتم های محاسبات کوانتومی و منطق طراحی شده در Cirq را ادغام می کند و بدویهای محاسبات کوانتومی سازگار با API های TensorFlow موجود را به همراه شبیه سازهای مدار کوانتومی با کارایی بالا فراهم می کند. بیشتر بخوانید در مقاله سفید TensorFlow Quantum. به عنوان مرجع اضافی می توانید مروری را بررسی کرده و آموزش های نوت بوک را اجرا کنید.
https://www.tensorflow.org/quantum
سیرک
Cirq یک چارچوب منبع باز برای رایانه های Noisy Intermediate Scale Quantum (NISQ) است. این توسط تیم Google AI Quantum توسعه یافته است و آلفای عمومی آن در کارگاه بین المللی نرم افزار کوانتوم و یادگیری ماشین کوانتوم در تاریخ 18 ژوئیه 2018 اعلام شد. نسخه ی نمایشی QC Ware اجرای QAOA را نشان می دهد که یک مثال از حداکثر برش را حل می کند مشکل در شبیه ساز Cirq حل شده است. برنامه های کوانتومی در Cirq توسط "Circuit" و "Schedule" نشان داده می شوند که در آن "Circuit" مدار کوانتومی و "Schedule" مدار کوانتومی را با اطلاعات زمان بندی نشان می دهد. برنامه ها را می توان بر روی شبیه سازهای محلی اجرا کرد. مثال زیر نحوه ایجاد و اندازه گیری حالت Bell در Cirq را نشان می دهد.
واردات سیرک
# کیوبیت را انتخاب کنید
کیوبیت 0 = سیرک.GridQubit(0, 0)
کیوبیت 1 = سیرک.GridQubit(0, 1)
# یک مدار ایجاد کنید
جریان = سیرک.جریان.از(
سیرک.H(کیوبیت 0),
سیرک.CNOT(کیوبیت 0, کیوبیت 1),
سیرک.اندازه(کیوبیت 0, کلید='m0'),
سیرک.اندازه(کیوبیت 1, کلید='m1')
)
چاپ مدار نمودار آن را نمایش می دهد
چاپ(جریان)
# چاپ
# (0 ، 0): ───H─── @ ───M ('m0')
#
# (0 ، 1): ───────X───M ('m1')
شبیه سازی مدار به طور مکرر نشان می دهد که اندازه گیری کیوبیت ها با هم ارتباط دارند.
شبیه ساز = سیرک.شبیه ساز()
نتیجه = شبیه ساز.اجرا(جریان, تکرارها=5)
چاپ(نتیجه)
# چاپ
# m0 = 11010
# m1 = 11010
دانلود کامل مطالب آماده سازی خودآموز آفلاین برای برنامه یادگیری ماشین کوانتومی TensorFlow EITC/AI/TFQML در یک فایل PDF
مواد آماده سازی EITC/AI/TFQML – نسخه استاندارد
مواد مقدماتی EITC/AI/TFQML - نسخه توسعه یافته با سوالات بررسی