مدل استاندارد فیزیک ذرات یا همان باغ وحش معروف ذرات بنیادی، سرشار از رازهایی است که میتوان با تجزیه تحلیل دادههای شتابدهندهها بیشتر به کشف آنها نزدیک شد. اما حجم این دادهها به قدری زیاد است که هوش انسانی به تنهایی نمیتواند از پس تجزیه تحلیل آنها برآید، پس باید دست به دامان هوش مصنوعی شد. یادگیری عمیق به عنوان شاخهای از هوش مصنوعی، همان ابزار قدرتمندی است که به آن نیاز داریم. فیزیکدانان ذرات به تازگی در مقالهای تفصیلی و جذاب که در مجلهی نیچر منتشر شده، کاربردهای جالب هوش مصنوعی در فیزیک را برشمردهاند. با دیپ لوک همراه باشید…
آزمایشهای انجام شده در بزرگترین شتاب دهنده ذرات در جهان (LHC)، واقع در CERN، حدود یک میلیون گیگابایت داده را در هر ثانیه تولید میکند. حتی پس از کاهش و فشرده سازی این اطلاعات، حجم دادههای ذخیره شده در یک ساعت، معادل حجم دادههایی است که فیس بوک در کل سال برای ذخیره و تجزیه و تحلیل دادهها جمع آوری میکند. خوشبختانه، دانشمندان فیزیک ذرات مجبور نیستند تمام این اطلاعات را به تنهایی مورد بررسی و تجزیه و تحلیل قرار دهند. شاخهای از هوش مصنوعی به نام یادگیری ماشین (که نحوه انجام تجزیه تحلیلهای پیچیده را میآموزد)، ابزاری قدرتمند برای بررسی این حجم از اطلاعات میباشد.
گروهی از محققان و دانشمندان SLAC و شتاب دهنده فرمی در مقاله ای که در مجلهی Nature منتشر شده، کاربردها و چشماندازهای یادگیری ماشین در فیزیک ذرات را مورد بررسی قرار دادهاند. الکساندر رادوویچ یکی از محققانی که بر روی آزمایش نوترینو NOvA تحقیق میکند میگوید:
در مقایسه با یک الگوریتم کامپیوتری سنتی که ما برای انجام یک تجزیه و تحلیل خاص طراحی می کنیم، ما با استفاده از هوش مصنوعی، یک الگوریتم یادگیری ماشین را طراحی می کنیم که به تنهایی قادر به انجام تجزیه و تحلیل دادههای بدست آمده خواهد بود که به طور بالقوه موجب صرفه جویی در زمان طراحی فرایندها و تجزیه و تحلیل دادههای بدست آمده میشود.
غربال کردن داده های بزرگ
به منظور استفاده از حجم بسیار بالای دادههای تولید شده در آزمایشهای مدرن (مانند LHC)، دانشمندان از محرکهایی که به آن نام «triggers» یا ماشهها دادهاند، استفاده میکنند. ماشهها، سختافزار و نرمافزارهای اختصاصی هستند که در زمان واقعی تصمیم میگیرند کدام دادهها برای تجزیه و تحلیل، حفظ و کدام دادهها باید حذف شوند. به عنوان مثال در آزمایشی که در آزمایشگاه LHCb، به منظور یافتن چرایی بیشتر بودن ماده نسبت به پادماده در جهان انجام گرفت، الگوریتمهای یادگیری ماشین حداقل ۷۰ درصد الگوریتمهای مورد نیاز را طراحی و بررسی کردند. مایک ویلیامز، دانشمند LHCb از موسسه فناوری ماساچوست، یکی از نویسندگان این پزوهش میگوید:
یادگیری ماشین تقریبا در تمام جنبههای آزمایش، از محرکها تا تحلیل دادههای باقیمانده، نقشی اساسی ایفا میکند.
یادگیری ماشین در زمینه تجزیه و تحلیل نتایج بسیار موفق بوده است. آشکارسازهای غول پیکر ATLAS و CMS در LHC، که باعث کشف ذره بوزون هیگز شدهاند، دارای میلیون ها عنصر حساس هستند که سیگنالهای آنها باید با یکدیگر ترکیب شده تا نتایج معنیداری بدست آید. ویلیامز میافزاید:
این سیگنالها تشکیل یک فضای انبوه از اطلاعات پیچیده را میدهند. ما باید رابطه بین آنها را برای نتیجهگیریها درک کنیم، به عنوان مثال یک ذره خاص در آشکارساز توسط یک الکترون، فوتون یا چیزی دیگر ساخته شده است.
آزمایشهای نوترینو نیز از یادگیری ماشین بهرهمند میشوند. NOvA، که توسط Fermilab اداره میشود، فرایند تغییر نوترینوها از یک نوع به دیگر را طی سفر از یک نقطهی زمین به نقطهی دیگر مورد بررسی قرار می دهد. این نوسانات نوترینو میتواند به طور بالقوه وجود یک نوع جدید از نوتینو را نشان دهد که برخی از نظریهها آن را ذرهای از ماده تاریک پیشبینی میکنند. آشکارسازهای NOvA در جستجوی ذرات باردار تولید شده هنگام برخورد نوترینوها به آشکارسازها میباشند و الگوریتمهای یادگیری ماشین آنها را شناسایی میکنند.
از یادگیری ماشین به یادگیری عمیق
پیشرفتهای اخیر در یادگیری ماشین که اغلب به نام «یادگیری عمیق» (Deep Learning) نام برده میشود، کاربرد بیشتری در فیزیک ذرات خواهند داشت. یادگیری عمیق که معمولا به استفاده از شبکههای عصبی اشاره دارد در واقع، الگوریتمهای کامپیوتری با معماری الهام گرفته از شبکههای متراکم نورونهای مغز انسان است. این شبکههای عصبی به خودی خود، نحوه تجزیه و تحلیل دادههای خاص را آموخته و یاد میگیرند. به گفته یکی از اعضای فعال در آزمایش نوترینو:
تا همین اواخر موفقیت شبکههای عصبی به دلیل محدودیتهای موجود در فرایند آموزش به آنها بسیار سخت بود. این مشکلات باعث شدند تا بررسیها محدود به چند لایه از شبکههای عصبی باشند. اما اکنون به لطف پیشرفت در الگوریتمها و سخت افزارهای محاسباتی، با استفاده از یادگیری عمیق امکان ایجاد و آموزش شبکههای توانمند با صدها یا هزاران لایه عمیقتر فراهم شده است.
بسیاری از پیشرفتهای صورت گرفته در فرایند یادگیری عمیق، توسط برنامههای کاربردی تجاری غولهای فناوری و گسترش دادههای آنها در طی دو دهه گذشته ایجاد شده است. رادوویچ می گوید:
مثلا NOvA، از یک شبکه عصبی با الهام از معماری GoogleNet استفاده میکند. اگر این آزمایش به شیوهی دیگر انجام میگرفت حجم اطلاعات به دست آمده تنها ۳۰ درصد بود.
زمین حاصلخیزی برای نوآوری
الگوریتمهای یادگیری ماشین روز به روز پیچیدهتر و دقیقتر شده و باعث ایجاد فرصتهای بی سابقهای برای حل مشکلات فیزیک ذرات میشوند. به گفته یکی از محققان این طرح، بسیاری از وظایف جدید که میتوانند مورد استفاده قرار گیرند، مربوط به دید کامپیوتری (computer vision) است. فرایندی مشابه با تشخیص چهره، با این تفاوت که در فیزیک ذرات، ویژگیهای تصویر، انتزاعیتر از گوشها و بینی است. برخی آزمایشها مانند NOvA و MicroBooNE اطلاعاتی تولید میکنند که به راحتی به تصاویر واقعی تبدیل میشوند و هوش مصنوعی (AI) را میتوان به راحتی برای شناسایی ویژگیهای آنها مورد استفاده قرار داد، اما در آزمایشهای LHC، تصاویر ابتدا باید از یک ستون مبهم اطلاعات که توسط میلیونها حسگر عنصر تولید شدهاند، بازسازی شوند. دانشمندان میگویند:
اما حتی اگر دادهها به شکل تصویر نباشند، ما هنوز میتوانیم از روشهای دید کامپیوتری استفاده کنیم. البته اگر بتوانیم دادهها را به درستی پردازش کنیم.
یک از مهمترین مسائلی که با استفاده از یادگیری عمیق میتوان مورد بررسی قرار داد، تجزیه تحلیل تعداد زیاد جتهای ذرات تولید شده در LHC است. جتها، اسپریهای باریک از ذرات است که فرایند جداسازی مسیر حرکتی آنها یکی از چالشهای جدی درفیزیک ذرات به شمار میرود. تکنولوژی دید کامپیوتری میتواند ابزاری مفید برای شناسایی ویژگیهای این جتها باشد. یکی دیگر از کاربردهای در حال ظهور یادگیری عمیق ، شبیهسازی دادههای فیزیک ذرات است که اتفاقات رخ داده در طی برخورد ذرات در LHC را پیشبینی و با دادههای واقعی مقایسه میکند. چنین شبیهسازیهایی معمولا آهسته و به قدرت محاسباتی بسیار زیاد نیاز دارند. از سوی دیگر، AI میتواند شبیهسازیها را سریعتر انجام دهد، و به طور بالقوه یافتههای سنتی را تکمیل کند.
بهره مندی از شک گرایی درست
علیرغم همه پیشرفتهای آشکار، علاقهمندان به یادگیری ماشین اغلب در استفاده از آن، با شک و تردید مواجه میشوند، زیرا الگوریتمهای یادگیری ماشین عمدتا مانند «جعبههای سیاه» عمل میکنند و اطلاعات بسیار کمی در مورد چگونگی دستیابی به نتایج خاص را بدست میدهند. آنها میگویند:
تردید ها در این زمینه بسیار درست است. اگر از یادگیری ماشین به عنوان محرکی برای از بین بردن داده ها استفاده میکنید، مانند آنچه ما در LHCb، انجام میدهیم، پس باید بسیار محتاط باشید. بنابراین، استفاده از یادگیری عمیق در فیزیک ذرات نیاز به تلاش های مداوم برای درک بهتر فرایند درونی الگوریتمهای طراحی شده و در صورت امکان بررسی آنها با اطلاعات واقعی دارد. ما همیشه باید سعی در فهم الگوریتمهای کامپیوتری داشته باشیم و همیشه نتایج آن را ارزیابی کنیم. چنین دیدگاهی نه تنها در مورد الگوریتم های عمیق بلکه در مورد هر الگوریتم خاص لازم است. بنابراین، تردیدها نباید پیشرفت را متوقف کند.
این محققان آرزوی پیشرفتهای بزرگ در آینده نزدیک را دارند:
امروز ما از یادگیری ماشینها برای پیدا کردن ویژگیهای اطلاعات موجود استفاده میکنیم که میتواند به ما در پاسخ به برخی از سوالات کمک کند. ده سال بعد، الگوریتم های یادگیری ماشین ممکن است بتوانند مستقلا از خود سوال بپرسند و زمان ظهور فیزیک جدید را تشخیص دهند.
گفتگو۲ دیدگاه
سلام. ایا درست است که تا سال ۲۰۳۰رباط ها اینقدر پیشرفت میکنند .که قادر خودشان نسبت به نیازشان رباط های دیگری طراحی و ساخت کنند
سلام
بعید بنظر میرسد تا سال ۲۰۳۰ این حد پیشرفت! ولی پیشرفت رباتها و بوجود آمدن نسل جدید رباتهای نانویی یا همان فاگلتها دور از ذهن نیست.