آیا هوش انسانی به کمک یادگیری عمیق هوش مصنوعی می‌تواند بزرگترین رازهای فیزیک را حل کند؟

2

مدل استاندارد فیزیک ذرات یا همان باغ وحش معروف ذرات بنیادی، سرشار از رازهایی است که می‌توان با تجزیه تحلیل داده‌های شتاب‌دهنده‌ها بیشتر به کشف آنها نزدیک شد. اما حجم این داده‌ها به قدری زیاد است که هوش انسانی به تنهایی نمی‌تواند از پس تجزیه تحلیل آنها برآید،‌ پس باید دست به دامان هوش مصنوعی شد. یادگیری عمیق به عنوان شاخه‌ای از هوش مصنوعی، همان ابزار قدرتمندی است که به آن نیاز داریم. فیزیکدانان ذرات به تازگی در مقاله‌ای تفصیلی و جذاب که در مجله‌ی نیچر منتشر شده، کاربردهای جالب هوش مصنوعی در فیزیک را برشمرده‌اند. با دیپ لوک همراه باشید…

آزمایش‌های انجام شده در بزرگترین شتاب دهنده ذرات در جهان (LHC)، واقع در CERN، حدود یک میلیون گیگابایت داده را در هر ثانیه تولید می‌کند. حتی پس از کاهش و فشرده سازی این اطلاعات، حجم داده‌های ذخیره شده در یک ساعت، معادل حجم داده‌هایی است که فیس بوک در کل سال برای ذخیره و تجزیه و تحلیل داده‌ها جمع آوری می‌کند. خوشبختانه، دانشمندان فیزیک ذرات مجبور نیستند تمام این اطلاعات را به تنهایی مورد بررسی و تجزیه و تحلیل قرار دهند. شاخه‌ای از هوش مصنوعی به نام یادگیری ماشین (که نحوه انجام تجزیه تحلیل‌های پیچیده را می‌آموزد)، ابزاری قدرتمند برای بررسی این حجم از اطلاعات می‌باشد.

گروهی از محققان و دانشمندان SLAC و شتاب دهنده فرمی در مقاله ای که در مجله‌ی Nature منتشر شده، کاربرد‌ها و چشم‌اندازهای یادگیری ماشین در فیزیک ذرات را مورد بررسی قرار داده‌اند. الکساندر رادوویچ یکی از محققانی که بر روی آزمایش نوترینو NOvA تحقیق می‌کند می‌گوید:

در مقایسه با یک الگوریتم کامپیوتری سنتی که ما برای انجام یک تجزیه و تحلیل خاص طراحی می کنیم، ما با استفاده از هوش مصنوعی، یک الگوریتم یادگیری ماشین را طراحی می کنیم که به تنهایی قادر به انجام تجزیه و تحلیل داده‌های بدست آمده خواهد بود که به طور بالقوه موجب صرفه جویی در زمان طراحی فرایند‌ها و تجزیه و تحلیل داده‌های بدست آمده می‌شود.

غربال‌ کردن داده های بزرگ

به منظور استفاده‌ از حجم بسیار بالای داده‌های تولید شده در آزمایش‌های مدرن (مانند LHC)، دانشمندان از محرک‌هایی که به آن نام «triggers» یا ماشه‌ها داده‌اند،‌ استفاده می‌کنند. ماشه‌ها، سخت‌افزار و نرم‌افزار‌های اختصاصی هستند که در زمان واقعی تصمیم می‌گیرند کدام داده‌ها‌ برای تجزیه و تحلیل، حفظ و کدام داده‌ها باید حذف شوند. به عنوان مثال در آزمایشی که در آزمایشگاه LHCb، به منظور یافتن چرایی بیشتر بودن ماده نسبت به پادماده در جهان انجام گرفت، الگوریتم‌های یادگیری ماشین حداقل ۷۰ درصد الگوریتم‌های مورد نیاز را طراحی و بررسی کردند. مایک ویلیامز، دانشمند LHCb از موسسه فناوری ماساچوست، یکی از نویسندگان این پزوهش می‌گوید:

یادگیری ماشین تقریبا در تمام جنبه‌های آزمایش، از محرک‌ها تا تحلیل داده‌های باقیمانده، نقشی اساسی ایفا می‌کند.

یادگیری ماشین در زمینه تجزیه و تحلیل نتایج بسیار موفق بوده است. آشکارسازهای غول پیکر ATLAS و CMS در LHC، که باعث کشف ذره بوزون هیگز شده‌اند، دارای میلیون ها عنصر حساس هستند که سیگنال‌های آن‌ها باید با یکدیگر ترکیب شده تا نتایج معنی‌داری بدست آید. ویلیامز می‌افزاید:

این سیگنال‌ها تشکیل یک فضای انبوه از اطلاعات پیچیده را می‌دهند. ما باید رابطه بین آن‌ها را برای نتیجه‌گیری‌ها درک کنیم، به عنوان مثال یک ذره خاص در آشکارساز توسط یک الکترون، فوتون یا چیزی دیگر ساخته شده است.

آزمایش‌های نوترینو نیز از یادگیری ماشین بهره‌مند می‌شوند. NOvA، که توسط Fermilab اداره می‌شود، فرایند تغییر نوترینو‌ها از یک نوع به دیگر را طی سفر از یک نقطه‌ی زمین به نقطه‌ی دیگر مورد بررسی قرار می دهد. این نوسانات نوترینو می‌تواند به طور بالقوه وجود یک نوع جدید از نوتینو را نشان دهد که برخی از نظریه‌ها آن را ذره‌ای از ماده تاریک پیش‌بینی می‌کنند. آشکارسازهای NOvA در جستجوی ذرات باردار تولید شده هنگام برخورد نوترینو‌ها به آشکارساز‌ها می‌باشند و الگوریتم‌های یادگیری ماشین آن‌ها را شناسایی می‌کنند.

از یادگیری ماشین به یادگیری عمیق

پیشرفت‌های اخیر در یادگیری ماشین که اغلب به نام «یادگیری عمیق» (Deep Learning) نام برده می‌شود، کاربرد بیشتری در فیزیک ذرات خواهند داشت. یادگیری عمیق که معمولا به استفاده از شبکه‌های عصبی اشاره دارد در واقع، الگوریتم‌های کامپیوتری با معماری الهام گرفته از شبکه‌های متراکم نورون‌های مغز انسان است. این شبکه‌‌های عصبی به خودی خود، نحوه تجزیه و تحلیل داده‌های خاص را آموخته و یاد می‌گیرند. به گفته یکی از اعضای فعال در آزمایش نوترینو:

تا همین اواخر موفقیت شبکه‌های عصبی به دلیل محدودیت‌های موجود در فرایند آموزش به آن‌ها بسیار سخت بود. این مشکلات باعث شدند تا بررسی‌ها محدود به چند لایه از شبکه‌های عصبی باشند. اما اکنون به لطف پیشرفت در الگوریتم‌ها و سخت افزار‌های محاسباتی، با استفاده از یادگیری عمیق امکان ایجاد و آموزش شبکه‌های توانمند با صدها یا هزاران لایه عمیق‌تر فراهم شده است.

بسیاری از پیشرفت‌های صورت گرفته در فرایند یادگیری عمیق، توسط برنامه‌های کاربردی تجاری غول‌های فناوری و گسترش داده‌های آن‌ها در طی دو دهه گذشته ایجاد شده است. رادوویچ می گوید:

مثلا NOvA، از یک شبکه عصبی با الهام از معماری GoogleNet استفاده می‌کند. اگر این آزمایش به شیوه‌ی دیگر انجام می‌گرفت حجم اطلاعات به دست آمده تنها  ۳۰ درصد بود.

زمین حاصلخیزی برای نوآوری

الگوریتم‌های یادگیری ماشین روز به روز پیچیده‌تر و دقیق‌تر شده و باعث ایجاد فرصت‌های بی سابقه‌ای برای حل مشکلات فیزیک ذرات می‌شوند. به گفته یکی از محققان این طرح، بسیاری از وظایف جدید که می‌توانند مورد استفاده قرار گیرند، مربوط به دید کامپیوتری (computer vision) است. فرایندی مشابه با تشخیص چهره، با این تفاوت که در فیزیک ذرات، ویژگی‌های تصویر، انتزاعی‌تر از گوش‌ها و بینی است. برخی آزمایش‌ها مانند NOvA و MicroBooNE اطلاعاتی تولید می‌کنند که به راحتی به تصاویر واقعی تبدیل می‌شوند و هوش مصنوعی (AI) را می‌توان به راحتی برای شناسایی ویژگی‌های آن‌ها مورد استفاده قرار داد، اما در آزمایش‌های LHC، تصاویر ابتدا باید از یک ستون مبهم اطلاعات که توسط میلیون‌ها حسگر عنصر تولید شده‌اند، بازسازی شوند. دانشمندان می‌گویند:

اما حتی اگر داده‌ها به شکل تصویر نباشند، ما هنوز می‌توانیم از روش‌های دید کامپیوتری استفاده کنیم. البته اگر بتوانیم داده‌ها را به درستی پردازش کنیم.

یک از مهم‌ترین مسائلی که با استفاده از یادگیری عمیق می‌توان مورد بررسی قرار داد، تجزیه تحلیل تعداد زیاد جت‌های ذرات تولید شده در LHC است. جت‌ها، اسپری‌های باریک از ذرات است که فرایند جداسازی مسیر حرکتی آن‌ها یکی از چالش‌های جدی درفیزیک ذرات به شمار می‌رود. تکنولوژی دید کامپیوتری می‌تواند ابزاری مفید برای شناسایی ویژگی‌های این جت‌ها باشد. یکی دیگر از کاربرد‌های در حال ظهور یادگیری عمیق ، شبیه‌سازی داده‌های فیزیک ذرات است که اتفاقات رخ داده در طی برخورد ذرات در LHC را پیش‌بینی و با داد‌ه‌های واقعی مقایسه می‌کند. چنین شبیه‌سازی‌هایی معمولا آهسته و به قدرت محاسباتی بسیار زیاد نیاز دارند. از سوی دیگر، AI می‌تواند شبیه‌سازی‌ها را سریع‌تر انجام دهد، و به طور بالقوه یافته‌های سنتی را تکمیل کند.

بهره مندی از شک گرایی درست

علی‌رغم همه پیشرفت‌های آشکار، علاقه‌مندان به یادگیری ماشین اغلب در استفاده از آن، با شک و تردید مواجه می‌شوند، زیرا الگوریتم‌های یادگیری ماشین عمدتا مانند «جعبه‌های سیاه» عمل می‌کنند و اطلاعات بسیار کمی در مورد چگونگی دست‌یابی به نتایج خاص را بدست می‌دهند. آنها می‌گویند:

تردید ها در این زمینه بسیار درست است. اگر از یادگیری ماشین به عنوان محرکی برای از بین بردن داده ها استفاده می‌کنید، مانند آنچه ما در LHCb، انجام می‌دهیم، پس باید بسیار محتاط باشید. بنابراین، استفاده از یادگیری عمیق در فیزیک ذرات نیاز به تلاش های مداوم برای درک بهتر فرایند درونی الگوریتم‌های طراحی شده و در صورت امکان بررسی‌ آن‌ها با اطلاعات واقعی دارد. ما همیشه باید سعی در فهم الگوریتم‌های کامپیوتری داشته باشیم و همیشه نتایج آن را ارزیابی کنیم. چنین دیدگاهی نه تنها در مورد الگوریتم های عمیق بلکه در مورد هر الگوریتم خاص لازم است. بنابراین، تردید‌ها نباید پیشرفت را متوقف کند.

این محققان آرزوی پیشرفت‌های بزرگ در آینده نزدیک را دارند:

امروز ما از یادگیری ماشین‌ها برای پیدا کردن ویژگی‌های اطلاعات موجود استفاده می‌کنیم که می‌تواند به ما در پاسخ به برخی از سوالات کمک کند. ده سال بعد، الگوریتم های یادگیری ماشین ممکن است بتوانند مستقلا از خود سوال بپرسند و زمان ظهور فیزیک جدید را تشخیص دهند.

 

 

دکترای شیمی معدنی از دانشگاه فردوسی مشهد علاقه مند به بیو شیمی معدنی و شیمی محاسباتی مخصوصا بررسی نقش فلزات در سیستم های زیستی مانند نقش آهن در تالاسمی!

گفتگو۲ دیدگاه

  1. سلام. ایا درست است که تا سال ۲۰۳۰رباط ها اینقدر پیشرفت میکنند .که قادر خودشان نسبت به نیازشان رباط های دیگری طراحی و ساخت کنند

    • سلام
      بعید بنظر می‌رسد تا سال ۲۰۳۰ این حد پیشرفت! ولی پیشرفت ربات‌ها و بوجود آمدن نسل جدید ربات‌های نانویی یا همان فاگلت‌ها دور از ذهن نیست.

ارسال نظر