نحوه عملکرد نورون ها در حال روشن شدن است

به گزارش پی سی باران، روشن شدن نحوه عملکرد نورون ها هم به پزشکی و هم به جستجوی هوش مصنوعی بهتر یاری می نماید.

نحوه عملکرد نورون ها در حال روشن شدن است

به گزارش خبرنگاران به نقل از اکونومیست، نورون زیباست. از زمانی که سانتیاگو رامون ئی کاخال زیست شناس اسپانیایی و متخصص بافت شناسی آن را به نیترات آغشته کرد تا زیر میکروسکوپ دهه 1880 میلادی قابل مشاهده باشد انشعابات آن تخیل علمی را برانگیخت. رامون نورون ها را پروانه های روح نامید.

آن انشعابات دندریت ها را برای جمع آوری سیگنال های دریافتی به نام پتانسیل عمل از نورون های دیگر و یک آکسون منفرد برای انتقال مجموع آن سیگنال ها در قالب یک پتانسیل عمل دیگر نورون ها را به بخش هایی از ساختار های بسیار بزرگ تر تبدیل می کنند.

به عنوان شبکه های عصبی، مهندسان اکنون از شبیه سازی ها برای ایجاد چیزی استفاده می کنند که از آن تحت عنوان هوش مصنوعی یاد شده اگرچه این یک سایه کم رنگ از موضوع واقعی است.

این که چگونه نورون ها واقعا جادوی خود را به کار می برند اکنون از هم گسیخته شده است. یک نتیجه این است که هر یک به تنهایی به میزان یک شبکه عصبی مصنوعی با میزان مناسب یک پردازشگر اطلاعات قدرتمند هستند. این امر نه تنها برای یادگیری نحوه عملکرد مغز ها و نحوه اشتباه آن بلکه برای طراحی نسخه های مصنوعی که شباهت بیشتری به نوع طبیعی دارند نیز دارد کارآمد است.

اولین مدل نورونی که به طور گسترده پذیرفته شد در سال 1957 میلادی به وسیله فرانک روزنبلات روانشناس آمریکایی (که به نوبه خود از آلن تورینگ پیشگام محاسبات بریتانیایی اقتباس کرد) به شکل موجود خود پیشنهاد شد پرسپترون بود. پرسپترون یک الگوریتم یادگیری ماشین است که در دسته یادگیری با نظارت قرار می گیرد.

الگوریتم پرسپترون یک الگوریتم دسته بندی دودویی (نوعی از دسته بندی که می تواند با توجه به بردار ورودی تصمیم بگیرد که این ورودی متعلق به یک کلاس است یا خیر) می باشد. این الگوریتم یک دسته بند خطی است به این معنا که پیش بینی هایش را با توجه به ترکیب خطی وزن دار ورودی الگوریتم انجام می دهد. هم چنین، این الگوریتم به علت این که ورودی هایش را به صورت تک تک در زمان آنالیز می کند یک الگوریتم برخط می باشد.

این الگو یک تابع ریاضی است که مجموعه ای از ارقام باینری (صفر و یک) را به عنوان ورودی دریافت می کند، آن ها را در وزن عددی ضرب می کند و سپس محصولات را با هم جمع می کند. اگر نتیجه از یک میزان از پیش مشخص شده بیشتر گردد پرسپترون یک یک را بیرون می اندازد و اگر نتیجه از میزان از پیش مشخص شده بیش تر نگردد یک صفر را بیرون می زند.

کیک لایه ای

برای ساخت شبکه های عصبی مصنوعی پرسپترون ها به صورت نرم افزاری کدگذاری می شوند. پرسپترون ها از نظر منطقی در لایه های به هم پیوسته سازماندهی می شوند و نتیجه برای حل مسائل به وسیله بازخورد و حلقه های بازخورد بین لایه ها آموزش داده می گردد. این حلقه ها مقادیر وزن ها و در نتیجه رفتار شبکه را تغییر می دهند. هر چه تعداد لایه ها بیشتر باشد شبکه عمیق تر است.

شبکه های عصبی عمیق اکنون زیربنای همه چیز از گوگل ترنسلیت گرفته تا Siri (یک دستیار شخصی هوشمند و راهنمای مجهز به هوش مصنوعی است که در آی او اس (سیستم عامل گوشی های تلفن همراه و آیپد های اپل یا آیفون وجود دارد) اپل هستند.

همه شبکه های عصبی تقلید می کنند که چگونه پتانسیل های عملی که به اتصالات سیناپسی بین آکسون ها و دندریت ها می رسند که به وسیله آن نورون ها با هم ارتباط برقرار می کنند سیگنال هایی را ایجاد کنند که سپس با یکدیگر ترکیب می شوند تا پتانسیل های عمل تازهی را در آکسون سلول گیرنده ایجاد کنند یا خیر. بنابراین، تماشا نورون ها به عنوان پرسپترون های فیزیکی وسوسه انگیز است با این تفاوت که سیگنال های آن به وسیله یون های سدیم، پتاسیم و کلسیم که از غشا های سلولی عبور می کنند به جای جریان الکترون ها منتقل می شوند. برای چندین دهه، تعداد زیادی از عصب شناسان آن را مشاهده کردند.

با این وجود، در اوایل دهه 2000 میلادی پانایوتا پویرازی از مؤسسه بیولوژی مولکولی و بیوتکنولوژی در هراکلیون در یونان نگاهی متفاوت به این موضوع را شروع کرد. او نورون ها را به عنوان شبکه های پرسپترون تصور می کرد. در سال 2003 میلادی او استدلال کرد که یک شبکه دو لایه ساده ممکن است برای مدل سازی آنان کافی باشد. در سال 2021 میلادی، دیوید بنیاگوف از دانشگاه عبری اورشلیم به این نتیجه رسید که برای نورون های قشر مغز انسان دست کم به پنج لایه (و گاهی حتی به هشت) لایه احتیاج است که هر کدام تا 256 پرسپترون دارند.

این بدان معناست که محاسبات زیادی باید در درون نورون های فردی انجام گردد. امروزه دندریت ها به عنوان پتانسیل های عملی کوچک به نام خوشه های دندریتیک شناخته می شوند و انواع مختلفی دارند: سنبله های کلسیم (طولانی و آهسته)، سنبله های سدیم (کوتاه و سریع) و سنبله های nmda (که به وسیله یک ماده شیمیایی به نام ان - متیل - دی - آسپارتات تحریک می گردد). این سنبله ها با هم به دندریت ها اجازه دادند 15 عمل از 16 عملیات اساسی جبر بولی را انجام دهند شاخه ای از ریاضیات که اساس محاسبات دیجیتالی است. این عملیات دو میزان ورودی را با هم مقایسه می کند و در نتیجه یک سوم را بیرون می اندازند. بعضی مانند و، یا، نه و نه، خود شرحی هستند و بعضی دیگر مانند nand، xnor و xor کمتر قابلیت خود شرحی دارند.

در این میان xor به طور خاص بدنام است تنها زمانی خروجی غیر صفر می دهد که ورودی های آن متفاوت باشند. در سال 1969 میلادی دو دانشمند برجسته رایانه به نام های ماروین مینسکی و سیمور پیپرت ثابت کردند که xor را نمی توان با یک پرسپترون انجام داد یکی از تنها دو عملیات بولی که در خصوص آن صادق است. این نتیجه تحقیقات هوش مصنوعی را برای یک دهه متوقف کرد.

تصور می شد که این موضوع در خصوص دندریت ها نیز صدق می کند. با این وجود، در سال 2020 میلادی کار آلبرت گیدون از دانشگاه هومبولت در برلین که دکتر پویرازی نیز در آن مشارکت داشت دسته تازهی از سنبله های مبتنی بر کلسیم را پیدا کرد که به xor اجازه فعالیت می دهد. بنابراین، این که یک دندریت منفرد می تواند عملکرد بهتری از پرسپترون داشته باشد نشان می دهد که یک لایه کامل از محاسبات پیچیده دور از دید مدل های معمولی نورون ها در حال اجرا است. این ممکن است به شرح عملکرد قابل توجه مغز ها و شکست هوش مصنوعی در بازتولید آن یاری کند.

آکسون ها نیز مورد ارزیابی مجدد قرار گرفته اند. پتانسیل های عملی که آن ها حمل می کنند زمانی به وسیله بسیاری مشابه همه یا هیچی بودن یک رقم باینری دیده می شد. با این وجود، با دقت نگاه کنید چرا که پتانسیل های عمل هم از نظر ارتفاع و هم در عرض متفاوت هستند. این نکته مهمی است.

در سال 2016 میلادی گروهی از موسسه علوم اعصاب ماکس پلانک در فلوریدا (یکی از معدود شعب آن مرکز در خارج از سرزمین آلمانی آن) نشان دادند که نورون های سیستم عصبی مرکزی به طور فعال وسعت پتانسیل های عمل خود را تنظیم می کنند. سال بعد، تیمی از کالج دارتموث در نیوهمپشایر کشف کردند نورون هایی که در قشر مغز قرار دارند به طور فعال قد و میزان خود را نیز تنظیم می کنند.

حتی طول فواصل بین پتانسیل های عمل نیز اهمیت دارد. در مه 2021 میلادی سلمان قاسم از دانشگاه کلمبیا گزارش داد که نورون های هیپوکامپ بخشی از مغز که در شکل گیری حافظه نقش دارد زمان شلیک خود را تعدیل می کنند تا اطلاعات مربوط به حرکت بدن در فضا را رمزگذاری کنند. در آگوست همان سال لیلا ردی و متیو سلف از دانشگاه تولوز در فرانسه گزارش دادند که نورون ها نیز این کار را برای رمزگذاری ترتیب رویداد ها در خاطرات انجام می دهند.

همه این موارد پیامد های بالینی دارند. به طور خاص، شواهد فزاینده ای وجود دارند که نشان می دهند رشد دندریت غیر معمول در دوران کودکی و اوایل بزرگسالی با اوتیسم، اسکیزوفرنی و صرع مرتبط هستند. در همین حال، بدتر شدن عملکرد آکسون به طور مشابه با روان پریشی در مولتیپل اسکلروزیس (ام اس)، اسکیزوفرنی و اختلال دوقطبی همراه است. این اکتشافات از توسعه دارو های تازه خبر می دهند. به عنوان مثال، کتامین که باعث ایجاد تغییرات ساختاری طولانی مدت در دندریت ها می گردد به عنوان درمانی برای افسردگی مورد توجه قرار گرفته است.

هنر فراموش کردن

پیچیدگی نورون و اجزای سازنده آن نیز توجه دانشمندان رایانه را به خود جلب نموده است. در اوایل دهه 2010 میلادی شبکه های عصبی عمیق چنان پیشرفت های چشمگیری در توانایی های هوش مصنوعی ایجاد کردند که این نگرانی واقعی وجود داشت که مردم به زودی مجبور شوند با ماشین هایی باهوش تر از آن دست و پنجه نرم کنند. سپس ناگهان پیشرفت متوقف شد.

شبکه های عصبی عمیق به سه مانع برخورد نموده اند. ابتدا دانشمندان رایانه دریافتند هنگامی که یک شبکه یک کار را یاد می گیرد برای انتقال آن مهارت ها به مهارت تازه هرچند مشابه بدون بازآموزی گسترده کوشش می کند. دوم هنگامی که چنین شبکه ای دوباره آموزش داده می گردد تمایل دارد که نحوه انجام وظیفه اصلی را فراموش کند این اثر فراموشی فاجعه آمیز نامیده می گردد. سوم برای آموزش یک شبکه بزرگ به حجم عظیمی از داده ها دسترسی به ابررایانه ها و مگاوات برق مورد احتیاج برای راه اندازی این ابررایانه ها برای روز ها (یا حتی هفته ها) در یک زمان احتیاج است.

مغز با هیچ یک از این موارد مبارزه نمی کند. بدون زحمت دانش را بین دامنه ها منتقل می کند در ادغام مهارت های قدیمی و تازه مسئله ای ندارد و به طور قابل توجهی کارآمد است با وات کار می کند و نه با مگاوات. پیچیدگی نورون ها ممکن است تفاوت ایجاد کند. در مطالعاتی که نتیجه آن سال گذشته منتشر شد تیمی از Numenta یک شرکت تحقیقاتی کالیفرنیایی نورون های مصنوعی را با اجزای فرعی دندریت مانند طراحی کردند که در برابر فراموشی فاجعه بار مصون هستند.

شبکه ای از این نورون ها که روی 100 کار به صورت متوالی آموزش دیده بودند توانایی انجام همه کار ها را با دقت معقول حفظ کردند. همین شبکه هم چنین در یادگیری همزمان بسیاری از کار ها از شبکه های پرسپترون بهتر عمل می کند.

نتیجه چندین مطالعه نشان می دهند که نورون های مصنوعی پیچیده می توانند عملکرد های پیچیده ای (برای مثال xor) را با دقت بیشتر و انرژی کمتری نسبت به پرسپترون ها انجام دهند. با اتصال به شبکه، چنین دستگاه هایی سریع تر و با هزینه محاسباتی کمتری نسبت به پرسپترون ها یاد می گیرند. این پرسش که مغز ها چگونه دانش را از یک حوزه به حوزه های دیگر اعمال می کنند یک راز به جای مانده است. با این وجود، اگر پیچیدگی نورون ها نیز این موضوع را شرح دهد تعجب آور نخواهد بود.

پس این درس آشناست: طبیعت ابتدا به آنجا رسید. شاید ضرورت مادر اختراع باشد، اما انتخاب طبیعی مادر مخترعان است. هم در علوم اعصاب و هم در هوش مصنوعی دهه آینده نویدبخش است. بیش از یک قرن پس از توصیف آن پروانه های رامون ئی کاخال در حال پرواز هستند.

منبع: فرارو
انتشار: 18 اردیبهشت 1402 بروزرسانی: 18 اردیبهشت 1402 گردآورنده: pcbaran.ir شناسه مطلب: 1198

به "نحوه عملکرد نورون ها در حال روشن شدن است" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "نحوه عملکرد نورون ها در حال روشن شدن است"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید