دوشنبه 27 اسفند 1403 - 18:53

کد خبر 844356

دوشنبه 27 اسفند 1403 - 14:45:00


مدل‌های هوش مصنوعی و کشف عملکرد مغز در پردازش زبان


ایسنا/مطالعه‌ای جدید نشان می‌دهد که مدل‌های هوش مصنوعی می‌توانند فعالیت مغزی را پیش‌بینی و به درک بهتر پردازش زبان در مغز کمک کنند.

یک مدل هوش مصنوعی که بر اساس ده‌ها ساعت مکالمه در دنیای واقعی آموزش دیده است، به‌طور دقیق فعالیت مغزی انسان را پیش‌بینی می‌کند و نشان می‌دهد که ویژگی‌های ساختار زبان بدون نیاز به برنامه‌ریزی صریح ظاهر می‌شوند. دانشمندان با استفاده از هوش مصنوعی (AI) فعالیت پیچیده مغز را که در طول مکالمات روزمره رخ می‌دهد، کشف کرده‌اند.

این ابزار می‌تواند دیدگاه‌های جدیدی در مورد علوم عصبی زبان ارائه دهد و روزی به بهبود فناوری‌هایی که برای شناسایی گفتار یا کمک به افراد در برقراری ارتباط طراحی شده‌اند، کمک کند.

براساس نحوه‌ای که یک مدل هوش مصنوعی صدا را به متن تبدیل می‌کند، محققان پشت این مطالعه توانستند فعالیت مغزی را که در طول مکالمه رخ می‌دهد، با دقت بیشتری نسبت به مدل‌های سنتی که ویژگی‌های خاصی از ساختار زبان مانند آواها (صداهای ساده‌ای که کلمات را تشکیل می‌دهند) و اجزای گفتار (مانند اسامی، افعال و صفت‌ها) رمزگذاری می‌کنند، ترسیم کنند.

مدل Whisper که در این مطالعه استفاده شد، به جای رمزگذاری ویژگی‌های خاص زبان، فایل‌های صوتی و رونوشت‌های متنی آن‌ها را دریافت می‌کند. این داده‌ها به‌عنوان مجموعه آموزشی برای ترسیم ارتباط بین صدا و متن استفاده می‌شوند. سپس این مدل با استفاده از آمارهای مربوط به این ارتباط، «یاد می‌گیرد» که متن را از فایل‌های صوتی جدیدی که قبلاً نشنیده است، پیش‌بینی کند، بنابراین مدل Whisper صرفاً بر اساس این آمارها کار می‌کند، بدون اینکه ویژگی‌های ساختاری زبان در تنظیمات اولیه آن رمزگذاری شده باشند. با این حال، دانشمندان در این مطالعه نشان دادند که این ساختارها پس از آموزش مدل همچنان در آن ظاهر شدند.

این مطالعه روشن می‌کند که مدل‌های هوش مصنوعی از این نوع که به‌عنوان مدل‌های زبانی بزرگ (LLM) شناخته می‌شوند، چگونه کار می‌کنند، اما تیم تحقیقاتی بیشتر به بینش‌هایی علاقه‌مند است که این مطالعه در مورد زبان و شناخت انسان ارائه می‌دهد. شناسایی شباهت‌های بین نحوه توسعه توانایی‌های پردازش زبان در این مدل و چگونگی رشد این مهارت‌ها در انسان‌ها ممکن است برای طراحی دستگاه‌هایی که به برقراری ارتباط افراد کمک می‌کنند، مفید باشد.

این مطالعه که در هفتم مارس در مجله Nature Human Behaviour منتشر شد، شامل چهار شرکت‌کننده با اپی لپسی بود که قبلاً تحت جراحی برای نصب الکترودهای نظارتی مغزی به دلایل بالینی قرار گرفته بودند. با کسب اجازه، محققان تمام مکالمات بیماران را در طول مدت اقامتشان در بیمارستان که از چند روز تا یک هفته متغیر بود، ضبط کردند. در مجموع، بیش از ۱۰۰ ساعت صدا ضبط شد.

هر یک از شرکت‌کنندگان بین ۱۰۴ تا ۲۵۵ الکترود نصب شده داشتند تا فعالیت مغزی آن‌ها را نظارت کنند.

گلدستین گفت: «بیشتر مطالعاتی که از ضبط مکالمات استفاده می‌کنند، در آزمایشگاهی تحت شرایط کاملاً کنترل شده و معمولاً در مدت زمان حدود یک ساعت انجام می‌شود. اگرچه این محیط کنترل‌شده می‌تواند برای جدا کردن نقش متغیرهای مختلف مفید باشد، گلدستین و همکارانش می‌خواستند فعالیت مغزی و رفتار انسانی را در دنیای واقعی بررسی کنند.»

محققان در این پژوهش دریافتند که برخی مناطق مغزی تمایل دارند با برخی از وظایف همبستگی داشته باشند. برای مثال، نواحی که به پردازش صدا معروف هستند، مانند شیار زمانی فوقانی، هنگام پردازش اطلاعات شنوایی فعالیت بیشتری نشان دادند و نواحی که در تفکر سطح بالاتر دخیل هستند، مانند شیار پیشانی تحتانی، برای درک معنی زبان فعال‌تر بودند.

آن‌ها توانستند مشاهده کنند که این نواحی به‌صورت پی‌درپی فعال می‌شوند. برای مثال، منطقه‌ای که بیش‌ترین مسئولیت را در شنیدن کلمات داشت قبل از منطقه‌ای که مسئول تفسیر آن‌ها بود، فعال شد. با این حال، محققان به وضوح مشاهده کردند که نواحی در حین فعالیت‌هایی که به‌طور معمول به تخصص آن‌ها شناخته نمی‌شدند، فعال می‌شوند.

به گزارش ایسنا و به نقل از لایوساینس، لئونارد شیلباخ، رئیس گروه تحقیقاتی در مرکز علوم عصبی مونیخ در آلمان که در این کار دخالت نداشته است، در ایمیلی به Live Science گفت: «این تحقیق یک مطالعه پیشگامانه است، زیرا ارتباط بین عملکرد مدل محاسباتی تبدیل صوت به گفتار به زبان و عملکرد مغز را نشان می‌دهد. اگر ما عملکرد درونی نورون‌های مصنوعی و زیستی و شباهت‌های آن‌ها را درک کنیم، ممکن است بتوانیم آزمایش‌ها و شبیه‌سازی‌هایی را انجام دهیم که در مغز بیولوژیکی‌مان انجام آن‌ها غیرممکن باشد.»


پربیننده ترین


سایر اخبار مرتبط