شرکت متا یک مدل هوش مصنوعی برای تقلید ادراک حسی انسانها معرفی کرد
تاریخ انتشار: ۲۰ اردیبهشت ۱۴۰۲ | کد خبر: ۳۷۷۲۵۱۵۰
متا از مدل هوش مصنوعی جدید ImageBind رونمایی کرده است که چندین جریان داده مختلف ازجمله متن، صدا، تصویر، دما و اطلاعات حرکتی را به یکدیگر پیوند میدهد.
خبرگزاری برنا؛ این مدل که ImageBind نام دارد، بهصورت متنباز در دسترس عموم قرار میگیرد و سعی میکند مانند انسان رابطه میان دادهها را پیشبینی کند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
مدلهایی مثل میدجرنی، Stable Diffusion و DALL-E ۲ کلمات را با تصاویر پیوند میدهند تا امکان خلق تصاویر جدید با توصیفات متنی فراهم شود. اما ImageBind قابلیتهای وسیعتری دارد. این مدل هوش مصنوعی میتواند میان ۶ نوع داده شامل متن، تصویر یا ویدیو، صدا، اندازهگیریهای سهبعدی (عمق)، اطلاعات دمایی (حرارت) و دادههای حرکتی (IMU یا واحد اندازهگیری اینرسی که مثلاً در گوشیهای هوشمند برای تشخیص تغییر حالت دستگاه از عمودی به افقی استفاده میشود) پیوند ایجاد کند.
این کار در شرایطی انجام میشود که لازم نیست تمام احتمالات ممکن از قبل به هوش مصنوعی آموزش داده شود. میتوانید ImageBind را بهعنوان یک سیستم یادگیری ماشینی در نظر بگیرید که شباهت بیشتری به یادگیری انسانی دارد. برای مثال، اگر شما در یک محیط شلوغ مثل خیابان ایستاده باشید، مغزتان (عمدتاً بهطور ناخودآگاه) محیط را میبیند و صداها را میشنود تا متوجه عبور خودروها، عابران پیاده، ساختمانها، وضعیت آبوهوا و ... شود.
مدل متا ImageBind چگونه کار میکند؟حالا کامپیوترها هم بیشتر بهسمت شبیهسازی رابطه میان حواس مختلف انسانی رفتهاند تا میان دادههای ورودی مختلف پیوند ایجاد کنند. اگر توصیف «یک سگ شکاری با لباسهای گندالف که سعی دارد تعادلش را روی یک توپ حفظ کند» را به میدجرنی بدهید و یک تصویر واقعگرایانه از این صحنه دریافت کنید، در طرف مقابل با یک مدل هوش مصنوعی چندوجهی مثل ImageBind احتمالاً میتوانید ویدیویی از یک سگ با صداهای مربوطه، مثلاً در یک محیط شهری، بسازید که در اتاقی با دمای مشخص حضور دارد.
ازجمله کاربردهای این مدل قدرتمند میتوان به دنیای واقعیت مجازی و متاورس اشاره کرد. برای مثال، در آینده احتمالاً هدستی تولید خواهد شد که بتواند درلحظه یک صحنه سهبعدی واقعی را با مشخصات معین خلق کند.
متا انتظار دارد که این مدل هوش مصنوعی در آینده تعداد «حواس» خود را از شش عدد افزایش دهد. محققان این شرکت میگویند پشتیبانی از حسهایی مثل لامسه، تکلم، بویایی و حتی سیگنالهای fMRI مغزی میتواند به غنیترکردن تجربه استفاده از این مدلها کمک کند. منتها درحالحاضر بهنظر میرسد که هوش مصنوعی جدید متا بیشتر برای امور تحقیقاتی کاربرد داشته باشد.
انتهای پیام/
آیا این خبر مفید بود؟نتیجه بر اساس رای موافق و رای مخالف
منبع: خبرگزاری برنا
کلیدواژه: علم و فناوری هوش مصنوعی مدل متا مدل هوش مصنوعی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.borna.news دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرگزاری برنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۷۲۵۱۵۰ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
مدلهای هوش مصنوعی با هم ارتباط برقرار میکنند و به یکدیگر آموزش میدهند
ایتنا - به گفته دانشمندان مرکز پژوهشهای عصبی در دانشگاه ژنو سوییس، این نخستین باری است که دو سیستم هوش مصنوعی توانستهاند به روشی کاملا زبانی با یکدیگر اصطلاحا «صحبت کنند».
دانشمندان میگویند یک سری سیستم هوش مصنوعی ساختهاند که میتوانند با هم صحبت کنند و مهارتهایشان را به هم انتقال دهند.
این شبکه هوش مصنوعی تنها بر اساس دستورالعملهای نوشتاری قادر به یادگیری و اجرای وظایف است و میتواند آنچه را آموخته برای یک سیستم هوش مصنوعی «خواهر» توضیح دهد و سیستم خواهر نیز بدون هیچ آموزش یا تجربه قبلی در اجرای آن، همان کار را انجام دهد.
دانشمندان در مقالهای که در روز ۱۸ مارس (۲۸ اسفند) در مجله علمی نیچر (nature) منتشر شد، میگویند که این نخستین هوش مصنوعی است که با استفاده از پردازش زبان طبیعی (انالپی/ natural language processing) با سیستم دیگری ارتباط برقرار کرده است. انالپی زیرشاخهای از هوش مصنوعی است که قصد دارد زبان انسان را در رایانه بازآفرینی کند و در آن، ماشینها میتوانند متن یا گفتار نوشتهشده را به طور طبیعی درک و بازتولید و معنی آنها را استخراج کنند.
این سیستمها بر اساس روشهای شبکههای عصبی ساخته شدهاند و مجموعهای از الگوریتمهای یادگیری ماشینی به شمار میروند که چیدمان نورونها در مغز را تقلید میکنند.
در این پژوهش علمی جدید، هنگامی که این وظایف به سیستم هوش مصنوعی آموخته شد، این شبکه توانست آنها را در شبکه دومــ یعنی در یک کپی از شبکه اولــ توضیح دهد تا شبکه دوم بتواند آنها را بازتولید کند.
به گفته دانشمندان مرکز پژوهشهای عصبی در دانشگاه ژنو سوییس، این نخستین باری است که دو سیستم هوش مصنوعی توانستهاند به روشی کاملا زبانی با یکدیگر اصطلاحا «صحبت کنند».
دانشمندان میگویند این کار را با یک مدل پردازش زبان طبیعی به نام «اســبرت» (S-Bert) که پیشتر برای درک زبان انسانی آموزش داده شده بود، انجام دادند. آنها اســبرت را به یک شبکه عصبی کوچکتر که بر تفسیر ورودیهای حسی و شبیهسازی اقدامهای حرکتی در پاسخ متمرکز بود، متصل کردند.
این هوش مصنوعی ترکیبی اصطلاحا یک «شبکه عصبی حسیــحرکتی بازگشتی» است که بر اساس مجموعهای از ۵۰ وظیفه روانیــفیزیکی آموزش دیده است. این سیستمها از طریق دستورالعملهایی که از طریق مدل زبان اســبرت تغذیه میشوند، روی پاسخ به یک محرکــ مانند واکنش به نورــ متمرکز شدند.
شبکه عصبی حسیــحرکتی بازگشتی از طریق مدل زبان تعبیهشده دستورالعملهای نوشتاری را درک کرد. این کار به این سیستم امکان میدهد که وظایف را بر اساس دستورالعملهای زبان طبیعی انجام دهد. دانشمندان میگویند با وجود اینکه این سیستم هرگز هیچ آموزشی ندیده و پیشتر وظایف مشابهی را انجام نداده بود، به طور متوسط در ۸۳ درصد موارد درست عمل میکرد.
به گفته پژوهشگران، شبکه عصبی حسیــحرکتی بازگشتی سپس باید نتایج یادگیری حسیــحرکتی خود را با استفاده از دستورالعملهای زبانی به یک نسخه همسان هوش مصنوعیــ به عبارت دیگر به یک نسخه خواهر از خودــ منتقل میکرد تا وظایفی را انجام دهد که پیش از این هرگز آنها را انجام نداده بود.
به گفته دانشمندان، این روش به نوعی مشابه آن چیزی است که ما انسانها نیز انجام میدهیم. در واقع انسانها نیز با پیروی از دستورالعملهای شفاهی یا نوشتاری برای اجرای وظایفشان، همهچیز را یاد میگیرند، حتی اگر که قبلا آن اقدامها را انجام نداده باشند.
دقیقا همین عملکرد شناختی انسان است که ما را از حیوانات تفکیک میکند. هرچند چتباتهای مجهز به هوش مصنوعی میتوانند دستورالعملهای زبانی را برای تولید یک تصویر یا متن تفسیر کنند، نمیتوانند دستورالعملهای نوشتاری یا شفاهی را به اقدامهای فیزیکی ترجمه کنند، چه رسد به اینکه بتوانند دستورالعملها را برای هوش مصنوعی دیگری توضیح دهند.
با این حال، پژوهشگران با شبیهسازی مناطقی از مغز انسان که مسئولیت درک زبان، تفسیر آن و همچنین اقدامهای مبتنی بر دستورالعمل را برعهده دارند، یک هوش مصنوعی با مهارتهای یادگیری و ارتباطی مشابه انسان ایجاد کردند.
به گفته آنها، این امر بهتنهایی منجر به ظهور هوش جامع مصنوعی (AGI) نخواهد شد. در هوش جامع مصنوعی، یک عامل هوش مصنوعی میتواند بهخوبی یک انسان استدلال کند و وظایفی را در زمینههای مختلف انجام دهد. با این حال، محققان میگویند که مدلهای هوش مصنوعی مانند این مدل میتواند به درک ما از نحوه عملکرد مغز انسان کمک کند.
به گفته پژوهشگران، این یافته جدید راهی است برای رباتهای مجهز به هوش مصنوعی که بتوانند برای برقراری ارتباط با یکدیگر و همچنین یادگیری و انجام دادن وظایف از آن استفاده کنند. در این صورت، اگر تنها یک ربات دستورالعملهای اولیه را دریافت کند، میتواند آنها را در ساخت و آموزش سایر رباتهای صنعتی خودکار به کار بندد. دانشمندان در عین حال یادآور میشوند که این شبکه بسیار کوچک است اما هیچ مانعی بر سر توسعه شبکههای بسیار پیچیدهتر وجود ندارد و میتوان روزی این شبکهها را در رباتهای انساننمایی ادغام کرد که قادرند ما و همچنین یکدیگر را درک کنند.