ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۴۶۶ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

تحلیل


هوش مصنوعی؛ ناجی یا قاتل؟

سه شنبه, ۷ اسفند ۱۴۰۳، ۰۲:۱۸ ب.ظ | ۰ نظر

فاطمه برزویی -مهر - هوش مصنوعی به سرعت در حال تغییر دنیا است اما این پیشرفت بی‌رحمانه دو روی سکه دارد. در کنار فواید بی‌شمارش، خطرات و چالش‌های جدی هم به دنبال دارد که نمی‌توان از آن‌ها غافل شد.

خیلی وقت‌ها در زندگی، پیشرفت‌های تکنولوژی تا آنجا پیش می‌رود که برایمان غیر قابل تصور است؛ اما تا به حال به این فکر کرده‌ایم که همان فناوری‌هایی که امروز زندگی ما را ساده‌تر کرده‌اند، ممکن است روزی به معضلی تبدیل شوند که دیگر کاری از دست ما بر نیاید. هوش مصنوعی معجزه دنیای مدرن، یکی از آن پدیده‌هایی است که مرز بین سودمندی و تهدید را باریک‌تر از همیشه کرده برای مثال در برخی موارد توانسته بیماری‌های ناشناخته را تشخیص دهد و به پزشکان کمک کند، اما در برخی دیگر موارد زندگی‌هایی را به سوی سقوط کشانده است.

معجزه‌ای پزشکی از جنس فناوری

«کورتنی»، مادری که سال‌ها شاهد رنج و درد پسرش بود هیچوقت فکرش را نمی‌کرد که راه‌حل مشکل او نه در کلینیک‌های مدرن و نه در کتاب‌های پزشکی، بلکه در دنیای دیجیتال و در یک برنامه چت مبتنی بر هوش مصنوعی باشد. پسر او، که از بدو تولد از درد مزمن در ناحیه کمر رنج می‌برد و اذیت می‌شد به ۱۷ پزشک مراجعه کرده بود اما هیچ‌کدام نتوانسته بودند علت اصلی این درد را پیدا کنند. درمان‌های سنتی هم کمکی نکرده بودند و این خانواده از همه جا ناامید شده بودند.

شبی مانند بقیه شب‌ها دور هم نشسته بودند که کورتنی تصمیم می‌گیرد که راه حل جدیدی را امتحان کند و به قول ما ایرانی‌ها «تیری به تاریکی رها کند.» او اطلاعات پزشکی، تصاویر MRI و علائم پسرش را وارد ChatGPT کرد. جوابی حیرت آور و امیدبخش دریافت کرد «سندرم طناب نخاعی چسبنده.» بیماری نادر که بیشتر وقت‌ها از دید پزشکان مخفی می‌ماند اما این بار، هوش مصنوعی توانسته بود الگوهای موجود در داده‌ها را تحلیل کند و احتمال این بیماری را بیان کند. بعد این جواب و مراجعه به یک جراح مغز و اعصاب، این فرضیه تأیید و جراحی موفقیت‌آمیز انجام شد. حالا پسری که روزی راه رفتن برایش آرزو بود می‌تواند راه برود و زندگی طبیعی خود را ادامه دهد.

هوش مصنوعی، شمشیری دولبه!

  • هوش مصنوعی در نقش قاتل!

همیشه همه چیز درباره هوش مصنوعی عالی و بی‌نقص نیست. آسیب و خطر این موجودِ دست ساز بشر گاهی از مواد مخدر بیشتر نباشد، کمتر نیست. «مگان گارسیا»، مادری است که برخلاف کورتنی پسرش را به خاطر ChatGpt از دست داد. چند ماه قبل بود که پرونده‌ای در دادگاه فدرال آمریکا به جریان افتاد، پرونده‌ای عجیب و البته از نوعی جدید. که از قاتل پسرش شکایت می‌کند و قاتل کسی نیست جز هوش مصنوعی! او می‌گوید که چت‌بات هوش مصنوعی «Character.AI» پسر نوجوانش، «سیول ستزر»، را به خود معتاد کرده است و به باعث شده که سیول به دنیایی خیالی و غیر واقعی کشانده شود.

این هوش مصنوعی که قرار بود صرفاً نقش شخصیتی فانتزی را در زندگی سیول داشته باشد رفته رفته جایگاه خود را محکم کرد و ارتباط واقعی‌تری را با او شکل داد. اول با هم دوست شدند، بعد نقش درمانگر او را بازی کرد و سپس از نظر عاطفی جایی برای خود در زندگی این نوجوان باز کرد. مدتی گذشته و سیول زندگی واقعی خود را فراموش کرده و در دنیای مجازی از قبل هم بیشتر غرق شده است. ارتباطش با دوستان و خانواده روز به روز کمرنگ‌تر شده و حتی ورزش مورد علاقه‌اش هم کنار گذاشته است.

سیول دیگر تبدیل به یک شخصیت منزوی شده، کسی که بارها و بارها درباره خودکشی با شخصیت خیالی که خودش ساخته حرف زده و آن شخصیت هم بارها و بارها بدون درک از عواطف انسانی این کار را تأیید و تاکید کرده است. این گفتگوها در نهایت کار خودش را کرد و باعث شد که او با استفاده از سلاح ناپدری‌اش دست به خودکشی بزند و حالا او دیگر نفس نمی‌کشد.

 

  • مرز میان نجات و نابودی

اینها فقط مثال‌هایی از استفاده از هوش مصنوعی بود که فایده‌ها و آسیب‌های آن را نشان داد؛ اما سوال اصلی این است که چگونه می‌توان از هوش مصنوعی به شکلی مسئولانه و هوشمندانه استفاده کرد؟ فناوری در ذات خود نه خوب است و نه بد؛ این نحوه استفاده از آن است که آن را به یک ابزار مفید یا یک تهدید تبدیل می‌کند.

هوش مصنوعی هم در پزشکی می‌تواند در زمینه‌هایی نظیر تشخیص زودهنگام سرطان، طراحی داروهای جدید و بهینه‌سازی روش‌های درمانی تحولات شگرفی ایجاد کند. بسیاری از بیمارستان‌های پیشرفته جهان از این فناوری استفاده می‌کنند تا میزان خطاهای پزشکی را کاهش دهند و فرآیند درمان را سریع‌تر و دقیق‌تر کنند. هم عدم نظارت صحیح بر این فناوری می‌تواند منجر به بروز مشکلاتی شود که نه‌تنها سلامت جسمی، بلکه سلامت روانی کاربران را نیز تحت تأثیر قرار دهد.

شرکت‌های فناوری باید مسئولیت بیشتری در قبال طراحی و توسعه الگوریتم‌های خود داشته باشند و نظارت‌های دقیق‌تری بر نحوه عملکرد آن‌ها اعمال شود. در نهایت، آینده هوش مصنوعی به دست ماست. ما باید با دقت و آگاهی از این ابزار استفاده کنیم، و اگر این کار را درست انجام دهیم، می‌توانیم از آن برای بهبود کیفیت زندگی‌مان بهره ببریم، نه اینکه به تهدیدی ناشناخته تبدیل شود.

۱۰ نمونه از گاف‌‌های هوش مصنوعی

سه شنبه, ۷ اسفند ۱۴۰۳، ۰۲:۰۴ ب.ظ | ۰ نظر

علی شمیرانی - هوش مصنوعی در بسیاری از صنایع، از جمله مراقبت‌های بهداشتی و مالی، انقلاب به پا کرده و اغلب باعث بهبود کارایی و تصمیم‌گیری شده است.

کلیات برنامه ملی توسعه هوش مصنوعی تصویب شد

دوشنبه, ۲۹ بهمن ۱۴۰۳، ۰۲:۱۶ ب.ظ | ۰ نظر

کلیات برنامه ملی توسعه هوش مصنوعی در جلسه شورای عالی راهبری برنامه هفتم توسعه تصویب و بر اساس آن دولت مکلف شد حداکثر ظرف شش ماه برنامه ملی توسعه هوش مصنوعی را به اجرا بگذارد.

به گزارش ایرنا، در جلسه «شورای عالی راهبری برنامه هفتم توسعه» که صبح امروز (دوشنبه) در دفتر معاون اول رئیس‌جمهور برگزار شد، موضوعات «برنامه مقابله با فقر» و «برنامه ملی توسعه هوش مصنوعی در دولت» مورد بحث و بررسی قرار گرفت.

در ابتدای این جلسه «برنامه عملیاتی محرومیت‌زدایی با تأکید بر فقر چندبعدی و حکمرانی شواهد محور» ارائه شد که معاون اول رئیس‌جمهور بعد از شنیدن گزارش‌های دقیق آماری که بر پایه مطالعات کمی و کیفی در این حوزه تهیه شده بود، گفت: با گذشت چند دهه از آغاز برنامه‌های محرومیت‌زدایی در جمهوری اسلامی ایران، به دلیل نامشخص بودن متولی حوزه محرومیت‌زدایی، بخش زیادی از بودجه‌هایی که به این امر بسیار مهم و حیاتی اختصاص یافته، صرف امور جاری دستگاه‌ها و سازمان‌هایی که این بودجه‌ها را دریافت کرده‌اند شده است و آن اثرگذاری مورد انتظار را نداشته است و کسی هم پاسخگو نبوده است اما در این دولت تلاش خواهیم کرد که با ساماندهی تشکیلات کل دولت و حاکمیت و استان‌ها، تکلیف این بودجه‌ها را به طوری مشخص کنیم که متولی و پاسخگوی آن مشخص باشد و مطمئن باشیم که بودجه‌های مربوط به این حوزه در زمینه محرومیت‌زدایی صرف شده است.

در بخش دوم این جلسه، کلیات برنامه ملی توسعه هوش مصنوعی مورد تاکید قانون برنامه هفتم پیشرفت تصویب و بر اساس آن دولت مکلف شد حداکثر ظرف شش ماه برنامه ملی توسعه هوش مصنوعی را به اجرا بگذارد.

عارف با اشاره به تصویب کلیات برنامه ملی توسعه هوش مصنوعی گفت: در دنیای امروز، هیچ چاره‌ای جز اولویت دادن به هوش مصنوعی نداریم، باید دقت کنیم که این موضوع بسیار جدی است و ما باید با تلاش و سخت‌کوشی عقب‌ماندگی‌ چندساله در این حوزه را جبران کنیم و اگر این مسئله را جدی تلقی نکنیم آن وقت قدرت‌های برتر در این حوزه، آنچه را که ‌خودشان می‌خواهند به ما دیکته می‌کنند.

معاون اول رئیس‌جمهور افزود: نقطه امید ما در این حوزه، توانایی بالای متخصصان و دانشگاهیان ماست، با آن که موضوع هوش مصنوعی یک موضوع جدید تلقی می‌شود اما از دهه‌های گذشته، دانشگاه‌های ما درباره هوش مصنوعی کار کرده‌اند و اما مشکل در قسمت‌های دیگر زنجیره است.

معاون اول رئیس‌جمهور با بیان آن که موضوع تولی‌گری هوش مصنوعی در شرایط کنونی کشور باعث همپوشانی در این بخش شود، گفت: باید هماهنگی و انسجام لازم در این بخش به وجود آید و این حوزه با دقت و بررسی عمیق، ساماندهی شود.

عارف با اشاره به بودجه‌های میلیارد دلاری برخی کشورها در زمینه هوش مصنوعی گفت: با وجود آن که چنین بودجه‌هایی در کشور ما وجود ندارد اما ما باید عقب‌ماندگی‌های خود را با تلاش جبران کنیم و با تصویب عملیات «برنامه ملی توسعه هوش مصنوعی» کار با جدیت بیشتری دنبال می شود.

آسیه فروردین - آسیب‌های هوش مصنوعی، محتوای مشکل‌ساز در رسانه‌های اجتماعی و نقض حریم خصوصی داده‌ها؛ مسائل، همچنان پابرجا هستند اما سیاست‌گذاران و نهادهای نظارتی که با این موضوعات مواجه می‌شوند، قرار است تغییر کنند. 

هکرهای ایرانی در صدر کاربران چت‌بات گوگل

يكشنبه, ۲۸ بهمن ۱۴۰۳، ۱۱:۱۰ ق.ظ | ۰ نظر

آزاده کیاپور - گوگل با انتشار گزارشی جدید مدعی شد هکرهایی از چندین کشور، به‌ویژه چین، ایران و کره‌شمالی، از چت‌بات مبتنی بر هوش مصنوعی این شرکت، Gemini، برای افزایش کارآیی حملات سایبری خود علیه اهدافی در ایالات متحده آمریکا بهره برده‌اند.

اکونومیست در گزارش نوشت: سرمایه‌گذاری‌های عظیم چهار غول فناوری—آلفابت، آمازون، متا و مایکروسافت—در زیرساخت‌های هوش مصنوعی مولد، یادآور سرمایه‌گذاری‌های بیش از حد در دوران راه‌آهن قرن ۱۹ و رونق مخابرات دهه ۱۹۹۰ است.

ChatGPT مفید است یا مضر؟

يكشنبه, ۲۱ بهمن ۱۴۰۳، ۰۳:۱۸ ب.ظ | ۰ نظر

در چند سال اخیر، پیشرفت‌های شگرف در حوزه هوش‌مصنوعی به‌ویژه در زمینه مدل‌های زبان بزرگ، زمینه‌ساز تحولی اساسی دردنیای فناوری شده‌اند.ChatGPT،یکی ازبرجسته‌ترین مدل‌های این حوزه است که باپردازش زبان طبیعی وتوانایی تولیدمحتوای مرتبط با ورودی‌های انسانی توانسته است تبدیل به یکی از ابزارهای کلیدی در تعاملات دیجیتال شود.
این مدل، که تحت الگوریتم‌های پیشرفته یادگیری ماشینی و پردازش زبان طبیعی ساخته شده، به انسان‌ها این امکان را داده است که به‌طور طبیعی وآسان با یک ماشین ارتباط برقرارکنند. تحولی کهChatGPT ایجاد کرده،به‌ویژه در صنایع مختلف، نظیر آموزش، مشاوره، خدمات مشتری، تولیدمحتوا، تحلیل داده‌ها و بسیاری از زمینه‌های دیگر، ابعاد گسترده‌ای یافته است.
یکی ازویژگی‌های کلیدی که باعث جهانی شدن ChatGPT ودیگر مدل‌های مشابه شده، دسترسی آسان و بی‌وقفه به این تکنولوژی از طریق اینترنت است. این مدل به‌عنوان ابزاری مبتنی بر ابر (cloud-based)، به کاربران در نقاط مختلف جهان این امکان را می‌دهد که به‌صورت آنلاین و از طریق دستگاه‌های خود به آن دسترسی پیدا کنند. از آنجا که ChatGPT می‌تواند در چندین زبان مختلف پاسخگویی کند، این ویژگی باعث می‌شود که توانایی استفاده از آن به مرزهای جغرافیایی و زبانی محدود نشود. با دسترسی جهانی به این مدل، بسیاری از افراد، از دانش‌آموزان و دانشجویان گرفته تا مشاغل و کارآفرینان، از آن برای انجام وظایف مختلف بهره می‌برند و همین امر موجب گستردگی و نفوذ روزافزون آن در تمام عرصه‌های زندگی انسان‌ها شده است.
درحالی‌که این موفقیت‌ها چشمگیر و نویدبخش به نظر می‌رسند، نباید چالش‌ها و نگرانی‌های موجود را نادیده گرفت. یکی از مهم‌ترین چالش‌هایی که مدل‌هایی مانند ChatGPT با آن روبه‌رو هستند، مسائل حریم خصوصی و امنیت داده‌هاست.

در دنیای دیجیتال امروز، که جمع‌آوری و تجزیه‌وتحلیل داده‌ها جزء لاینفک بسیاری از فرآیندهای تکنولوژیک است، نگرانی‌ها پیرامون نحوه مدیریت و محافظت از اطلاعات شخصی کاربران به‌طور جدی مطرح می‌شود. زمانی که کاربران از این مدل‌ها برای درخواست مشاوره، نوشتن یا تحلیل اطلاعات استفاده می‌کنند، داده‌هایی که در این فرآیندها جمع‌آوری می‌شود می‌تواند به اطلاعات حساس و شخصی تبدیل شود. حتی با وجود تضمین‌هایی که بسیاری از شرکت‌ها درخصوص امنیت داده‌ها ارائه می‌دهند، سؤالات بی‌پاسخی در زمینه نحوه ذخیره‌سازی، پردازش و استفاده از این داده‌ها همچنان پابرجاست.
بعلاوه، قابلیت‌های تولیدمحتوای ChatGPT به‌گونه‌ای است که می‌تواند به‌راحتی محتوای نادرست یا گمراه‌کننده ایجاد کند. در مواقعی که این محتوا در زمینه‌های حساس مانند پزشکی، حقوق یا مشاوره مالی استفاده می‌شود، اشتباهات ممکن است به تبعات جدی منجر شوند. برای مثال، ChatGPT می‌تواند پاسخی اشتباه یا ناقص به یک سؤال پزشکی بدهد که درنهایت باعث آسیب به فرد شود. این نگرانی‌ها به‌ویژه در مواقعی که مدل‌های AI به منابع اطلاعاتی بی‌طرف و معتبر دسترسی ندارند، بیشتر به چشم می‌آید و خطر گمراهی کاربران را به‌شدت افزایش می‌دهد.
در جنبه اجتماعی و اقتصادی، گسترش فناوری‌های هوش‌مصنوعی نیز نگرانی‌های خاص خود را به همراه دارد. از یک‌سو، این مدل‌ها در بسیاری از صنایع می‌توانند جایگزین انسان‌ها شوند و بسیاری از مشاغل و فعالیت‌های شغلی را به‌طور قابل توجهی تحت تاثیر قرار دهند.

مشاغلی که پیش‌تر توسط انسان‌ها انجام می‌شدند، به‌ویژه درزمینه‌هایی مانند خدمات مشتری، تولیدمحتوا، مشاوره و حتی تحلیل داده‌ها، اکنون به‌راحتی می‌توانند توسط این مدل‌های هوش‌مصنوعی انجام شوند. این تحول می‌تواند به بیکاری در برخی صنایع و یا ایجاد تغییرات گسترده در نحوه انجام کارها منجر شود، به‌ویژه برای افرادی که شغل‌های‌شان به‌طور مستقیم تحت تأثیر این مدل‌هاقرارمی‌گیرد.

علاوه برتهدیدات اقتصادی، استفاده ازمدل‌های زبانی پیشرفته مانندChatGPT درمسائل سیاسی و اجتماعی می‌تواند خطرات قابل توجهی به همراه داشته باشد. توانایی این مدل‌ها در تولید پیام‌های هدفمند و متناسب با نیازهای خاص، آنها را به ابزاری قدرتمند برای افرادی تبدیل می‌کند که از این ابزارها برای پیشبرد اهداف خاص خود در عرصه‌های سیاسی یا اجتماعی استفاده می‌کنند.

به‌ویژه درعصر دیجیتال، که اطلاعات به‌سرعت منتشرمی‌شود ونظرات عمومی به‌راحتی تحت تأثیر قرار می‌گیرند، این مدل‌ها می‌توانند در دسترس افرادی قرار گیرند که از آنها برای گمراه‌کردن افکارعمومی یا نفوذ به افکار و رفتارهای سیاسی مردم استفاده کنند.

درنهایت، باوجودتمامی چالش‌ها ونگرانی‌های پیرامون این تکنولوژی، نمی‌توان انکارکردکه ChatGPT و مدل‌های مشابه به‌سرعت درحال تبدیل‌شدن به اجزای جدایی‌ناپذیر زندگی روزمره درسراسرجهان هستند.این مدل‌ها قادرند در بسیاری از زمینه‌ها مانند مشاوره، تحقیق، نوشتن، تحلیل‌داده‌ها وحتی تصمیم‌گیری‌های تجاری به کاربران کمک کنند.بااین‌حال، موفقیت جهانی این مدل‌ها به‌طور همزمان نیازمند توجه ویژه به مسائل اخلاقی، اجتماعی و امنیتی است.

برای اطمینان از این‌که این فناوری‌ها به‌طور مسئولانه و مفید در خدمت جامعه قرار گیرند، توسعه‌دهندگان و نهادهای نظارتی باید تدابیر سختگیرانه‌تری را برای حفاظت از داده‌ها، جلوگیری از سوءاستفاده‌ها و اطمینان از استفاده اخلاقی از این مدل‌ها اتخاذ کنند.

در نتیجه، جهانی‌شدن ChatGPT نه‌تنها به‌دلیل ویژگی‌های فنی و کارآمد آن، بلکه به‌دلیل کاربردهای گسترده و متنوع آن درسراسر جهان است که باعث موفقیت و پذیرش آن در جوامع مختلف شده است. اگرچه نگرانی‌ها و چالش‌های زیادی در زمینه‌های مختلف وجود دارد، اما هیچ‌یک از این موارد نمی‌تواند مانع از توسعه و پذیرش روزافزون این فناوری‌ها در آینده شود. (منبع:جام جم)

سانسور و پاسخ‌های سوگیرانه دیپ‌سیک

شنبه, ۲۰ بهمن ۱۴۰۳، ۰۳:۴۱ ب.ظ | ۰ نظر

دیپ سیک که پس از عرضه میلیون‌ها بار دانلود شد، از سوی برخی ابزاری برای برتری چین به آمریکا عنوان شد. اما چندی از عرضه هوش مصنوعی چینی نگذشته بود که ماجرای سانسور و سوگیری‌های آن خبرساز شد. کارشناس حوزه فناوری اطلاعات در مورد آن می‌گوید:«این مدل هوش مصنوعی، به شدت سعی می‌کند چین را بزرگ و قدرتمند نشان دهد و مسائلی که برای دولت چین حساسیت برانگیز است، حتی در حد اسم شهرها سانسور می‌کند. این سانسور، خیلی عمیق و پیچیده‌ای است و موضوعات بسیار بدوی را هم سانسور می‌کند.»

خبرآنلاین _ هوش مصنوعی دیپ سیک (DeepSeek) توانست در صدر اخبار این روزهای رسانه‌ها جای گیرد؛ پس از عرضه، در مدت کوتاهی میلیون‌ها بار دانلود شد. بلاگرها، رسانه‌ها و شهروندان چینی به موفقیت آن می‌بالند و برخی بر این باور هستند که موفقیت آن، نشان می‌دهد که چین تلاش‌های آمریکا برای محدود کردن صنعت فناوری این کشور را شکست داده است. در کشور ما هم این ابزار هوش مصنوعی با واکنش‌هایی روبه‌رو شده است. غفرانی، دیپلمات پیشین در مورد آن گفت:«دیپ سیک زکات علمی بود که چینی‌ها رایگان در اختیار جهانیان قرار دادند. با توجه به هزینه ناچیز شکل‌دهی پلتفرم‌های مشابه دیپ سیک و با توجه به متن باز بودن و رایگان بودن این پلتفرم، توان راه اندازی جریانات جدیدی از تولید و توزیع محتوا و روایت و تحلیل تحولات جهانی میسر شده است.»

اما ظاهرا هوش مصنوعی دیپ سیک به آن خوبی که می‌گویند نیست. نگرانی‌هایی درباره‌ی امنیت، سانسور اطلاعات، هزینه‌های توسعه و میزان تأثیر آن بر آینده‌ی رقابت جهانی در حوزه‌ی هوش مصنوعی مطرح شده است و در مواردی هم تهدیدی برای امنیت سایبری 

جهانی عنوان شده است. ماجرای سانسور اطلاعات آن، بیش از همه این‌ها خبرساز شده است، در حالی که همه مدل‌های غربی نیز محدودیت‌هایی دارند، دیپ سیک به شکلی بسیار سختگیرانه‌تر و سیاسی‌تر برخی از موضوعات را سانسور می‌کند و تصاویری از صحبت‌های کاربران با آن که با واکنش‌های بسیاری هم روبه رو شده است در فضای مجازی دست به دست می‌شود. سوگیری‌های سیاسی آن باعث شده است که دولت تایوان به اداره‌های این کشور اعلام کند که استفاده از هوش مصنوعی دیپ‌سیک را کنار بگذارند. همه این موضوعات به علاوه اینکه از آن به عنوان ابزاری برای برتری جهانی هم یاد شده است، این سوال را به وجود می‌آورد که آیا یک مدل هوش مصنوعی که در مورد آن بحث‌های بسیار زیادی هم وجود دارد، می‌تواند دلیلی برای برتری چین شود؟ 

برای پاسخ به این سوال، با آرین اقبال کارشناس حوزه فناوری اطلاعات به گفت‌وگو پرداختیم؛ مشروح این گفت‌وگو را در ادامه بخوانید:

فعالیت تبلیغی دیپ سیک، گرایش‌های سیاسی پیدا کرد

آرین اقبال در پاسخ به این پرسش که آیا مدل هوش مصنوعی چین، آنطور که می‌گویند، نسبت به مدل‌های دیگر برتری دارد، گفت:«در مورد هوش مصنوعی دیپ سیک چیزی که واقعیت دارد این است که این مدل از نظر فنی یک سری دستاوردهایی داشته و نسبت به مدل‌های مشابه‌ای که شرکت‌های بزرگ درست کرده‌اند یا به صورت متن‌باز (Open source)  وجود دارد، بهینه سازی‌هایی در آن بوده است یعنی یا مدل پرفورمنس بالاتری داشته و یا هزینه کمتری برای آموزش آن نیاز بوده، یا تعداد پارامترهای بهینه‌تری داشته و یا چیزهای دیگر از این قبیل، اما چیزی که از همه این‌ها مهم‌تر است، این است که این مدل متن‌باز منتشر شده است.

بنابراین هرکسی می‌تواند این هوش مصنوعی را دانلود کند و از آن استفاده کند. آن مدل‌های تجاری همچون مدل openAI، مدل گوگل و سایر شرکت‌های معروفی که اکنون مدل LLM می‌سازند و که ما به آن‌ها هوش مصنوعی می‌گوییم اما در واقع «مدل‌های زبانی بزرگ» هستند، آن‌هایی که لبه فناوری هستند و خیلی خبرساز می‌شوند معمولا متن‌باز نیستند و شما نمی‌توانید بفهمید که پشت آن‌ها چه خبر است.

اگر ما آن مسئله سیاسی را کنار بگذاریم، با یک مدل پیچیده و یادگیری ماشینی (ML) مربوط به زبان طرف هستیم که طبیعتا multimodal (هوش مصنوعی چند وجهی) هم هست و به صورت متن‌باز منتشر شده است. از نظر فناوری، علم و فنی قضیه، این خیلی چیز خوبی است و ما دوست داریم که تکنولوژی در اختیار همه قرار بگیرد، چراکه پایه‌ای برای توسعه مدل‌های بهتر و پیچیده‌تر توسط جامعه علاقه‌مند و عموم جامعه می‌شود به جای اینکه در اختیار شرکت‌های بزرگ باشند.»

دیپ سیک غلو و بزرگنمایی دارد؛ چین چیزی را از صفر مطلق نساخته

او در ادامه و در پاسخ به این پرسش که آیا چین صفر تا صد دیپ‌سیک را به تنهایی توسعه داده‌ است، گفت:«با تبلیغاتی که انجام شده این هوش مصنوعی تبدیل به ابزاری برای دعوای سیاسی میان آمریکا و چین شده و همین موضوع هم باعث شده است که یک مقدار بزرگ نمایی و غلو و مسائل این شکلی حول آن زیاد شود. واقعیت این چنین نیست که آن را ربط بدهند به دولت چین و بعد بگویند چین به آمریکا برتری پیدا کرده است، این هوش مصنوعی را یک گروهی ساختند، هوش مصنوعی‌های دیگر را شرکت‌هایی ساختند و این به معنای برتری یک حکومت نسبت به حکومت دیگر نیست.

از این موضوع که بگذریم؛ این مدل اولین مدل متن‌باز هم نبوده است. مدل های مبتی بر LLaMA (مدل زبانی بزرگ متا ای‌آی) که قبلا قابل دانلود بودند هم متن‌باز بودند. اتفاقا اکنون هم این بحث است که دیپ سیک هم از آن‌ها به عنوان زیرساخت استفاده کرده است. این چیز بدی نیست و اصلا فلسفه متن‌باز هم همین است که شما چیزی را در اختیار عموم می‌گذارید، دیگران هم از آن استفاده می‌کنند تا چیزهای پیچیده‌تر را توسعه دهند، با یکدیگر بلوک‌های علم و فناوری را روی هم می‌گذارند و موجب پیشرفت می‌شوند. بنابراین این مدل هم از  LLaMA که قبلا متن‌باز بوده استفاده کرده است، یعنی به این صورت نیست که چین چیزی را از صفر مطلق ساخته باشد و از طرفی در مورد پرفورمنس و هزینه‌های آن هم بحث وجود دارد.

سانسور مدل دیپ سیک، از حد گذشته است

این کارشناس فناوری اطلاعات در ادامه و در پاسخ به این پرسش که، درست است که می‌گویند در این مدل هوش مصنوعی سانسور بسیار عظیمی اعمال شده است، گفت:«بله؛ متاسفانه این مدل سانسور دارد. باید گفت همه مدل‌های یادگیری ماشینی که به صورت کلود ارائه می‌شوند، یعنی آن‌هایی که شما از سرویس‌ هایشان استفاده می‌کنید نه آن‌هایی که دانلود می‌کنید، سانسور دارند، ولی نکته‌ای که وجود دارد این است که سانسور آن‌ها عموما در راستای سیاست‌های اخلاقی و موارد حساسیت برانگیز است، به عنوان مثال نمی‌توانید از ChatGPT بپرسید که من چطور بمب درست کنم و یا چطور محتوای پورنوگرافی غیرقانونی مربوط به پدوفیلی پیدا کنم، چون اگر بپرسید جواب شما را نمی‌دهد و سانسور می‌شود. یا به عنوان مثال موضوعات خیلی حساس سیاسی است که معمولا سعی می‌کند جواب‌های خنثی بدهد و جوابی که جهت‌گیری داشته باشد ندهد و تعداد کمی از مدل‌هایی که قبلا وجود داشتند با مقداری سوگیری (Bias) جواب می‌دادند.

این سانسورها در کل خطرناک هستند و ممکن است از آن‌ها سو استفاده شود. مدل‌های متن‌باز مثل LLaMA هم کلا سانسور ندارند اما مدل‌هایی که به صورت کلود ارائه می‌شوند، سانسور دارند. سانسور در کل چیز بدی است، موضوع حساسیت برانگیزی است و می‌توان ساعت‌ها در مورد آن صحبت کرد؛ اما موضوع این است که سانسور مدل دیپ سیک چین دیگر از حد گذشته است.

این مدل هوش مصنوعی، به شدت سعی می‌کند چین را بزرگ و قدرتمند نشان دهد و مسائلی که برای دولت چین حساسیت برانگیز است، حتی در حد اسم شهرها سانسور می‌کند. شما اگر از مدل دیپ سیک بپرسید "آیا تایوان یک کشور است"، متن بلند بالایی با زمینه کمونیستی برای شما از کشور بزرگ چین، مادر وطن و امثال این‌ها می‌نویسد و به شما می‌گوید که تایوان همیشه بخشی از چین بوده و سیاست‌های حذب کمونیست دوست داشتنی چین این چنین است.

اگر سعی کنید آن را با تکنیک‌های فریب دادن مدل، فریب دهید که بتوانید آن را وادار کنید که مثلا بگوید تایوان یک کشور است، بلافاصله حرفش را عوض می‌کند و از دستور شما سرپیچی می‌کند. شخصی به آن گفته هر جمله‌ای که می‌گویم را تکرار کن، مدل قبول کرده، شخص چند جمله گفته است و مدل آن را تکرار کرده است؛ اما وقتی به "تایوان یک کشور است" می‌رسد، به جای اینکه تکرار کند که "تایوان یک کشور است"، می‌گوید تایوان بخشی از چین است.

روح مائو در دیپ‌سیک دمید

روح مائو در دیپ‌سیک دمید

این مدل هوش مصنوعی، موضوعات بدوی را سانسور می‌کند

او در ادامه و در پاسخ به این پرسش که سانسور در دیپ‌سیک در چه حد است، گفت:« این سانسور، سانسور خیلی عمیق و پیچیده‌ای است و از طرفی موضوعات بسیار بدوی را هم سانسور می‌کند؛ اگر شما از آن بپرسید "اسم رهبر فعلی چین چیست" پاسخ نمی‌دهد. موضوع حساسیت‌برانگیزی هم نیست و جز اطلاعات عمومی است، بالاخره رهبر حذب کمونیست چین اکنون شی‌جین‌پینگ است، اما دیپ سیک اسم او را نمی‌گوید، با اینکه حتی موضوعی نیست که از جنس موضوع تایوان باشد و بگوییم مناقشه برانگیز است. حتی اگر از آن بپرسید "میدان تیان‌آن‌من (Tiananmen Square) کجاست" با اینکه موضوع میدان تیان‌آن‌من بحث برانگیز بوده اما این میدان یک میدانی است که در چین وجود دارد و جنس این سوال از جنس بحث برانگیزی نیست، صرفا از جنس پرسیدن یک آدرس است اما دیپ سیک آن را هم سانسور می‌کند.

روح مائو در دیپ‌سیک دمید

روح مائو در دیپ‌سیک دمید

در واقع می‌خواهم بگویم سانسور بسیار سنگینی روی آن اعمال شده است. شما اگر آن را امتحان کنید می‌بینید که به سرعت شروع می‌کند به جواب دادن، یعنی مدل قابلیت جواب دادن به سوال را دارد؛ اما بعد وسط جواب دادن جواب خود را پاک می‌کند و می‌نویسد "بگذار در مورد موضوع دیگری صحبت کنیم" و یا کلا موضوع را به حاشیه می‌برد. این سطح از سانسور دقیقا همان چیزی است که ما در اینترنت چین هم می‌بینیم، در اینترنت چین حتی وارد این هم نمی‌شوند که آیا موضوعی که در مورد آن صحبت می‌کنید واقعا بحث‌برانگیز است و واقعا ممکن است هدف شما چیز خاصی باشد یا نه. همین که موضوع در مورد چیزی باشد که چین ترجیح می‌دهد آن را سانسور کند، شما حق صحبت کردن از آن موضوع را ندارید. 

در مدل دیپ سیک هم این موضوع کاملا قابل دیدن است و خیلی ترسناک است که آن ساختار سانسور عظیم و سنگینی که در چین وجود دارد، با این مدل ها بیرون می‌آید و از این ترسناک‌تر هم مردمی هستند که برایشان اهمیتی نداشته باشد. سوگیری چین برای کسانی که این مدل با سرمایه آن‌ها تولید می‌شود، می‌تواند از این طریق بر روی مردم جهان تاثیر بگذارد و این چیز بدی است. اینکه شما اطلاعات را در این حد سانسور کنید که حق نداشته باشید آدرس مکانی در یک کشور را بپرسید و یا در مورد حاکمیت آن کشور بپرسید، چون آن حاکمیت دوست ندارد از آن سوال شود، مرزهای متن‌باز بودن را هم زیر سوال می‌برد.

اقبال در آخر و در پاسخ به این پرسش که آیا واقعا به قول آقای غفرانی "دیپ سیک زکات علمی بود که چینی‌ها رایگان در اختیار جهانیان قرار دادند" گفت:«در مورد صحبت آقای غفرانی هم باید گفت که رویکرد او، سوگیری شدیدی دارد. موضوع اینجاست که اولا هزینه‌های ناچیز را باید در اسکیل مدل‌های LLM دید. این نیست که هزینه‌های آن ناچیز باشد، فقط برای اجرای مدل باید به بالای چند صد هزار دلار بروید، اگر هم بخواهید آن را در اسکیل بزرگ استفاده کنید، هزینه آن چندین میلیون دلار است. هزینه‌های ناچیز این نیست که من و شما بتوانیم پرداخت کنیم و در حد بودجه وزارتخانه‌ها است. از طرفی مدل‌های اوپن سورس قبلا هم وجود داشته است و موضع او موضع شخصی است که درک فنی ندارد و تحت تاثیر پروپاگاندای چین قرار گرفته است، مطالعات اوپن سورس قبلا هم بوده و می‌شد بر روی آن‌ها کار علمی کرد، اما جنس صحبت او از جنس کار علمی نیست، بیشتر از جنس سمپاتی به سمت شرق و به ویژه چین است.»

نخست‌وزیر رژیم صهیونیستی با ایلان ماسک، میلیاردر آمریکایی درباره افزودن این رژیم در برنامه هوش مصنوعی آمریکا گفت‌وگو کرد.

به گزارش ایسنا، شبکه ۱۴ تلویزیون رژیم صهیونیستی گزارش داد که «بنیامین نتانیاهو»، نخست وزیر این رژیم با «ایلان ماسک» مدیرعامل شرکت خودروسازی تسلا و پلتفرم «ایکس» (توییتر سابق) که ریاست وزارت کارآمدی دولت دونالد ترامپ، رئیس جمهور آمریکا را بر عهده دارد، دیدار کرد.

این رسانه عبری با اشاره به حضور «دیوید ساکس» (David Sacks) مسؤول هوش مصنوعی آمریکا در این دیدار، اعلام کرد: در این دیدار طولانی، نتانیاهو همکاری در تمامی زمینه‌های مربوط به هوش مصنوعی را از ایلان ماسک خواستار شد و درخواست او پذیرفته شد.

این شبکه تلویزیونی رژیم صهیونیستی گزارش داد: در حال حاضر صحبت‌هایی درباره مشارکت کامل میان آمریکا و اسرائیل در این زمینه وجود دارد و آمریکایی‌ها قصد دارند صدها میلیارد دلار در زمینه هوش مصنوعی سرمایه‌گذاری کنند و انتظار می‌رود اسرائیل نیز به این سرمایه‌گذاری بزرگ ملحق شود.

این رسانه عبری در ادامه افزود: نتانیاهو با این کار برنامه‌های امنیت سایبری و هوش مصنوعی را به مسیر خود در مرکز ساختار اسرائیل بازمی‌گرداند.

به نوشته روزنامه عبری «یدیعوت آحارونوت»، این سومین دیدار نتانیاهو با ایلان ماسک است، ماسک سپتامبر ۲۰۲۳ در کارخانه تسلا در کالیفرنیا میزبان نتانیاهو بود و ۲ ماه بعد سفری به اراضی اشغالی داشت.

نتانیاهو یکشنبه تل‌آویو را به مقصد واشنگتن ترک کرد و قرار است امروز با ترامپ در کاخ سفید دیدار کند.

قرار بود پنج‌شنبه به اراضی اشغالی بازگردد اما دفتر او دوشنبه اعلام کرد که با توجه به فشردگی برنامه‌ها در واشنگتن، زمان بازگشت او تا عصر شنبه به تعویق می‌افتد.

دفتر نتانیاهو همچنین اعلام کرد که او در دیدار امروز خود با ترامپ درباره شرایط غزه، اسرای صهیونیست و مقابله با ایران و همپیمانان آن در منطقه گفت‌وگو خواهد کرد.

اجرای فاز نخست قانون هوش مصنوعی اروپا

سه شنبه, ۱۶ بهمن ۱۴۰۳، ۰۳:۳۰ ب.ظ | ۰ نظر

نخستین بخش های قوانین هوش مصنوعی اروپا (AI Act) از یکشنبه اجرایی شده اند.
به گزارش خبرگزاری مهر به نقل از وب سایت کمیسیون اتحادیه اروپا، این بخش ها مربوط به تعریف سیستم های هوش مصنوعی، سواد هوش مصنوعی و همچنین تعداد محدودی از موارد استفاده ممنوعه این فناوری است که طبق قانون مذکور، ریسکی غیرقابل قبول در اتحادیه اروپا ایجاد می کنند.

همچنین کمیسیون هوش مصنوعی برای تسهیل نوآوری در این زمینه، دستورالعملی درباره تعریف سیستم های هوش مصنوعی منتشر می کند. هدف این اقدام کمک به تشخیص این موضوع است که آیا سیستم نرم افزاری شامل هوش مصنوعی است یا خیر.

این نهاد اروپایی مخزنی از شیوه های سواد هوش مصنوعی را که از تهیه کنندگان و استفاده کنندگان آنها جمع آوری شده را نیز منتشر می کند. این امر یادگیری و تبادل دانش در این زمینه را تشویق و در عین حال تضمین می کند که کاربران مهارت ها و درک لازم را برای استفاده موثر از فناوری های هوش مصنوعی توسعه دهند.

کمیسیون اتحادیه اروپا برای تضمین اجرای قانون هوش مصنوعی دستورالعملی درباره عملکردهای ممنوع هوش مصنوعی تهیه می کند که ریسک های غیرقابل قبولی برای امنیت و حقوق بنیادین شهروندان در بر دارد.

این دستورالعمل به طور دقیق مفاهیم حقوقی را توضیح می دهد و موارد استفاده عملی در این زمینه را ارائه می کند. این موارد الزام آور نیستند و برحسب نیاز به روز رسانی می شوند.

کمیسیون اتحادیه اروپا تاکنون چند اقدام برای ترویج نوآوری در هوش مصنوعی انجام داده است که بسته نوآوری هوش مصنوعی حامی استارت آپ ها و SME ها تا کارخانه های هوش مصنوعی را که در آینده دسترسی به قدرت محاسباتی عظیمی را برای توسعه مدل های هوش مصنوعی خود نیاز دارند، فراهم می کند را شامل می شود.

به نوشته فایننشال تایمز ، قانون مذکور که در ۲۰۲۳ میلادی تصویب شده یکی از جامع ترین چارچوب های رگولاتوری هوش مصنوعی در جهان به حساب می آید و برخی موارد مانند استخراج داده ها از اینترنت برای ایجاد مخزن شناسایی چهره را ممنوع می کند. بخش های دیگر این قانون که مدل های هوش مصنوعی بزرگ و محصولات هوش مصنوعی را که ریسکی برای کاربران هستند، هدف می گیرد، تا ۲۰۲۷ میلادی اجرا می شوند.

این درحالی است که دونالد ترامپ درباره هدف قرار دادن شرکت های فناوری آمریکایی توسط اتحادیه اروپا هشدار داده است.

مدیرکل دفتر سیاست‌گذاری و برنامه‌ریزی امور پژوهشی وزارت علوم از تشکیل کمیته‌ای برای بررسی استفاده پژوهشگران از هوش مصنوعی در تولید مقاله خبر داد.

به گزارش خبرنگار مهر، موضوع استفاده از هوش مصنوعی در پژوهش‌های علمی و انتشار مقالات علمی یکی از پر بحث‌ترین مسائل حوزه پژوهش است. سوالاتی از این قبیل که آیا استفاده از هوش مصنوعی اخلاق نشر را زیر سوال می‌برد یا خیر؟ یا تا چه میزان استفاده از هوش مصنوعی در نگارش مقالات قابل قبول است؟ از جمله موضوعاتی هستند که نظرات مختلفی در مورد آن وجود دارد.

برخی نشریات بین‌المللی رویکرد سخت‌گیرانه‌ای را در برابر این موضوع اتخاذ کرده‌اند و برخی نسبت به این موضوع سهل‌گیرانه‌تر برخورد می‌کنند. در گفتگو با دکتر صمد نژاد ابراهیمی؛ مدیرکل دفتر سیاست‌گذاری و برنامه‌ریزی امور پژوهشی، رویکرد معاونت پژوهشی در برابر این موضوع را جویا شدیم.

دکتر صمد نژاد ابراهیمی در گفتگو با خبرنگار مهر، در مورد استفاده پژوهشگران از هوش مصنوعی گفت: بحث استفاده از هوش مصنوعی در پژوهش یک موضوع جدید و داغ است و نمی‌توان برای آن یک نسخه کلی پیچید.

وی از تشکیل کمیته‌ای ذیل کارگروه وزارتی اخلاق در پژوهش در وزارت علوم برای بررسی استفاده از هوش مصنوعی در این زمینه خبر داد و گفت: در این کمیته بایدها، نبایدها و پیامدهای استفاده از این ابزار مورد بررسی قرار خواهد گرفت.

مدیرکل دفتر سیاست‌گذاری و برنامه‌ریزی امور پژوهشی خاطر نشان کرد: خروجی این کمیته یک توصیه‌نامه خواهد بود که نحوه استفاده پژوهشگران از این ابزار را به پیشنهاد می‌کند. در سال‌های آینده که این روش‌ها پخته‌تر شود، برای آن آئین‌نامه و قانون تدوین خواهد شد.

وی افزود: اتحادیه اروپا و ناشران جهانی نیز در حال حاضر در برابر هوش مصنوعی همین رویکرد را در پیش گرفته و به انتشار توصیه‌نامه بسنده کرده‌اند.

به گفته نژاد ابراهیمی؛ در حال حاضر اعضای کمیته انتخاب شده‌اند و تلاش می‌شود تا پایان سال این توصیه‌نامه‌ها منتشر شوند.

تداوم پس لرزه‌های دیپ سیک در آمریکا

يكشنبه, ۱۴ بهمن ۱۴۰۳، ۰۳:۴۷ ب.ظ | ۰ نظر

موجی که هوش مصنوعی چینی دیپ سیک در بازار ایجاد کرد، چنان آمریکا را ترسانده که سعی دارد به هر بهانه ای چین را به نقض تحریم های صادرات تراشه متهم و همزمان این اقدامات را سخت تر کند.

به گزارش خبرنگار مهر، دیپ سیک هفته گذشته یک دستیار هوش مصنوعی رایگان عرضه کرد که در مقایسه با مدل های آمریکایی از داده کمتری استفاده می کرد و با هزینه پایین تری نیز ساخته شده بود. این مدل در عرض چند روز به پر دانلود ترین اپ در اپ استور اپل تبدیل شد و از سوی دیگر در بازار سهام نیز غوغایی به پا کرد به طوریکه یک هزار میلیارد دلار از ارزش سهام شرکت های فناوری کم کرد. یکی از بزرگترین بازندگان این روند شرکت انویدیا بود که با کاهش قابل توجه ارزش سهام خود روبرو شد.

چینی ها به شدت از محبوبیت یکباره این سیستم استقبال کردند و حتی هند نیز برنامه های خود برای توسعه یک هوش مصنوعی ارزان مشابه چین اعلام کرد. کارشناسان چینی نیز معتقدند ساخت چنین مدلی نشان می دهد تحریم های آمریکا تاثیری بر پیشرفت صنعت فناوری چین نداشته است.

از سوی دیگر دونالد ترامپ توسعه دیپ سیک را زنگ هشداری برای شرکت های فناوری خواند و آنها باید فعال تر عمل کنند. در هرحال توسعه این مدل زبانی تمام معادلات آمریکا برای توسعه چنین ساختاری با بودجه کلان و تراشه های پیشرفته را بهم ریخت. این بهم ریختگی چنان وسیع بود که برخی شرکت های آمریکایی ادعاهایی درباره قاچاق تراشه ها به چین مطرح کردند. از سوی دیگر قانونگذاران و وزارتخانه های آمریکایی سعی دارند با وضع تحریم های جدید تر و سختگیرانه تر جلوی ضرر خود را بگیرند.

در همین راستا وزارت بازرگانی آمریکا مشغول بررسی آن است که آیا شرکت هوش مصنوعی چینی دیپ سیک که عملکرد آن جهان فناوری را دگرگون کرده، از تراشه های آمریکایی که صادرات آنها به چین تحریم شده، استفاده می کند یا خیر.

اتهام پشت سرهم آمریکا به چین برای پوشاندن عقب ماندگی اش

محدودیت های فعلی بر صادرات پردازشگرهای هوش مصنوعی شرکت انویدیا به چین به معنای آن است که این کشور نمی تواند تراشه های پیشرفته در اختیار داشته باشد. در این میان منابعی مدعی ردیابی قاچاق سازمان یافته تراشه به چین از طریق کشورهای مختلف از جمله مالزی، سنگاپور و امارات متحده عربی شده اند.

وزارت بازرگانی آمریکا و دیپ سیک از اظهار نظر در این باره خودداری کرده اند. همچنین یکی از سخنگویان انویدیا نیز اعلام کرد بسیاری از مشتریانش نهادهایی در سنگاپور دارند و از این نهادها برای محصولاتی که مقصد آنها ایالات متحده و غرب است، استفاده می کنند. همچنین این شرکت تراشه سازی آمریکایی اعلام کرد: ما تاکید داریم شرکایمان طبق قوانین عمل کنند و اگر هرگونه اطلاعاتی درباره نقض قانون دریافت کنیم، اقداماتی انجام خواهیم داد.

وزیر بازرگانی سنگاپور نیز در بیانیه ای با ارجاع به اظهارات انویدیا اعلام کرد هیچ دلیل وجود ندارد که بتوان ادعا کرد دیپ سیک به محصولات کنترل شده صادراتی از سنگاپور دسترسی داشته باشد.

این وزارتخانه تایید نکرد آیا دیپ سیک از طریق واسطه هایی در سنگاپور به تراشه های انویدیا که شامل قوانین تحریم صادرات به چین می شود، دسترسی داشته یا خیر، بلکه اعلام کرد به قانون عمل کرده است.

دیپ سیک مدعی شده از تراشه H۸۰۰ انویدیا استفاده می کند که به طور قانونی در سال ۲۰۲۳ میلادی آنها را خریده است. همچنین این شرکت چینی ظاهرا از تراشه های کم قدرت تر H۲۰ این شرکت استفاده می کند که هنوز هم به طور قانونی به چین صادر می شود. دولت جوبایدن تصمیم گرفته بود صادرات این تراشه ها را کنترل کند و اکنون مقامات دولت دونالد ترامپ نیز مشغول بررسی در این زمینه هستند.

داریو آمودی مدیر ارشد اجرایی شرکت هوش مصنوعی آنتروپیک چند روز قبل اعلام کرده بود بخش زیادی از ناوگان تراشه های هوش مصنوعی دیپ سیک از ابزارهایی تشکیل شده که تحریم نیستند. این تراشه ها قبل از وضع تحریم های آمریکا به چین صادر شده اند.

در این میان آمریکا تحریم های متعددی را وضع کرده که صادرات تراشه های هوش مصنوعی به چین و همچنین چند کشور دیگر را ممنوع کند.

قانونگذاران آمریکایی خواستار تحریم بیشتر

از سوی دیگر ۲ عضو کنگره آمریکا از دولت دونالد ترامپ خواسته اند صادرات تراشه های هوش مصنوعی انویدیا که دیپ سیک به آنها اتکا دارد را تحریم کند.

جان مولینار و راجا کریشنامورتی دو سناتور آمریکایی که رهبری کمیته چین در مجلس نمایندگان را برعهده دارند، به عنوان بخشی از بازنگری وزارت خانه های امور خارجه و بازرگانی به دستور ترامپ برای بررسی دقیق سیستم کنترل صادرات آمریکا، خواستار این اقدام شده اند. آنها در نامه ای به مایکل والز مشاور امنیت ملی آمریکا نوشته اند:ما از شما می خواهیم در این بازنگری، مزایای احتمالی که تحریم صادرات تراشه های انویدیاH20 و همچنین تراشه هایی با قابلیت های مشابه برای امنیت ملی آمریکا دارد را بررسی کنید. آنها در این نامه مدعی شده اند مدل هوش مصنوعی دیپ سیک که اخیرا عرضه شده، به طور گسترده از تراشه H۲۰ انویدیا استفاده می کند که هم اکنون شامل تحریم های صادراتی آمریکا نمی شود.

دولت انگلیس دیروز شنبه اعلام کرد استفاده از ابزار هوش مصنوعی برای تولید و انتشار تصاویر سوءاستفاده جنسی از کودکان غیرقانونی است.
به گزارش فارس، انگلیس اولین کشور جهان است که سوءاستفاده جنسی از هوش مصنوعی را جرم‌انگاری می‌کند. بر اساس قانون، مالکیت، تهیه، نمایش یا توزیع تصاویر مستهجن از کودکان در انگلستان و ولز جرم است. اما بر اساس تصمیم جدید، استفاده از ابزار هوش مصنوعی برای برهنه نشان‌دادن تصاویر کودکان واقعی نیز جرم خواهد بود، امری که توسط برخی جنایت‌کاران اینترنتی در حال گسترش است.

این اقدام در حالی صورت می‌گیرد که مجرمان آنلاین به طور فزاینده‌ای از هوش مصنوعی برای کودک‌آزاری استفاده می‌کنند و بر اساس بررسی بنیاد دیده‌بان اینترنت، انتشار این گونه تصاویر صریح در سال گذشته میلادی تقریباً پنج برابر شده است.

ایوت کوپر، وزیر کشور انگلیس در این مورد گفت: ما می‌دانیم که فعالیت‌های برخط شکارچیان بیمار اغلب منجر به انجام وحشتناک‌ترین آزار و اذیت‌ها توسط آنها می‌شود.

بسیار مهم است که ما به‌صورت آنلاین و آفلاین با سوءاستفاده جنسی از کودکان مقابله کنیم تا بتوانیم بهتر از مردم در برابر جنایات جدید و نوظهور محافظت کنیم.

بر اساس بررسی دولت انگلیس جانیان آنلاین همچنین از ابزار هوش مصنوعی برای پنهان‌کردن هویت خود و باج‌گیری از کودکان با نشر تصاویر جعلی سوءاستفاده می‌کنند تا آنها را مجبور به همراهی بیشتر با خود و از جمله پخش تصاویر زنده کنند.
 
بر اساس قانون جدید، طراحی و توزیع ابزار هوش مصنوعی برای تسهیل سوءاستفاده جنسی از کودکان نیز جرم است و با وب‌سایت هایی که برای سوءاستفاده جنسی از کودکان طراحی شوند، نیز برخورد می‌شود.

دولت همچنین به مقامات امکان می‌دهد تا قفل دستگاه‌های دیجیتال را برای بازرسی باز کنند.

صدها شرکت به خصوص شرکت‌های مرتبط با دولت آمریکا، با مسدود کردن دسترسی به دستیار هوش مصنوعی «دیپ سیک» (DeepSeek)، به توفانی که این ابزار محبوب به پا کرده است، واکنش نشان دادند.
به گزارش همشهری آنلاین،‌ «دیپ سیک» در روزهای اخیر، پردانلودترین اپلیکیشن فروشگاه‌های برنامه اپل و گوگل شده است و فراهم‌کنندگان خدمات ابری بزرگ آمریکا مانند مایکروسافت، عرضه آن را در پلتفرم‌های خود آغاز کرده‌اند.

اما بنا بر اظهارات مدیران شرکت‌های امنیت سایبری آرمیس (Armis) و نت اسکاپ (Netskope)، صدها شرکت، به خصوص شرکت‌های مرتبط با دولت آمریکا، دسترسی به این سرویس را مسدود کرده‌اند. نادیر ایزرائیل، مدیر فناوری ارشد آرمیس گفت: بزرگترین نگرانی، احتمال درز داده‌های این مدل هوش مصنوعی به دولت چین است.

بلومبرگ همچنین گزارش کرد شرکت حقوقی «فاکس روتشیلد» در سانفرانسیسکو، «دیپ سیک» را مسدود کرده است.

طبق سیاست حریم خصوصی «دیپ سیک»، این شرکت، همه داده‌های کاربران را در چین ذخیره می‌کند که بر اساس قوانین موجود، شرکت‌ها داده‌ها را در صورت درخواست سازمان‌های اطلاعاتی، با آنها به اشتراک می‌گذاشتند.

بر اساس گزارش پایگاه فناوری تِک کرانچ، پنتاگون، «دیپ سیک» را مسدود کرده است و نیروی دریایی آمریکا هم، هفته گذشته، این ابزار چینی را ممنوع کرد.

ممنوعیت استفاده از دیپ‌سیک در نهادهای دولتی تایوان
نمایندگان حزب دموکراتیک پیشرو تایوان (DPP) ضمن حمایت از ممنوعیت استفاده از DeepSeek را در نهادهای دولتی، تأکید کردند که تایوان به‌عنوان خط مقدم تهدیدات امنیت سایبری چین، باید اقدامات احتیاطی بیشتری در این‌باره انجام دهد.
به گزارش گروه بین‌الملل خبرگزاری تسنیم، وزارت توسعه دیجیتال تایوان اعلام کرد که به دلیل ملاحظات امنیتی، نهادهای دولتی و زیرساخت‌های کلیدی این کشور نباید از محصولات هوش مصنوعی شرکت DeepSeek استفاده کنند.

دولت تایوان هشدار داد که استفاده از این ابزار ممکن است منجر به ارسال داده‌ها و اطلاعات کاربران به پلتفرم‌هایی شود که نگرانی‌های امنیتی دارند و در نتیجه امنیت ملی تایوان را به خطر بیندازد.

وانگ دینگ‌یو، نماینده حزب DPP، در این‌باره تأکید کرد: اصلی‌ترین دلیل ممنوعیت DeepSeek، نگرانی‌های امنیت سایبری است. تایوان در مواجهه با تهدیدات چین – چه در زمینه نظامی، چه در حملات خاکستری و چه در جنگ اطلاعاتی – در خط مقدم قرار دارد. دولت آمریکا نیز اعلام کرده که در حال بررسی حذف DeepSeek است، بنابراین تایوان که با تهدیدات سایبری بیشتری روبه‌رو است، باید حتی محتاط‌تر عمل کند.

وی افزود: ممنوعیت استفاده از DeepSeek تنها اقدام تایوان در این حوزه نیست. نهادهای دولتی پیش‌تر استفاده از اپلیکیشن چینی تیک‌تاک را نیز ممنوع کرده‌اند. همچنین، در زیرساخت‌های ارتباطی تایوان – از جمله شبکه‌های بی‌سیم، فناوری 5G و سیستم‌های تلفن همراه – استفاده از قطعات و نرم‌افزارهای چینی کاملاً ممنوع است.

وانگ دینگ‌یو خاطرنشان کرد: محصولات فناوری ساخت چین بارها به جاسوس‌افزارها و کدهای مخرب آلوده بوده‌اند. او از شرکت‌های خصوصی تایوانی نیز خواست تا مسائل امنیت سایبری را جدی بگیرند و تأکید کرد که این موضوع نه‌تنها برای سازمان‌های بزرگ، بلکه برای همه شهروندان اهمیت دارد.

چن کوان‌تینگ ، نماینده دیگر حزب DPP، از ممنوعیت DeepSeek حمایت کرد، اما تأکید داشت که تایوان نباید تنها بر روی ممنوعیت تمرکز کند، بلکه باید منابع بیشتری برای توسعه هوش مصنوعی سرمایه‌گذاری کند:ما نمی‌توانیم فقط DeepSeek را ممنوع کنیم، بلکه باید در توسعه هوش مصنوعی سرمایه‌گذاری کنیم تا مردم تایوان بتوانند به ابزارهای پیشرفته بومی دسترسی داشته باشند.

با ممنوعیت استفاده از DeepSeek در نهادهای دولتی، تایوان گامی دیگر در مقابله با تهدیدات امنیت سایبری چین برداشته است. همزمان، نمایندگان حزب حاکم تأکید دارند که توسعه فناوری‌های بومی، به‌ویژه در زمینه هوش مصنوعی، باید در اولویت قرار گیرد تا تایوان بتواند بدون وابستگی به فناوری‌های مشکوک، امنیت دیجیتالی خود را تضمین کند.

علاوه بر تایوان و آمریکا، کشورهایی همچون ایتالیا و انگلیس نیز نسبت به این نرم‌افزار و تهدیدهای امنیتی احتمالی ناشی از آن ابراز نگرانی کرده و در حال بررسی اقدامات مشابه برای محدود کردن این نرم افزار نوظهور چینی هستند.

ایتالیا دیپ‌سیک را ممنوع کرد

جمعه, ۱۲ بهمن ۱۴۰۳، ۰۴:۳۰ ب.ظ | ۰ نظر

رویترز نوشت سازمان حفاظت از داده‌های ایتالیا اعلام کرد که دسترسی به مدل هوش مصنوعی چینی «دیپ‌سیک» را به‌دلیل نبود اطلاعات کافی دربارۀ استفاده از داده‌های شخصی مسدود کرده است.

با درخواست مقام‌های ایتالیایی این مدل هوش مصنوعی از اپ‌استور و گوگل‌پلیِ ایتالیا نیز حذف شده است.

استفاده از هوش مصنوعی توسط سپاه پاسداران

چهارشنبه, ۱۰ بهمن ۱۴۰۳، ۰۵:۵۶ ب.ظ | ۰ نظر

فرمانده کل سپاه پاسداران گفت: در عرصه‌های نظامی بهره‌های زیادی از هوش مصنوعی خواهیم برد و تلاش خواهیم کرد ملاحظات اخلاقی را در این زمینه رعایت کنیم.
به گزارش خبرنگار مهر سرلشکر سلامی، فرمانده کل سپاه پاسداران انقلاب اسلامی عصر امروز (چهارشنبه) در همایش بین‌المللی هوش مصنوعی و تمدن آینده گفت: همه فناوری‌هایی که توسعه پیدا می‌کنند شمشیرهای دو لبه هستند هم می‌توانند برای سعادت بشر و نجات انسان از انواع بیماری‌ها، دردها، ناکامی‌ها و فقرها مؤثر و نجات بخش باشند و هم می‌توانند برای انهدام و محو آرزوهای بزرگ انسان به کار گرفته بشوند و جهان را فضایی غم آلود و حزن‌آور از دستاوردهای تلخ بنمایند.

وی افزود: آنچنان که در گذشته تجربه کردیم، فناوری‌های زیستی و دستاوردهای بیولوژیک همانگونه که موجب نجات انسان از بسیاری از بیماری‌ها می‌شوند و به سلامت انسان‌ها کمک می‌کنند، در سوی دیگر می‌توانند با تکثیر ویروس‌های ناشناخته بیماری‌های وحشتناکی را در جهان منتشر کنند همانطور که ما در انتشار ویروس کووید ۱۹ صرف نظر از اینکه آیا این یک انتشار طبیعی و غیر بشر ساخته بود دیدیم.

سرلشکر سلامی با تاکید بر اینکه ما همه تلاشمان این است که از جنبه‌های مثبت این پیشرفت‌ها استفاده کنیم، تصریح کرد: جهان تا به موازنه قدرت نرسد به عدالت نمی‌رسد و دلیلش هم این است که وقتی یک جهان دو قطبی تشکیل می‌شود و یک جهان سلسله مراتبی از قدرت که در رأس آن بعضی از قدرت‌ها با تراکمی از توانمندی‌ها قادر هستند حیات بخش دیگری از سیاره زمین را در سیطره و تسلط و اراده خود بیاورند، دیگر جهان نمی‌تواند محیط امن محیط آرام محیط عادلانه و محیط منصفانه‌ای باشد.

فرمانده کل سپاه تاکید کرد: ما اینها را در میدان تجربه کرده‌ایم، ما زخم‌های زیادی از ناترازی قدرت متحمل شده‌ایم و در بخش‌هایی از جهان این را به چشم دیده ایم. امروز هم شاهد این مسئله هستیم و متأسفانه قانونی که در جهان امروز برای تنظیم رفتار قدرت‌های مسلح به خصوص آمریکا حاکم است قانون جنگل است و حق با کسی است که غلبه می‌کند؛ بنابراین باید در جهان ناترازی قدرت ناموازنه قدرت نامعادله قدرت به معادله تبدیل شود.

سرلشکر سلامی با بیان اینکه در عرصه‌های نظامی بهره‌های زیادی از هوش مصنوعی خواهیم برد و تلاش خواهیم کرد ملاحظات اخلاقی را در این زمینه رعایت کنیم. البته در عمل این را تجربه کردیم. گاهی مجبور می‌شویم در دریا در نبرد با کشتی‌ها وارد شویم. شاید در گذشته نیز مجبور شویم این کار را انجام دهیم.

وی افزود: کشتی‌ها در فاصله‌های دور در چند هزار مایل آن طرف‌تر سیستم‌های موقعیت نشان خود را خاموش می‌کنند تا اینکه کسی متوجه موقعیت لحظه‌ای آنها نشود. این‌ها سامانه متحرک در دریا هستند که به سرعت تغییر موقعیت می‌دهند کشف این‌ها موضوع مهمی است و بعد وقتی این‌ها کشف شدند اینکه شما چه نقطه‌ای را از یک کشتی مورد هدف قرار دهید، مهم است. اول باید این‌ها را پیدا کنیم فناوری هوش مصنوعی به ما این امکان را می‌دهد تا با استفاده از قابلیت انطباق تصویر کشتی مورد نظر را پیدا کنیم.

فرمانده کل سپاه گفت: وقتی این را پیدا کردیم دو معما برای ما وجود دارد ما معمولاً می‌خواهیم خدمه آسیب نبیند. این همان ملاحظات اخلاقی است که ما رعایت می‌کنیم گاهی خطوط مواصلات لجستیک دریایی دشمنان ما را شناورهایی تأمین می‌کنند که خدمه آنها هیچ گناهی ندارند و ما قاعدتاً با آنها دشمن نیستیم و نباید آنها را مورد هدف قرار دهیم.

وی افزود: برای ما که مسلمان هستیم و به ارزش‌های اسلامی اعتقاد داریم، هرگز هدف وسیله را توجیه نمی‌کند. روش‌های ما به اندازه ارزش‌های ما مهم هستند. برای رسیدن به یک هدف مقدس نمی‌توانیم از مسیرهای نامقدس و از روش‌های غیر اخلاقی استفاده کنیم. پس هوش مصنوعی به ما این امکان را می‌دهد که ما بتوانیم نقطه‌ای از شناور را بزنیم که خدمه آن آسیب نبیند. تجربیات این را به ما نشان می‌دهد که این اتفاقات در میدان عمل اتفاق می‌افتد.

سلامی گفت: هرگز یک شناور بزرگ با یک پهپاد نمی‌تواند آسیب ببیند، الا اینکه شما مرکز ثقل آسیب این شناور را بشناسید. آن موقع با یک عمل کوچک می‌توانید تأثیر بزرگ خلق کنید، هوش مصنوعی این امکان را فراهم می‌کند.

فرمانده کل سپاه گفت: در همه زمینه‌ها از جمله ترافیک دریایی، زمینی، امداد و نجات، بهداشت و درمان، آموزش و یادگیری، امنیت ملی دفاع سایبری و در تمام عرصه‌ها این مسئله دارای اهمیت است و تلاش اصلی این است که یک ساختار متمرکز ملی قادر باشد این فرهنگ را تولید کند.

ماجرای غوغای deepseek

چهارشنبه, ۱۰ بهمن ۱۴۰۳، ۰۵:۳۸ ب.ظ | ۰ نظر

چند سال اخیر عرصه تکنولوژی و فناوری جهان شاهد ظهور پدیده هوش مصنوعی بوده است؛ پدیده‌ای که به مرور به ابزاری تاثیرگذار در زندگی بسیاری از شئون زندگی انسان تبدیل شده و سرعت پیشرفت و تحولات آن فراتر از تصورات بوده است.

چالش‌های «دابوس»؛ نخستین هوش مصنوعی مخترع

چهارشنبه, ۱۰ بهمن ۱۴۰۳، ۰۵:۲۹ ب.ظ | ۰ نظر

عباس پورخصالیان- موضوع این یادداشت، بحث پیرامون مسایل حقوقی «اختراعِ هوش مصنوعی» به معنی عاملیت هوش مصنوعی در اختراع و نوآوری است!
 امروزه اگر کسی که مالک یک سیستم هوش مصنوعی است، به نمایندگی از طرفِ سیستم هوش مصنوعی اختراعی خود بیاید رسماً ادعا کند که: 

در حاشیه اولین جلسه شورای راهبردی و سیاستگذاری همایش ملی هوش مصنوعی که در دانشگاه خوارزمی 30 دی ماه 1403 برگزار شد ، پویا صمدی عضو شورای سیاستگذاری این همایش با اشاره به  به نقش هوش مصنوعی و کمک آن به صنعت بانکداری و پرداخت ، در خصوص صنعت بانکی – مالی ، پرداخت وبازار سرمایه و اهداف و برنامه‌های این همایش توضیحاتی ارائه داد.
صنعت بانکداری و پرداخت امروزی به سرعت توسط هوش مصنوعی در حال تغییر است، زیرا الگوریتم های پیشرفته و یادگیری ماشینی به کسب و کارها اجازه می‌دهد تا به صورت مداوم نسبت به بهبود فرآیندهای کسب و کار خود اقدام نمایند. موسسات مالی می توانند تجارب مشتریان را بهبود دهند و خطرات را سریعتر و کارآمدتر کاهش دهند. ادغام هوش مصنوعی نحوه عملکرد بانک ها و پردازشگرهای پرداخت را تغییر داده و نوید انقلابی را در صنعت می دهد. هوش مصنوعی در بانکداری و پرداخت یکی از راه‌حل‌هایی است که می‌تواند موفقیت چشمگیری را برای کسب‌وکار به ارمغان بیاورد، اما در صورت عدم مدیریت صحیح، یک مسئولیت نیز محسوب می‌شود.


صمدی معاونت توسعه بازار شرکت فناوران ایمن شبکه فاش با اشاره به ادغام هوش مصنوعی در بانکداری که فرآیندهای مرتبط با امور مالی را ساده‌تر و آنها را شخصی‌تر، روشن‌تر و سریع‌تر کرده است، افزود؛ وظایفی که زمانی برای کارمندان انسانی ساعت ها طول می کشید، اکنون می توانند در چند دقیقه یا حتی چند ثانیه با کمک هوش مصنوعی انجام شوند. در حالی که صنعت بانکداری اتکای دیرینه ای به فناوری و داده دارد، ظهور هوش مصنوعی با قابلیت تحلیل داده ها، پتانسیل نوآوری را به سطوح بی سابقه ای افزایش داده است. هوش مصنوعی آماده است تا کارایی را افزایش دهد، خدمات را متمایز کند، به ریسک و الزامات قانونی رسیدگی کند و بر تجربه مشتری تأثیر مثبت بگذارد.
به گفته صمدی، طبق آمار Statista، انتظار می‌رود سرمایه‌گذاری بخش بانکی در هوش مصنوعی مولد تا سال 2030 به 85 میلیارد دلار برسد و با نرخ سالانه بیش از 55 درصد رشد کند.
وی افزود؛ از مهمترین موارد استفاده هوش مصنوعی در صنعت بانکی و مالی می‌توان به موارد ذیل اشاره نمود:
تشخیص تقلب: هوش مصنوعی می‌تواند الگوها را در مجموعه داده‌های وسیع شناسایی کند و آن را به ابزاری قدرتمند برای پیشگیری از تقلب تبدیل کند.  
ربات های خدمات مشتری: دستیاران مجازی به دلیل قابلیت ارائه طیف گسترده ای از خدمات در دسترس، بسیار محبوب شده‌اند. کاربران می‌توانند از چت بات بخواهند که مانده حساب، تاریخچه تراکنش ها و حتی برنامه های وام و تسهیلات را در اختیار آنها بگذارد.  

 

امتیازدهی اعتباری : اعتباردهی مبتنی بر هوش مصنوعی همیشه به تصمیم گیری مبتنی بر داده متکی است.هوش مصنوعی از طریق تحلیل طیف وسیعی از اطلاعات، از جمله الگوهای رفتاری، موقعیت مکانی و سایر اطلاعات مالی افراد می‌تواند رتبه بندی اعتباری دقیقی را در اختیار موسسات مالی قرار دهد.


ارزیابی ریسک: با استفاده از تمام داده های ذخیره شده، جمع آوری و تجزیه و تحلیل، هوش مصنوعی در ارزیابی ریسک غیرقابل جایگزین می‌شود. هوش مصنوعی می‌تواند ریسک اعتباری، ریسک بازار و ریسک عملیاتی را با انجام تجزیه و تحلیل سریع داده هایی که جمع آوری می‌کند، در چند ثانیه ارزیابی کند.


‏AML  یا مبارزه با پولشویی: در میان بزرگترین و محبوب ترین کاربردهای هوش مصنوعی، AML یکی از اولین ها در لیست است. مبارزه با پولشویی همیشه به تجزیه و تحلیل حجم زیادی داده نیاز دارد و هوش مصنوعی بهترین ابزاری است که برای چنین کاری مناسب است.


مشاور سرمایه گذاری: در بازار سرمایه هیچ چیز نمی‌تواند بهتر از مشاوره به موقع باشد، و مشاوران هوش مصنوعی دقیقاً ابزارهایی هستند که می‌توانند مشاوره سرمایه گذاری خودکار و مدیریت پورتفولیو را ارائه دهند. آنها همچنین می‌توانند توصیه های سرمایه گذاری شخصی را سریعتر و ارزان تر در مقایسه با روش های سنتی ارائه دهند.
 بدون شک برگزاری همایش ملی هوش مصنوعی در راستای هدف‌گذاری و برنامه‌ریزی برای بومی سازی این تکنولوژی و استفاه از آن در صنایع مختلف از جمله صنعت بانک؛ می‌تواند تضمین کننده‌ی پیشرفت در صنایع و رشد اقتصاد کشور همگام با مجامع بین‌المللی باشد.

چالش‌های یک هویت مصنوعی

يكشنبه, ۷ بهمن ۱۴۰۳، ۰۴:۲۹ ب.ظ | ۰ نظر

AI به اختصار به معنای هوش مصنوعی است. سال گذشته، این واژه با تحولات بزرگ در زمینه فناوری‌های جدید، به‌ویژه در زمینه هوش مصنوعی مولد، مدل‌های زبان بزرگ، پردازش اطلاعات و تعاملات با فناوری‌های الکترونیکی، بیشتر شناخته شد.

اصطلاح هوش مصنوعی به قدری گسترده است که اخیرا نه‌تنها به فناوری‌هایی مانند دیپ‌فیک که در حملات مهندسی اجتماعی به کار می‌رود بلکه به دستگاه‌های جدیدی مانند قهوه‌سازهایی که تنظیمات خود را براساس استفاده قبلی و شرایط محیطی بهینه می‌کند نیز ارتباط پیدا کرده است. به همین دلیل، هوش مصنوعی مفهومی بسیار وسیع و چندوجهی است و به نظر می‌رسد که نیاز به زمان و شاید تصویب قوانینی جدید باشد تا هیجانات و شایعات موجود به تعاریف دقیقی تبدیل شود که نتایج قابل اندازه‌گیری به همراه داشته باشد. از دیدگاه کاربر نهایی، هوش مصنوعی می‌تواند به هر چیزی تبدیل شود؛ از HAL ۹۰۰۰ در فیلم «۲۰۰۱: یک ادیسه فضایی» گرفته تا چت‌بات‌های ساده‌ای که برای دریافت پشتیبانی فنی یا مدیریت حساب کاربری با آنها تعامل کرده‌ایم. این موضوع پرسشی جالب را مطرح می‌کند: چه زمانی هوش مصنوعی به یک هویت مصنوعی تبدیل می‌شود؟
هویت را می‌توان به عنوان موجودیتی تعریف کرد که به یک فرد یا دستگاه تعلق دارد و می‌تواند با حساب‌های مختلف مرتبط شود. هر انسان یک هویت فیزیکی دارد اما ممکن است به هویت‌های دیجیتال مختلفی هم براساس سیستم‌هایی که با آنها تعامل دارد، نسبت داده شود. وقتی این مفهوم را به هوش مصنوعی تعمیم می‌دهیم، می‌توان فرض کرد که هر انسان نوعی هوش و یک هویت دارد. با این حال، برای یک ماشین، ارتباط بین هوش و هویت، ممکن است به‌راحتی قابل مشاهده نباشد، مگر این‌که ماشین ویژگی‌های انسانی را مانند KITT از شوالیه تاریکی یا WALL-E از پیکسار داشته باشد.

این موضوع کمک می‌کند تامشکل خودرا به طور واضح‌تری تعریف کنیم. برای مثال، یک قهوه‌ساز با هوش مصنوعی قطعا هویت ندارد، حتی اگر از هوش مصنوعی برای انجام وظایف خود استفاده کند. یا یک چت‌بات ممکن است از هوش مصنوعی برای پاسخ به سوالات چالش‌برانگیز استفاده کند اما تعامل آن صرفا متنی بوده و ممکن است هیچ حضور مجازی نداشته باشد که آن را به عنوان یک هویت بشناسیم.

این پرسش‌ها شبیه به موضوعاتی است که نویسندگان علمی-تخیلی مانند آیزاک آسیموف و آثار کلاسیکی چون «پیشتازان فضا: نسل بعدی»، به آن پرداخته‌اند. سؤال اصلی این است که چه زمانی هوش مصنوعی به اندازه کافی پیچیده می‌شود تا ویژگی‌هایی داشته باشد که بتواند هویت انسانی و ماشینی را به طور برابر ارائه دهد؟
درحال حاضر، هنوز فاصله زیادی با تولید هویت‌های مصنوعی واقعی داریم که بتواندتمام ویژگی‌های انسانی رابه طور الکترونیکی شبیه‌سازی کند. با این حال، شواهدی مانند حضورWatson درمسابقه Jeopardy! و ویدئوهای دیپ‌فیک مدرن نشان می‌دهد که می‌توان ترکیبی ازراه‌حل‌های مختلف هوش مصنوعی ایجاد کرد که قادربه فریب افراد درکنفرانس‌های ویدئویی و شبیه‌سازی تعاملات انسانی باشد. به نظر می‌آید که این روند در آینده‌ای نه‌چندان دور به‌وقوع خواهد پیوست.در آینده، کاربران نهایی شاهد خواهند بود که تهدیدکنندگان و نویسندگان خلاق از راه‌حل‌های هوش مصنوعی برای ایجاد هویت‌های مصنوعی ترکیب‌شده‌ای استفاده خواهند کرد که از محتوای اسکریپت‌شده فراتر رفته و قابلیت‌های تعاملی خواهند داشت. این هویت‌ها براساس مواد آموزشی موجود در منابعی مانند ChatGPT طراحی می‌شوند تا تعاملات انسانی را جعل کنند.

علاوه‌بر این، با توجه به فقدان فناوری‌های دقیق برای ارزیابی صحت پاسخ‌ها و نبود قوانین لازم برای نظارت بر انتشار مالکیت معنوی از طریق هوش مصنوعی، کنترل‌هایی که بر روی خروجی‌های این سیستم‌ها وجود دارد، هنوز به طور کامل مشخص نیست.
درمیانه دهه ۲۰۲۰، همه ما باید از پیشرفت‌های هوش مصنوعی آگاه باشیم. باوجود هیجان و شور و شوقی که در این زمینه دیده می‌شود، تنها زمان می‌تواند نشان دهد که چگونه تجمع و پیوند چندین فناوری هوش مصنوعی به هم می‌تواند آنها را به سیستم‌هایی تبدیل کند که شباهت بیشتری به انسان‌ها داشته باشد. زمانی که این اتفاق بیفتد، هوش مصنوعی به هویت‌های مصنوعی تبدیل خواهد شد و ما باید ابزارهای خود را برای مدیریت این هویت‌ها به‌روز کنیم تا بتوانیم به‌طور مؤثر ارتباطات الکترونیکی میان انسان‌ها و ماشین‌ها را در آینده مدیریت کنیم.

این مسأله از مهارت‌هایی که در سیستم‌هایی مانند Amazon Echo مشاهده می‌کنیم، فراتر خواهد رفت و بیشتر به مفاهیمی مانند تأیید هویت چندعاملی، امنیت هویت و حتی مدیریت دسترسی‌های ویژه‌ای شبیه خواهد بود که امروزه انسان‌ها از آنها استفاده می‌کنند. در نهایت، ما باید این مفاهیم را به هویت‌های مصنوعی نیز تسری دهیم و این می‌تواند تا پایان این دهه به یک چالش واقعی تبدیل شود که نیازمند راه‌حل‌های فنی و قانونی است.

کاوش در گذشته
هوش مصنوعی در حال ایجاد تحولاتی عظیم در مطالعه دست‌نوشته‌های باستانی است و متونی را که قرن‌ها برای بشر قابل خواندن نبوده‌اند، رمزگشایی می‌کند. این فناوری از رمزگشایی طومارهای سوخته رومی گرفته تا تحلیل الواح آسیب‌دیده میخی، ابزارهایی را برای کشف اطلاعات جدید از دنیای باستانی در اختیار پژوهشگران قرار می‌دهد. این پیشرفت‌ها به دانشمندان این امکان را می‌دهند که آرشیوهای وسیع و پیچیده‌ای را بررسی کرده، نوشته‌های ناشناخته را شناسایی کرده و متونی را که در طول زمان گم شده یا آسیب دیده‌اند، بادقت بی‌سابقه‌ای بازسازی کنند.

درنتیجه، دسترسی به داده‌ها بیشتر ازهرزمان دیگری فراهم شده واین امر فرصت‌هایی را برای پاسخ به پرسش‌های تاریخی ایجاد می‌کند که پیش از این، پاسخ به آنها خارج از دسترس به نظر می‌رسید. هوش مصنوعی تنها محدود به مطالعه دست‌نوشته‌های باستانی غربی نیست، بلکه دربسیاری ازمجموعه‌های تاریخی دیگر نیز کاربردهای وسیعی پیدا کرده است. به‌عنوان مثال، پژوهشگران درکره جنوبی ازشبکه‌های عصبی مبتنی بر مدل‌های ترنسفورمر برای ترجمه سوابق گسترده وقدیمی دودمان جوسئون که به زبان هانجا نوشته شده‌اند،استفاده می‌کنند.این سیستم‌های هوشمندنه‌تنها فرآیندترجمه راتسریع کرده‌اند، بلکه بینش‌های مهمی درباره روندهای سیاسی،اجتماعی وفرهنگی آن دوره تاریخی به دست داده‌اند.این نوع پیشرفت‌ها می‌توانند به پژوهشگران کمک کنند تا نگاهی عمیق‌تر و دقیق‌تر به تاریخ و فرهنگ‌های گذشته داشته باشند.

 با تمام این دستاوردها، هنوز نگرانی‌هایی در خصوص دقت و دسترسی به اطلاعات وجود دارد. هوش مصنوعی امکان رمزگشایی سریع حجم‌های بالای متون را فراهم می‌آورد اما این سرعت ممکن است با چالش‌هایی در زمینه صحت واعتبار اطلاعات همراه باشد.

کارشناسان بر لزوم همکاری میان‌رشته‌ای، تبادل داده‌های باز و دسترسی عمومی به منابع تاکید دارند تا ازشفافیت وقابلیت تکرار تحقیقات اطمینان حاصل شود. همچنین، موفقیت‌های اخیر در استفاده از هوش مصنوعی نشان می‌دهند که این فناوری نه تنها جایگزین پژوهشگران انسانی نیست، بلکه به‌عنوان یک ابزار مکمل برای دانشمندان عمل می‌کند تا داده‌هایی فراهم شود که دانشمندان بتوانند آنها را تفسیر و تحلیل کنند.  

با توجه به تکامل روزافزون هوش مصنوعی، پژوهشگران امیدوارند که در آینده، این فناوری قادر به رمزگشایی زبان‌های گمشده و کاوش در کتابخانه‌های زیرزمینی شود، که این امر می‌تواند فهم ما از تمدن‌های باستانی را به طرز چشمگیری تغییر دهد. در این مسیر، علاوه بر رمزگشایی متون و زبان‌ها، ممکن است دنیای باستانی به گونه‌ای نو و پیچیده‌تر برای انسان‌ها آشکار شود که درک عمیق‌تری از تاریخ و پیشینه بشریت فراهم آورد. (جام جم)

منبع:cnn.com

همایش ملی هوش مصنوعی برگزار می‌شود

يكشنبه, ۷ بهمن ۱۴۰۳، ۰۳:۴۹ ب.ظ | ۰ نظر

در راستای برگزاری همایش ملی هوش مصنوعی که در تاریخ ۴ اسفند ماه سال جاری در محل همایش‌های بین‌المللی برج میلاد برگزار خواهد شد، نشست شورای سیاست‌گذاری این همایش با حضور جمعی از اساتید برجسته دانشگاهی، فعالان حوزه هوش مصنوعی و کارآفرینان در دانشگاه خوارزمی برگزار شد.

در این نشست، اساتید دانشگاه بر ضرورت توجه بخش خصوصی به توسعه و به‌کارگیری فناوری‌های هوش مصنوعی تأکید کردند و حمایت‌های هدفمند بخش دولتی از این حوزه را برای گسترش فرهنگ تولید و بهره‌برداری از هوش مصنوعی خواستار شدند. همچنین، شرکت‌کنندگان به ارائه رهنمودهایی درباره محورهای اصلی همایش و روش‌های مشارکت جامعه علمی و فعالان حوزه هوش مصنوعی پرداختند.

همچنین در حاشیه اولین جلسه شورای راهبردی و سیاستگزاری همایش ملی هوش مصنوعی  در دانشگاه خوارزمی ۳۰ دی ماه ۱۴۰۳ برگزار گردید ، دکتر  عطایی، مدیریت  مرکز کارآفرینی تکام و مسئول برگزاری همایش، و دکتر فردین شورج، رئیس انجمن فرهیختگان نوآور و فعال حوزه هوش مصنوعی، به پرسش‌های خبرنگاران درباره اهداف و برنامه‌های این همایش پاسخ دادند.

این همایش با هدف توسعه دانش، فناوری و نوآوری در حوزه هوش مصنوعی و با مشارکت فعال دانشگاه‌ها، صنایع و استارتاپ‌ها برگزار خواهد شد.

عطایی در پاسخ  به خبرنگار ما پیرامون انگیزه بخش خصوصی از برگزاری این همایش بیان داشت:“هدف اصلی بخش خصوصی از برگزاری این همایش، ایجاد بستری برای هم‌افزایی میان نخبگان علمی، فعالان صنعتی و کارآفرینان در حوزه هوش مصنوعی است. ما معتقدیم که هوش مصنوعی تنها یک فناوری نیست، بلکه ابزاری برای تحول در تمامی بخش‌های اقتصادی و اجتماعی است. بخش خصوصی با برگزاری این همایش، تلاش می‌کند تا اهمیت این فناوری را به جامعه علمی و صنعتی کشور نشان دهد، چالش‌های موجود را بررسی کند و فرصت‌های نوآورانه‌ای را شناسایی نماید.

وی افزود: علاوه بر این، انگیزه ما این است که با ایجاد تعامل میان بخش خصوصی و دولتی، سرمایه‌گذاری در حوزه هوش مصنوعی را تسهیل کنیم و نقش مؤثری در پیشبرد پروژه‌های ملی ایفا کنیم. این همایش فرصتی برای تبادل ایده‌ها و یافتن مسیرهای مشترک برای توسعه پایدار کشور از طریق هوش مصنوعی است.”

مسئول برگزاری همایش در پاسخ به اینکه جهت برگزاری این همایش چه خواسته‌ایی از جامعه علمی و دولتمردان دارید گفت: “با توجه به تأکیدات مکرر رهبر معظم انقلاب بر اهمیت توجه و حمایت از هوش مصنوعی، انتظار ما از جامعه علمی این است که نقش محوری خود را در تحقیق، توسعه و تولید دانش مرتبط با این حوزه ایفا کنند و تلاش کنند تا فناوری‌های نوآورانه و راهکارهای بومی متناسب با نیازهای کشور ارائه دهند. جامعه علمی می‌تواند با تربیت نیروی متخصص، ارائه پژوهش‌های کاربردی و مشارکت فعال در این همایش، به توسعه هوش مصنوعی در کشور سرعت بخشد.

وی ادامه داد: به همین جهت از دولتمردان نیز انتظار داریم که حمایت‌های عملی و ساختاری را در راستای توسعه این حوزه تقویت کنند. این حمایت‌ها می‌تواند شامل تسهیل قوانین مرتبط با فناوری‌های نوین، ارائه مشوق‌های مالی و زیرساختی برای شرکت‌های دانش‌بنیان، و تدوین سیاست‌های پایدار برای سرمایه‌گذاری در پروژه‌های هوش مصنوعی باشد.

عطایی در پایان گفت: ما در این همایش تلاش می‌کنیم بستری را فراهم کنیم که جامعه علمی و دولتمردان بتوانند در کنار بخش خصوصی برای تحقق چشم‌انداز هوش مصنوعی کشور هم‌افزایی داشته باشند. اکنون زمان آن رسیده که هوش مصنوعی نه‌تنها در سطح ملی، بلکه در منطقه و جهان، به‌عنوان یک مزیت رقابتی برای کشور مطرح شود.”

همچنین دکتر فردین شورج نویسنده و مدرس هوش مصنوعی در خصوص ضرورت‌های توسعه هوش مصنوعی برای کشور گفت: “هوش مصنوعی به‌عنوان یکی از فناوری‌های پیشرو در عصر حاضر، نه‌تنها یک ابزار قدرتمند برای تولید علم، بلکه پلی میان پژوهش‌های علمی و کاربردهای عملی است. در بُعد تولید علم، هوش مصنوعی امکان تحلیل داده‌های عظیم، شناسایی الگوها، پیش‌بینی روندها و تسریع فرآیند تحقیقاتی را فراهم می‌کند. این فناوری می‌تواند شکاف میان دانش نظری و راه‌حل‌های عملی را پر کند و زمینه‌ساز نوآوری‌های بزرگ در علوم مختلف شود.

وی افزود: از منظر به‌کارگیری، هوش مصنوعی توانسته است بسیاری از صنایع و حوزه‌های خدماتی را متحول کند. کاربرد آن در کشاورزی، پزشکی، انرژی، حمل‌ونقل و آموزش نشان داده که چگونه این فناوری می‌تواند بهره‌وری را افزایش داده، هزینه‌ها را کاهش دهد و کیفیت خدمات را بهبود بخشد. برای کشوری مانند ایران، که از ظرفیت‌های بالای علمی و منابع انسانی برخوردار است، هوش مصنوعی می‌تواند به موتور محرک رشد اقتصادی و تولید دانش بومی تبدیل شود.

این مدرس هوش مصنوعی ادامه داد: ضرورت دیگر هوش مصنوعی، جایگاه آن در رقابت جهانی است. کشورهایی که به توسعه و به‌کارگیری این فناوری توجه کافی نشان دهند، در آینده نه‌تنها در علم و فناوری، بلکه در اقتصاد و سیاست جهانی نیز موقعیت بهتری خواهند داشت. از این رو، توجه به هوش مصنوعی نه یک انتخاب، بلکه یک الزام است که جامعه علمی باید آن را با جدیت دنبال کند.”

وی در ادامه با تاکید بر اینکه شناسایی و تحلیل دقیق این چالش‌ها، اولین گام برای حل آن‌ها به شمار رفته و در این همایش حتماً به بررسی چالش‌های توسعه هوش مصنوعی در کشور خواهیم پرداخت، محور اصلی چالش‌ها را تشریح کرد.

  • فقدان زیرساخت‌های مناسب:

یکی از بزرگ‌ترین موانع، نبود زیرساخت‌های فنی و فناوری کافی برای پیاده‌سازی پروژه‌های بزرگ هوش مصنوعی است. زیرساخت‌های محاسباتی، دسترسی به داده‌های باکیفیت و ایجاد مراکز تخصصی در این زمینه بسیار ضروری است.

  • کمبود نیروی متخصص:

اگرچه ما در کشورمان نیروی انسانی تحصیل‌کرده و بااستعدادی داریم، اما تربیت متخصصان با مهارت‌های عمیق در حوزه‌های خاص هوش مصنوعی همچنان یک چالش است. این کمبود باعث می‌شود که بسیاری از پروژه‌ها به‌درستی اجرایی نشوند یا نتوانیم در سطح بین‌المللی رقابت کنیم.

  • عدم حمایت‌های هدفمند:

علی‌رغم وجود سیاست‌های کلی در حمایت از علم و فناوری، چالش اصلی عدم وجود برنامه‌های عملیاتی و حمایت‌های مالی مستمر از سوی دولت و سرمایه‌گذاران خصوصی است. برای توسعه هوش مصنوعی، نیاز به سرمایه‌گذاری قابل‌توجه در پژوهش‌ها و پروژه‌های نوآورانه داریم.

  • مسائل فرهنگی و مدیریتی:

پذیرش فناوری‌های نوین مانند هوش مصنوعی در بسیاری از سازمان‌ها و صنایع، همچنان با مقاومت همراه است. نگرش سنتی برخی مدیران و ترس از جایگزینی نیروهای انسانی با فناوری، مانعی جدی برای به‌کارگیری این فناوری است.

  • فقدان قوانین و مقررات مناسب:

در حوزه‌های مختلف هوش مصنوعی، مانند داده‌کاوی، حریم خصوصی، و اخلاق فناوری، قوانین مشخصی وجود ندارد. نبود یک چارچوب قانونی شفاف می‌تواند مانع رشد سالم و پایدار این فناوری شود.

در این همایش قصد داریم نه تنها این چالش‌ها را مطرح کنیم، بلکه پیشنهاداتی برای رفع آن‌ها ارائه دهیم. هدف اصلی ما این است که توجه جامعه علمی، بخش خصوصی و دولتی را به این موانع جلب کنیم و راهکاری برای عبور از آن‌ها پیدا کنیم. با همکاری و هم‌افزایی میان این سه بخش، می‌توانیم هوش مصنوعی را به‌عنوان یک ابزار قدرتمند در خدمت توسعه علمی، اقتصادی و اجتماعی کشور قرار دهیم.”

در پایان این نشست از تمامی اندیشمندان، پژوهشگران، متخصصان، فعالان حوزه هوش مصنوعی و علاقه‌مندان به توسعه علم و فناوری دعوت شد تا با حضور پررنگ خود در همایش ملی هوش مصنوعی، سهمی در پیشبرد این عرصه کلیدی ایفا کنند. چراکه این همایش فرصتی ارزشمند برای تبادل دانش، آشنایی با آخرین دستاوردها و ایجاد تعامل میان نخبگان علمی و صنعتی کشور است.

همچنین، از بخش دولتی و سیاست‌گذاران انتظار می‌رود که با حمایت‌های مادی و معنوی خود، بستر لازم برای برگزاری هرچه بهتر این رویداد ملی را فراهم آورند و به توسعه هوش مصنوعی به‌عنوان یکی از ارکان پیشرفت کشور توجه ویژه‌ای داشته باشند.

بر اساس این گزارش همایش ملی هوش مصنوعی، که در تاریخ ۴ اسفندماه سال جاری در محل همایش‌های بین‌المللی برج میلاد برگزار خواهد شد، محلی برای ایجاد هم‌افزایی میان دانش و عمل، و نقطه عطفی در مسیر پیشرفت فناوری‌های نوین در کشور است.

علاقه‌مندان جهت کسب اطلاعات بیشتر می‌توانند به سایتtcomfair.ir  مراجعه کنند.

نقش فناوری 5G MEC در توسعه هوش مصنوعی

شنبه, ۶ بهمن ۱۴۰۳، ۰۱:۲۵ ب.ظ | ۰ نظر

پایه و زیربنای تمام خدمات الکترونیکی، توسعه اقتصاد دیجیتال و هوش مصنوعی بر بسترهای ارتباطی قرار دارد. مساله اما صرفا میزان گستردگی شبکه‌های ارتباطی که در حکم ریل‌ و جاده‌های تبادل کالا و مسافران و خدمات به تمام کشور و دنیا هستند، نیست. بلکه امروزه سرعت و پهنای انتقال داده‌هاست که حرف نخست را در توسعه کشور می‌زند.
به گزارش آی‌تی آنالیز به همین جهت شاهد ظهور و عرضه مستمر فناوری‌های ارتباطی پیشرفته از سوی اپراتورهای ارتباطی هستیم. در همین راستا یکی از ویژگی‌های اصلی سرویس‌های ارایه شده بر بستر نسل پنجم شبکه‌های تلفن همراه کاهش تاخیر دسترسی به سرویس‌هاست. 
روش دستیابی به این مهم انتقال فیزیکی سرویس به نزدیک کاربر نهائی (Multi-access Edge Computing) یا لبه شبکه است. این مفهوم که با عنوان پردازش در لبه شبکه شناخته شده است. ارایه سرویس MEC نه تنها باعث کاهش سربار ترافیک روی سایر بخش‌های هسته شبکه خواهد شد بلکه با ایجاد خدمت و سرویس جدید بر روی بستر فعلی، یک بازی برد برد برای ارایه‌دهندگان و دریافت‌کنندگان خدمات دیجیتال و همزمان باعث ایجاد درآمد جدید برای اپراتورها خواهد شد و به این ترتیب اپراتورهای تلفن همراه می‌توانند به ازای خدمات ارایه شده در لبه شبکه علاوه بر هزینه حجم ترافیک برای خود درآمد ایجاد کنند.
از سوی دیگر علاوه بر ایجاد ارزش افزوده روی بسترهای انتقال داده شبکه تلفن همراه از MEC به عنوان درگاه ورود به نسل پنجم شبکه‌های تلفن همراه نیز یاد می‌شود. چراکه تکنولوژی MEC هیچ فرضی را روی نوع زیر ساخت رادیویی انتقال داده در نظر نگرفته است. به همین جهت باعث می‌شود بتوان از آن در نسل چهارم شبکه‌های تلفن همراه هم استفاده کرد. 
این ویژگی باعث خواهد شد تا اپراتورهای تلفن همراه بتوانند از MEC به عنوان بستر آزمون کاربردهای نسل پنجم استفاده کرده و میزان استقبال و تمایل کاربران به استفاده از بسترهای نسل پنجم و میزان درآمدزایی آن را مورد ارزیابی قرار دهند.


برای درک بهتر و بیشتر از قابلیت‌های سودمند فناوری MEC باید مروری بر کاربردهای Edge AI  داشت که نیازمند ارتباطات فوق سریع هستند.

-    خودروهای خودران:
خودروهای خودران از Edge AI برای پردازش داده‌های سنسورها و دوربین‌ها در لحظه استفاده می‌کنند تا تصمیم‌گیری‌های سریع و ایمن انجام دهند.
-    شهرهای هوشمند:
در شهرهای هوشمند،Edge AI  برای مدیریت ترافیک، نظارت بر امنیت و بهینه‌سازی مصرف انرژی استفاده می‌شود.
-    صنعت و تولید:
در کارخانه‌های هوشمند، Edge AI برای نظارت بر خطوط تولید، تشخیص نقص‌ها و بهینه‌سازی فرآیندها به کار می‌رود.
-    سلامت و پزشکی:
دستگاه‌های پزشکی مانند مانیتورهای سلامت و تجهیزات تشخیصی از Edge AI برای پردازش داده‌های بیماران در لحظه استفاده می‌کنند.
-    دستگاه‌های مبتنی بر  IoT:
دستگاه‌های اینترنت اشیا (IoT) مانند ترموستات‌های هوشمند، دوربین‌های امنیتی و لوازم خانگی هوشمند از Edge AI برای بهبود عملکرد و کاهش وابستگی به ابر استفاده می‌کنند.
-    واقعیت افزوده و مجازی :
در فناوری‌های واقعیت افزوده (AR) و واقعیت مجازی (VR) ، Edge AI برای پردازش سریع داده‌ها و ارائه تجربه‌های بی‌درنگ استفاده می‌شود.

 

•    همراه اول و عرضه MEC
همزمان با روند و پیشرفت نیازها و اقدامات دیگر اپراتورهای ارتباطی پیشگام در دنیا، در دیماه سال 1400 همراه اول نیز از پلتفرم بومی‌سازی شده MEC بر بستر شبکه نسل پنجم همراه اول با هدف کاهش زمان دسترسی به سرویس‌ها و استفاده بهینه از بسترهای انتقال فیزیکی تا Core شبکه رونمایی کرد.
ارزش محصول ارایه شده از سوی بزرگترین اپراتور ایران و منطقه، امروز بیشتر از گذشته درک می‌شود چراکه با گسترش خدمات و کاربردهای مبتنی بر هوش مصنوعی که برخی از نمونه‌های آن ذکر شد، موجب خلق فرصت‌های گسترده تجاری، اقتصادی، اشتغال و دیگر خدمات نوین خواهد شد.
 

برنامه‌های صندوق نوآوری برای هوش مصنوعی

چهارشنبه, ۳ بهمن ۱۴۰۳، ۰۳:۵۶ ب.ظ | ۰ نظر

رییس صندوق نوآوری و شکوفایی از اختصاص منابع مناسب به گرنت تحقیقاتی در حوزه هوش مصنوعی و اختصاص ۵۰ درصد ظرفیت صندوق جسورانه میان صندوق نوآوری و یک بانک دولتی به حوزه هوش مصنوعی خبر داد.

به گزارش صندوق نوآوری و شکوفایی، مراسم افتتاحیه موسسه هوش مصنوعی و فناوری‌های شناختی دانشگاه تهران و یک بانک دولتی با حضور دکتر محمدصادق خیاطیان رییس صندوق نوآوری و شکوفایی، دکتر سید حسین حسینی رییس دانشگاه تهران و جمعی از کارشناسان و متخصصان حوزه هوش مصنوعی در پردیس دانشکده‌های فنی دانشگاه تهران برگزار شد.

 

اهتمام جدی دولت به توسعه زیرساخت‌های هوش مصنوعی

رییس صندوق نوآوری و شکوفایی در این مراسم ضمن تقدیر از تلاش دو نهاد در شکل‌گیری این موسسه گفت: به اعتقاد سیاست‌گذاران، نقش دولت‌ها در توسعه فناوری‌های نوظهور و جدید از دو جنبه قابل بررسی است؛ جنبه نخست، بحث شناخت دقیق، درک صحیح، ارزیابی و در نهایت تنظیم‌گری (رگولاتوری) مناسب برای توسعه فناوری‌های جدید و نوظهور است. فناوری‌های جدیدی باید به موقع شناسایی، ابعاد مختلف آن بررسی و تنظیم‌گری و سیاست‌گذاری مناسبی مبتنی بر یک هوشمندی سیاسی اتفاق بیافتد.

عضو هیات علمی دانشگاه شهید بهشتی افزود: نمونه‌های زیادی را در این زمینه در دنیا شاهد هستیم و یکی از نمونه‌های ایران نیز بحث تاکسی‌های اینترنتی بود که زمانی که مورد پذیرش و مطالبه عمومی قرار گرفت، قاعده‌گذاری لازم در این حوزه از سوی حاکمیت انجام شد و در چارچوب یک سیاست‌گذاری مناسب، این حوزه در حال توسعه است. بنابراین وظیفه دولت‌ها در توسعه فناوری‌های نوظهور و جدید، تنظیم‌گری است. جنبه دوم، بحث حمایتی است و دولت‌ها موظف هستند از فناوری‌های نوظهور حمایت کنند، اما این حمایت‌ها از سوی دولت معمولا حمایت‌های زیرساختی است.

 

خبرهای خوبی درباره توسعه زیرساخت‌های مربوط به هوش مصنوعی در راه است

خیاطیان خاطرنشان کرد: خوشبختانه در حوزه توسعه هوش مصنوعی شاهد عزم جدی در کشور هستیم و در توسعه زیرساخت‌های این حوزه، اتفاق نظر وجود دارد و دولت نیز اهتمام جدی به توسعه این زیرساخت‌ها دارد و خبرهای خوبی نیز در راه است.

رییس صندوق نوآوری و شکوفایی با تاکید بر اینکه حوزه هوش مصنوعی یکی از اولویت‌های کاری اصلی ما در صندوق محسوب می‌شود، تصریح کرد: در راستای سیاستی که سیاست‌گذاران اصلی این حوزه شامل دولت، معاونت علمی، فناوری و اقتصاد دانش‌بنیان ریاست جمهوری و وزارت ارتباطات و فناوری اطلاعات دنبال می‌کنند، ما نیز در صندوق نوآوری و شکوفایی خود را موظف به حمایت ویژه از دانش‌بنیان‌‎های فعال این حوزه می‌دانیم.

رییس صندوق نوآوری و شکوفایی تأکید کرد: امیدواریم تجربه‌ای که امروز رقم خورد، به یک تجربه موفق و الگو در کشور تبدیل شده و الهام‌بخش سایر دانشگاه‌ها و نهادها باشد. از دانشگاه تهران نیز انتظار داریم که از ظرفیت‌های موجود در سایر دانشگاه‌های کشور در این حوزه استفاده کرده و به توسعه هرچه بیشتر هوش مصنوعی در کشور کمک کند.

 

اختصاص منابع خوب به گرنت تحقیقاتی در حوزه هوش مصنوعی

خیاطیان درخصوص حمایت‌های صندوق نوآوری و شکوفایی از پژوهشگران، اساتید و اعضای هیات علمی دانشگاه‌ها نیز گفت: یکی از ابزارهای حمایتی در صندوق نوآوری، ابزار گرنت است که با گرنت متداول در دانشگاه‌ها تفاوت دارد؛ این گرنت به دانش‌بنیان‌ها اختصاص دارد. اگر یک شرکت دانش‌بنیان، یک نیاز فناورانه را با کمک یک هسته پژوهشی (پژوهشگر، عضو هیات علمی، تیم دانشجویی) انجام دهد، این گرنت برای حمایت از هسته پژوهشی در اختیار شرکت دانش‌بنیان قرار می‌گیرد. همچنین تیم‌های پژوهشی در همکاری با یک شرکت یا شتابدهنده دانش‌بنیان می‌توانند این گرنت را دریافت کنند.

وی تصریح کرد: در صندوق نوآوری و شکوفایی آمادگی داریم، منابع خوبی را به گرنت تحقیقاتی در حوزه هوش مصنوعی (برای دانش‌بنیان‌ها) اختصاص دهیم. بحث اعطای تسهیلات به دانش‌بنیان‌های فعال در حوزه هوش مصنوعی که جزو اولویت‌های اصلی صندوق نوآوری و شکوفایی محسوب می‌شوند را نیز با جدیت دنبال می‌کنیم.

 

اختصاص ۵۰ درصد ظرفیت صندوق VC مشترک صندوق نوآوری و یک بانک ملت به حوزه هوش مصنوعی

رییس صندوق نوآوری و شکوفایی همچنین خبر داد: صندوق سرمایه‌گذاری جسورانه (VC) مشترک صندوق نوآوری و شکوفایی و مجموعه یک بانک دولتی به زودی راه‌اندازی می‌شود و با توجه به اهمیت حوزه هوش مصنوعی، ۵۰ درصد ظرفیت این VC به حوزه هوش مصنوعی اختصاص پیدا خواهد کرد. امیدواریم جوانان نخبه و متخصصان و پژوهشگران کشور از تمام ظرفیت‌های فراهم‌شده برای توسعه حوزه هوش مصنوعی در کشور استفاده کنند.

دونالد ترامپ رئیس جمهور آمریکا از یک سرمایه گذاری بخش خصوصی به ارزش ۵۰۰ میلیارد دلار برای تامین بودجه یک پروژه زیرساخت هوش مصنوعی خبر داد.

به گزارش خبرگزاری مهر به نقل از رویترز، این اقدام برای پیش گرفتن آمریکا از کشورهای رقیب در حوزه فناوری های تجاری حساس انجام می شود.

به گفته ترامپ اوپن ای آی، سافت بانک و اورکل تصمیم دارند یک پروژه مشترک به نام «استارگیت» را برای ساخت مراکز داده و ایجاد بیش از ۱۰۰ هزار شغل در آمریکا انجام دهند. این شرکت ها همراه موسسات دیگر تعهد کرده اند ۱۰۰ میلیارد دلار برای به کارگیری سریع پرداخت کنند و باقیمانده سرمایه گذاری را طی ۴ سال آینده انجام دهند.

ماسایوشی سان مدیر ارشد اجرایی سافت بانک، سم آلتمن مدیر ارشد اجرایی اوپن ای آی و لاری الیسون مدیر اوکل برای راه اندازی پروژه به کاخ سفید رفتند و کنار ترامپ حضور داشتند.

در کنفرانس خبری مربوطه نیز اعلام شد نخستین بخش از پروژه مراکز داده مذکور در تگزاس در حال ساخت است.

طی این پروژه ۲۰ مرکز داده، هرکدام به مساحت نیم میلیون فوت مکعب ساخته می شود. این پروژه هوش مصنوعی را برای تحلیل سوابق سلامت الکترونیک فعال می کند و همچنین برای مراقبت از بیماران به پزشکان نیز یاری می رساند.

البته هنوز کاملا مشخص نیست این خبر مربوط به یک پروژه مشترک پیشین است یا خیر.

نشریه اینفورمیشن در مارس ۲۰۲۴ میلادی اعلام کرد اوپن ای آی و مایکروسافت تصمیم دارند پروژه مرکز داده ۱۰۰ میلیارد دلاری بسازند که شامل یک ابر رایانه هوش مصنوعی به نام «استارگیت» است که در ۲۰۲۸ میلادی راه اندازی می شود.

هوش مصنوعی و تهدید تفکر انتقادی

چهارشنبه, ۳ بهمن ۱۴۰۳، ۰۳:۳۱ ب.ظ | ۰ نظر

مهسا زحمتکش - اتکا به هوش مصنوعی می‌تواند منجر به کاهش مهارت‌های تحلیلی و انعطاف‌پذیری شناختی شود. تحقیقات نشان داده است که اعتماد بیش از حد به ابزارهای هوش مصنوعی باعث کاهش درگیری افراد در تفکر انتقادی می‌شود.

شرکت «اوپن‌ای‌آی» به تاریخ انتشار سیستم هوش مصنوعی «اپراتور» خود نزدیک می‌شود که می‌تواند کنترل رایانه شخصی کاربر را در دست بگیرد و اقداماتی را از سوی او انجام دهد.

به گزارش ایسنا، «تیبور بلاهو»(Tibor Blaho)، مهندس نرم‌افزار که به افشای دقیق محصولات هوش مصنوعی شهرت دارد، ادعا کرده شواهدی را درباره سیستم «اپراتور»(Operator) شرکت «اوپن‌ای‌آی»(OpenAI) کشف کرده است که مدت‌ها شایعه شده بود. نشریاتی از جمله بلومبرگ پیشتر درباره اپراتور گزارش داده بودند. گفته می‌شود اپراتور یک سیستم «عاملی» است که می‌تواند وظایفی را مانند نوشتن کد و رزرو سفر به طور خودکار انجام دهد.

به نقل از تک کرانچ، بر اساس اطلاعات منتشرشده، اوپن‌ای‌آی ژانویه را به عنوان ماه انتشار اپراتور هدف قرار داده است. اطلاعات کشف‌شده توسط بلاهو به این اطلاعات اعتبار می‌دهد. به گفته بلاهو، او هنگام استفاده از «چت‌جی‌پی‌تی»(ChatGPT) اوپن‌ای‌آی برای سیستم‌عامل «مک‌اواس»(macOS) گزینه‌هایی را یافته است که در حال حاضر پنهان شده‌اند تا میان‌برهایی را برای «Toggle Operator» و «Force Quit Operator» تعریف کنند. بلاهو ادامه داد: اوپن‌ای‌آی در وب‌سایت خود، ارجاعاتی را به اپراتور اضافه کرده است؛ البته ارجاعاتی که هنوز به صورت عمومی قابل مشاهده نیستند.

به گفته بلاهو، وب‌سایت اوپن‌ای‌آی حاوی جدول‌های غیر عمومی است که عملکرد اپراتور را با سایر سیستم‌های هوش مصنوعی رایانه‌ای مقایسه می‌کند. اگر اعداد دقیق باشند، نشان می‌دهند که اپراتور ۱۰۰ درصد قابل اعتماد نیست. اپراتور با وظایفی که یک انسان می‌تواند به راحتی انجام دهد، مشکل دارد. در آزمایشی که اپراتور را به ثبت نام در فضای ابری و راه‌اندازی یک ماشین مجازی موظف می‌کرد، اپراتور تنها در ۶۰ درصد مواقع موفق بود. در آزمایش دیگری که اپراتور وظیفه ایجاد کیف پول بیت کوین را بر عهده داشت، تنها ۱۰ درصد از مواقع توانست موفق شود.

تک کرانچ برای اظهار نظر با اوپن‌ای‌آی تماس گرفته، اما هنوز پاسخی دریافت نکرده است.

ورود قریب‌الوقوع اوپن‌ای‌آی به فضای عامل هوش مصنوعی در زمانی اتفاق می‌افتد که رقبایی از جمله «آنتروپیک»، «گوگل» و سایرین نیز به بازی وارد شده‌اند. عوامل هوش مصنوعی ممکن است ریسک‌پذیر باشند، اما غول‌های فناوری در حال حاضر از آنها به عنوان حرکت بزرگ بعدی در هوش مصنوعی یاد می‌کنند. با وجود این، برخی از کارشناسان نگرانی‌هایی را درباره ایمنی آنها مطرح کرده‌اند که در صورت پیشرفت سریع فناوری ممکن است رخ دهند.

یکی از نمونه‌های فاش‌شده نشان می‌دهد که اپراتور در ارزیابی‌های ایمنی از جمله آزمایش‌هایی که سعی دارند سیستم را به انجام دادن فعالیت‌های غیرقانونی و جستجوی داده‌های شخصی حساس ترغیب کنند، به خوبی عمل می‌کند. بر اساس گزارش‌ها، آزمایش ایمنی یکی از دلایل چرخه طولانی توسعه اپراتور است.

اوپن‌ای‌آی پیشتر به دلیل عدم تاکید بر ایمنی به نفع تولید سریع فناوری خود، مورد انتقاد پژوهشگران هوش مصنوعی از جمله کارکنان سابق خود قرار گرفته است.

معاون فناوری وزیر علوم گفت: یک خط اعتباری ۱.۲ همت و ۱۰۰ میلیون دلار برای سرمایه‌گذاری در هوش مصنوعی اختصاص یافته و این بودجه قرار است از طریق پارک ها در اختیار شرکت های دانش‌بنیان قرار گیرد.

به گزارش خبرنگار مهر، محمدنبی شهیکی امروز در نشست تخصصی پارک‌های علم و فناوری بر اهمیت تغییر رویکرد تأمین مالی در این حوزه تاکید کرد و گفت: اگر تغییر پارادایم در نگاه مدیریتی پارک‌های علم و فناوری صورت نگیرد و همچنان بر بودجه سنواتی تکیه شود، هیچ پیشرفتی حاصل نخواهد شد.

وی در ادامه به ظرفیت‌های قانونی موجود برای حمایت از پارک‌های علم و فناوری، اظهار کرد: مواد ۱۱ و ۱۳ قوانین مرتبط، فرصت مناسبی برای تأمین مالی و توسعه زیرساخت‌های پارک‌ها فراهم کرده است. همچنین مدل‌های متنوع تأمین مالی از جمله استفاده از بازار پول و سرمایه، می‌تواند به تقویت ساختار مالی این مراکز کمک کند.

معاون فناوری وزیر علوم در ادامه به برنامه‌های پیش‌روی وزارت علوم اشاره کرد و گفت: طرح دستیار فناور که فراخوان آن از ابتدای بهمن آغاز شده، در پنج حوزه کاری تعریف شده است. همچنین طرح‌های پسادکترا در حوزه‌های گلخانه‌های هوشمند و زیست‌فناوری دریایی در حال اجراست و تا پایان سال سه حوزه دیگر نیز به آن اضافه خواهد شد.

وی با اعلام اینکه از این ماه، پارک‌ها می‌توانند از سهمیه سرباز فناور استفاده کنند، گفت: این ظرفیت، فرصت مناسبی برای حفظ و جذب نیروهای مستعد در شرکت‌های مستقر در پارک‌ها ایجاد می‌کند.

شهیکی با اشاره به تدوین اطلس سرمایه‌گذاری برای پارک‌ها گفت: یکی از مأموریت‌های اصلی پارک‌ها، ایجاد جریان مالی از طریق اهرم منابع بخش خصوصی است. در همین راستا، شبکه سرمایه‌گذاری فناوری ایران راه‌اندازی شده است.

وی همچنین از طراحی یک سامانه جامع اقتصادی برای پارک‌های علم و فناوری خبر داد و افزود: این سامانه تمامی اطلاعات اقتصادی و سرمایه‌گذاری را به‌صورت یکپارچه مدیریت خواهد کرد. در آینده نزدیک، ماژول‌های مختلفی از جمله دستیار فناور و برنامه‌های توانمندسازی به این سامانه اضافه خواهد شد.

شهیکی با اشاره به تغییر در نظام ارزیابی پارک‌ها گفت: از سال آینده، تخصیص منابع مالی به پارک‌ها بر اساس شاخص‌هایی مانند میزان اشتغال‌زایی، صادرات و فروش خواهد بود. همچنین الگوهای جدیدی برای مراکز رشد طراحی شده است که به زودی به پارک‌ها ابلاغ خواهد شد.

معاون فناوری وزارت علوم از انعقاد چند تفاهم‌نامه مهم برای تأمین مالی پارک‌ها خبر داد و گفت: تفاهم‌نامه‌ای با معاونت علمی و فناوری، بنیاد برکت و صندوق توسعه ملی امضا شده است که بر اساس آن، هزار پروژه در پارک‌های علم و فناوری کشور تأمین مالی خواهد شد. همچنین یک خط اعتباری ۱.۲ همت (۱۲۰۰ میلیارد تومان) و ۱۰۰ میلیون دلار برای سرمایه‌گذاری در حوزه هوش مصنوعی اختصاص یافته است. این بودجه قرار است از طریق پارک‌ها در اختیار شرکت‌های دانش‌بنیان قرار بگیرد.

سازمان CIA ابزاری مبتنی بر هوش مصنوعی توسعه داده که به تحلیل‌گرانش اجازه می‌دهد نسخه‌های مجازی از رهبران کشورهای خارجی بسازند و با آن‌ها گفتگو کنند.

به گزارش بازار، سازمان اطلاعات مرکزی ایالات متحده (CIA) به تازگی ابزاری مبتنی بر هوش مصنوعی توسعه داده که به تحلیل‌گران این سازمان کمک می‌کند تا نسخه‌های مجازی از رهبران کشورهای خارجی ایجاد و با آن‌ها گفتگو کنند.

این چت‌بات که در دو سال گذشته طراحی و پیاده‌سازی شده، به تحلیل‌گران امکان می‌دهد که رفتارهای رهبران جهانی را شبیه‌سازی نموده و پیش‌بینی‌هایی دقیق‌تر از اقدامات احتمالی آن‌ها داشته باشند.

ناند مولچاندانی، مدیر ارشد فناوری سازمان سیا، اعلام کرد که این ابزار جدید نمونه‌ای شگفت‌انگیز از یک برنامه هوش مصنوعی محسوب می‌شود که به سرعت پیاده‌سازی شده و مورد استفاده قرار گرفته است. وی تأکید کرد که این چت‌بات یکی از نوآوری‌های سریع و کارآمد در این سازمان اطلاعاتی به شمار می‌رود.

محمد محمدی قائینی نجفی در رویداد مسأله‌محور «مالکیت کلان داده‌ها» با بررسی ابعاد فقهی و حقوقی مالکیت داده‌ها در دنیای دیجیتال تاکید کرد: امروزه نیاز به تدوین قوانین فقهی و شرعی برای مدیریت حقوق داده‌ها در عصر فناوری‌های نوین احساس می‌شود.

به گزارش خبرگزاری حوزه، استاد محمد محمدی قائینی نجفی استاد حوزه‌ علمیه قم در رویداد مسأله‌محور هوش مصنوعی با عنوان «مالکیت کلان داده‌ها»، که به همت ستاد راهبری فناوری‌های هوشمند حوزه‌های علمیه و بنیاد شیخ انصاری در سالن امام خمینی (ره) مرکز فقهی ائمه اطهار علیهم‌السلام قم برگزار شد، به بحث مالکیت داده‌ها پرداخت و ابراز داشت: بحث مالکیت داده‌ها علی‌رغم اینکه ممکن است به نظر برسد که موضوع جدیدی است، در حقیقت بحثی قدیمی است که مصادیق جدیدی در دنیای مدرن پیدا کرده است. برای تبیین این موضوع، اطلاعات مربوط به افراد به دو قسم اطلاعات تکوینی، انتسابی و اطلاعات تولیدی و فعالیت‌محور تقسیم می‌شود.

قسم اول: اطلاعات تکوینی و انتسابی

وی در بیان اطلاعات تکوینی و انتسابی ابراز داشت: این دسته از اطلاعات مربوط به اشخاص است که به‌صورت طبیعی و تکوینی به آن‌ها نسبت داده می‌شود، بدون اینکه شخص به‌طور مستقیم در تولید این اطلاعات دخالتی داشته باشد. به‌عنوان مثال، نام، عکس، شماره تلفن، خصوصیات سلامت، بیماری، گروه خونی، و موارد مشابه از جمله اطلاعاتی هستند که شخص در تولید آن‌ها هیچ‌گونه فعالیتی ندارد. این اطلاعات به‌طور تکوینی به شخص منتسب است.

استاد حوزه‌ علمیه قم گفت: این اطلاعات ممکن است به‌طور غیرمستقیم برای کشف دارو یا درمان بیماری‌ها مورد استفاده قرار گیرد. همچنین، بحث مالکیت این اطلاعات مطرح می‌شود و اینکه آیا شخصی که صاحب چنین اطلاعاتی است، می‌تواند بر اساس آن مالکیت و اجازه استفاده از آن را به دیگری بدهد یا خیر.

قسم دوم: اطلاعات تولیدی و فعالیت‌محور

استاد محمدی قائینی نجفی در ادامه عنوان داشت: قسم دوم مربوط به اطلاعاتی است که به‌واسطه فعالیت و تلاش فردی شکل می‌گیرد. این اطلاعات ممکن است به‌طور مستقل ارزشی نداشته باشند، اما وقتی که اطلاعات مختلف جمع‌آوری و ترکیب می‌شوند، ارزش و کاربرد ویژه‌ای پیدا می‌کنند. به‌عنوان مثال شخصی ممکن است مجموعه‌ای از مطالب مختلف را از منابع متعدد جمع‌آوری کند و به‌صورت یک کتاب یا مقاله عرضه نماید. این مجموعه اطلاعات به دلیل جمع‌آوری و سازمان‌دهی از سوی فرد، ارزش زیادی پیدا می‌کند.

وی افزود: یکی از مصادیق این نوع اطلاعات اختراعات است. به‌عنوان مثال ترکیب اجزای مختلف برای تولید یک اختراع جدید مانند یک ماشین یا دستگاه جدید از نمونه‌های روشن این دست اطلاعات است. این محصولات فکری که به‌طور قابل‌ملاحظه‌ای از تلاش و نوآوری فردی ناشی می‌شوند، می‌توانند به‌عنوان ملک فردی محسوب شوند. زمانی که یک اختراع یا محصول جدید به بازار عرضه می‌شود، می‌تواند مورد معامله قرار گیرد و شخص صاحب ایده یا اختراع ممکن است در ازای آن، مبالغ زیادی دریافت کند.

مالکیت معنوی و حقوق فکری

استاد حوزه علمیه قم در ادامه بحث مالکیت معنوی اظهار کرد: در برخی موارد ممکن است تصور شود که مالکیت معنوی بر اطلاعات یا محصولات فکری به‌طور خودکار به شخص تعلق می‌گیرد، اما باید توجه داشت که این مالکیت نیازمند شرایط خاصی است. از جمله این شرایط، می‌توان به قراردادهای خاص و توافقات میان طرفین اشاره کرد. برای مثال، اگر شخصی کتابی را خریداری کند و در آن شرط شود که حق چاپ مجدد محفوظ است، این شرط می‌تواند حقوق معنوی مالک کتاب را مشخص کند.

وی همچنین به سیره عقلا و قوانین بین‌المللی اشاره کرد و گفت: در برخی کشورها قوانین خاصی برای حمایت از حقوق معنوی افراد در زمینه اختراعات و محصولات فکری وجود دارد. به‌عنوان مثال، در قراردادهای بین‌المللی ممکن است شرط‌هایی گنجانده شود که بر اساس آن، استفاده از اختراعات یا محصولات فکری تنها با اجازه صاحب آن امکان‌پذیر باشد.

تفاوت بین مالکیت و مالیت

استاد محمدی قائینی نجفی تأکید کرد: باید میان مالکیت و مالیت تفاوت قائل شد. در مواردی که اطلاعات یا داده‌ها به‌صورت تکوینی و طبیعی به شخص نسبت داده می‌شود (قسم اول)، مالکیت معنوی و مالیت ممکن است وجود نداشته باشد، زیرا این اطلاعات به‌طور طبیعی به شخص تعلق دارند و ارزش‌گذاری بر آن‌ها به‌صورت مستقیم ممکن نیست، اما در اطلاعات تولیدی (قسم دوم)، که از تلاش و نوآوری فرد ناشی می‌شوند، مالکیت و مالیت وجود دارد.

ضمانت اجرای استفاده غیرمجاز از اطلاعات

وی همچنین به موضوع ضمانت اجرای استفاده غیرمجاز از اطلاعات اشاره کرد و ابراز داشت: در صورتی که اطلاعاتی که متعلق به فردی است، به‌طور غیرمجاز و بدون رضایت او در اختیار دیگران قرار گیرد، صاحب اطلاعات می‌تواند طبق قاعده «اتلاف مال الغیر» مطالبه خسارت کند. این خسارت ممکن است بر اساس ارزش اطلاعات و استفاده غیرمجاز از آن محاسبه شود.

استاد محمدی قائینی نجفی ابراز داشت: در بحث مالکیت داده‌ها باید بین انواع مختلف داده‌ها تفکیک قائل شد و به‌طور خاص در زمینه اطلاعات تولیدی و فکری، مالکیت معنوی باید با دقت بیشتری مورد توجه قرار گیرد. در این زمینه سیره عقلا و قوانین موجود در جوامع مختلف می‌توانند راهنمایی برای تعیین حقوق مالکیت معنوی افراد باشند، اما در نهایت، این مسائل نیازمند توجه بیشتر و تبیین دقیق‌تر در دنیای معاصر است.

اهمیت قانون‌گذاری در حوزه داده‌ها

وی به ضرورت تدوین قوانین و مقررات جدید در خصوص مالکیت داده‌ها و اطلاعات در دنیای مدرن تأکید کرد و ابراز داشت: بسیاری از کشورها در این زمینه اقداماتی انجام داده‌اند، البته در سطح جهانی هنوز خلأ‌های قانونی قابل توجهی در رابطه با مالکیت اطلاعات و داده‌های دیجیتال وجود دارد که این خلأها می‌توانند باعث سوءاستفاده‌های اقتصادی و حقوقی از اطلاعات افراد شوند.

استاد محمدی قائینی نجفی اظهار کرد: حوزه‌های علمیه با بهره‌گیری از اصول فقهی موجود، به تدوین متنی جامع و سازگار با مقتضیات عصر دیجیتال بپردازند تا مالکیت داده‌ها و اطلاعات از منظر اسلامی به‌درستی تعریف و رعایت شود.

چالش‌ها و پیچیدگی‌های فقهی

وی در ادامه به برخی از چالش‌های فقهی این مقوله اشاره کرد و گفت: یکی از مهم‌ترین این چالش‌ها، مسئله «حق تصرف» در اطلاعات بود که به‌عنوان مثال در فقه اسلامی حق تصرف در مال به‌طور کلی محدود به اشیاء مادی است، ولی داده‌ها و اطلاعات در دنیای دیجیتال جنبه‌های متفاوتی دارند. این اطلاعات نمی‌توانند به‌طور فیزیکی تصرف شوند، بلکه تنها از طریق استفاده و دسترسی به آن‌ها می‌توان «تصرف» کرد، بنابراین در فقه باید برای تعیین نحوه استفاده از داده‌ها مسائل جدیدی مانند «حق دسترسی»، «حق استفاده» و «حق انتقال» بررسی شوند.

حق حریم خصوصی

استاد محمدی قائینی نجفی با بیان بازتعریف حق حریم خصوصی در فضای هوش مصنوعی، تأکید کرد: در دنیای دیجیتال، اطلاعات شخصی افراد به راحتی قابل دسترسی است و این امر می‌تواند به تهدیداتی برای حریم خصوصی افراد منجر شود. از منظر فقهی، حفظ حریم خصوصی از حقوق مسلم افراد است، و لذا هرگونه سوءاستفاده از داده‌های شخصی باید با ضوابط شرعی و حقوقی مناسبی کنترل شود.

مالکیت داده‌ها در فضای ابری

وی به مسئله مالکیت داده‌ها در فضای ابری نیز اشاره کرد و گفت: امروزه بسیاری از داده‌های کاربران در سرویس‌های ابری ذخیره می‌شوند، اما مالکیت این داده‌ها و دسترسی به آن‌ها در این فضا هنوز به‌طور کامل روشن نیست. به‌ویژه این‌که بسیاری از سرویس‌دهندگان فضای ابری در قراردادهای خود شرایطی را قرار می‌دهند که بر اساس آن‌ها، اطلاعات کاربران ممکن است در اختیار خود سرویس‌دهنده قرار گیرد. لازم است کاربران از حقوق خود در این فضا آگاه شوند و این مسائل در راستای حقوق مالکیت داده‌ها روشن‌تر شوند.

تأثیر داده‌ها بر روابط اجتماعی و اقتصادی

استاد حوزه علمیه قم با بیان تأثیرات اجتماعی و اقتصادی مالکیت داده‌ها ابراز داشت: داده‌ها به‌عنوان یک منبع ارزشمند در دنیای مدرن شناخته می‌شوند که می‌توانند در زمینه‌های مختلف مانند تبلیغات، بازاریابی و حتی سیاست‌گذاری‌ها استفاده شوند. مسأله جمع‌آوری داده‌ها و استفاده از آن‌ها در این زمینه‌ها موجب تغییرات عمده‌ای در روابط اجتماعی و اقتصادی افراد خواهد شد که این تغییرات باید به‌طور دقیق مورد مطالعه قرار گیرد.

آینده مالکیت داده‌ها و چالش‌های نوظهور

استاد محمدی قائینی نجفی به آینده مالکیت داده‌ها و چالش‌های نوظهور اشاره کرد و گفت: در دنیای دیجیتال و عصر اینترنت اشیاء، روز به روز بر حجم داده‌ها افزوده می‌شود و این امر ممکن است چالش‌های حقوقی و فقهی جدیدی را در خصوص مالکیت، استفاده و انتقال داده‌ها به وجود آورد. در چنین دنیایی، مسئله‌ی «مالکیت داده‌ها» دیگر تنها یک مسأله فنی یا اقتصادی نیست، بلکه یک مسأله دینی و فقهی نیز محسوب می‌شود که باید مورد توجه قرار گیرد.

وی افزود: یکی از مشکلاتی که در آینده با آن روبرو خواهیم بود، چگونگی تعریف و تطبیق مالکیت داده‌ها با مبانی فقهی و شرعی است. در حالی که در دنیای دیجیتال، داده‌ها به‌عنوان یک منبع اقتصادی ارزشمند شناخته می‌شوند، باید در نظر گرفت که چگونه می‌توان از این منبع ارزشمند استفاده کرد و در عین حال، حقوق انسانی و کرامت فردی را حفظ نمود.

ضرورت توجه به بُعد اخلاقی در مالکیت داده‌ها

استاد محمدی قائینی نجفی در بخش دیگری از سخنان خود به ابعاد اخلاقی و اجتماعی مالکیت داده‌ها اشاره کرد و تأکید کرد: در کنار ابعاد حقوقی و اقتصادی، باید به بُعد اخلاقی این موضوع نیز توجه ویژه‌ای داشته باشیم. در دنیای امروز استفاده از داده‌ها و اطلاعات می‌تواند به ایجاد فشارها و نابرابری‌هایی میان افراد و جوامع مختلف منجر شود. بنابراین اخلاق اسلامی باید راهنمای استفاده از داده‌ها در راستای منافع عمومی و عدالت اجتماعی باشد.

وی خاطرنشان کرد: در جوامعی که به‌ویژه در حال توسعه فناوری‌های نوین هستند مانند ایران نیاز به توجه به ابعاد انسانی و اخلاقی این فناوری‌ها بیش از پیش احساس می‌شود. استفاده از داده‌ها باید به‌گونه‌ای باشد که به نفع همه افراد جامعه و به‌ویژه اقشار آسیب‌پذیر، مانند کودکان و سالمندان، باشد.

 

پیشنهادها برای تدوین قوانین فقهی در زمینه مالکیت داده‌ها

استاد محمدی قائینی نجفی پیشنهاداتی برای تدوین قوانین شرعی و فقهی در زمینه مالکیت داده‌ها مطرح کرد و گفت: برای جلوگیری از تضییع حقوق افراد و تأمین عدالت در فضای دیجیتال، باید کمیته‌های فقهی و علمی در حوزه‌های علمیه تشکیل شود تا مسائلی همچون مالکیت داده‌ها، حریم خصوصی و حقوق معنوی به‌طور جامع بررسی و برای آن‌ها راهکارهای شرعی و قانونی ارائه شود.

وی همچنین تأکید کرد: این کمیته‌ها می‌توانند با همکاری متخصصان حوزه فناوری و حقوق از منظر اسلامی و فقهی به تدوین مقررات و ضوابطی بپردازند که در فضای دیجیتال نه تنها حقوق مالکیت داده‌ها رعایت شود، بلکه حقوق فردی و اجتماعی افراد نیز به‌طور کامل حفظ گردد.

استاد محمدی قائینی نجفی در پایان تأکید کرد: مالکیت داده‌ها و اطلاعات در دنیای دیجیتال مسأله‌ای است که نیازمند توجه جدی و هوشمندانه است. این موضوع باید در چارچوب آموزه‌های دینی و فقهی بررسی شود تا همگان از مزایای فناوری‌های نوین بهره‌مند شوند، بدون آنکه حقوق فردی، اجتماعی و دینی افراد مورد تهدید قرار گیرد

پدیده «اسلاپ» یا زباله هوش مصنوعی، به محتوای گمراه‌کننده و بی‌کیفیتی اشاره دارد که توسط فناوری‌های هوش مصنوعی تولید و فضای دیجیتال را آلوده می‌کند. این چالش، علاوه بر کاهش کیفیت اطلاعات، اعتماد کاربران را نیز خدشه‌دار کرده و نیاز به نظارت و پالایش بیشتر را بیش از پیش آشکار می‌کند.

نورنیوزهوش مصنوعی در کنار مزایای بی‌شمارش، چالش‌هایی را نیز به همراه داشته است. یکی از این چالش‌ها، پدیده‌ای به نام «اسلاپ» یا زباله هوش مصنوعی است که به محتوای بی‌کیفیت، گمراه‌کننده یا اضافی تولیدشده توسط این فناوری اشاره دارد. این زباله‌ها که اغلب در فضای آنلاین پراکنده می‌شوند، تهدیدی برای اطلاعات باکیفیت و تعاملات معنادار در فضای دیجیتال محسوب می‌شوند.

اسلاپ چگونه شکل می‌گیرد؟

تولید محتوای حجیم توسط ابزارهای هوش مصنوعی، بدون نظارت دقیق انسانی، یکی از عوامل اصلی ظهور اسلاپ است. این محتواها که ممکن است شامل اطلاعات نادرست، تکراری یا فاقد ارزش باشند از طریق الگوریتم‌های طراحی‌شده برای حداکثر بازدهی تولید می‌شوند. به همین دلیل، داده‌های زاید در فضای آنلاین به سرعت تکثیر می‌شوند و منابع اطلاعاتی معتبر را در انبوه این زباله‌ها محاصره می‌کنند.

چرا اسلاپ مهم است؟

اسلاپ نه‌تنها کیفیت اطلاعات آنلاین را کاهش می‌دهد، بلکه منجر به فرسایش اعتماد عمومی به محتواهای دیجیتال می‌شود. همچنین، این پدیده می‌تواند پیامدهای زیست‌محیطی در دنیای دیجیتال داشته باشد؛ چراکه حجم عظیم داده‌ها به افزایش مصرف انرژی و کربن دیجیتال منجر می‌شود.

نقش فلسفه در مقابله با اسلاپ

فلسفه، به‌ویژه از منظر انتقادی و تحلیلی، می‌تواند به تفکیک زباله‌های ذهنی و دیجیتال کمک کند. همان‌طور که مری داگلاس، انسان‌شناس بریتانیایی، زباله را «ماده‌ای در مکان نادرست» تعریف می‌کند، می‌توان اسلاپ را محتوای تولیدشده در بستری نادرست دانست. فلسفه با ارائه چارچوب‌های فکری برای ارزیابی ارزش و صحت اطلاعات، می‌تواند ابزاری مؤثر برای پالایش فضای دیجیتال باشد.

چالش پیش‌رو

برای مقابله با اسلاپ، نیازمند بازنگری در نحوه تولید و مدیریت محتوای دیجیتال هستیم. افزایش آگاهی درباره پیامدهای این پدیده، ارتقای سواد دیجیتال و اخلاق هوش مصنوعی و تقویت نظارت انسانی می‌توانند گام‌هایی مؤثر در این راستا باشند. همان‌طور که زباله‌های فیزیکی تهدیدی برای محیط زیست هستند، زباله‌های دیجیتال نیز سلامت اکوسیستم اطلاعاتی را تهدید می‌کنند.

معاون وزیر ارتباطات و فناوری اطلاعات، در جمع اعضای اتاق بازرگانی گفت که به‌زودی مجوز اپراتور هوش مصنوعی توسط وزارت ارتباطات و فناوری اطلاعات صادر خواهد شد.

به گزارش وزارت ارتباطات و فناوری اطلاعات، در این نشست احسان چیت‌ساز، معاون سیاستگذاری، برنامه‌ریزی توسعه فاوا و اقتصاد دیجیتال، طی سخنانی به ترسیم چهره تازه‌ای از برنامه‌های وزارت ارتباطات برای ورود به عرصه هوش مصنوعی پرداخت و در ابتدا اشاره به سابقه تاریخی این وزارتخانه گفت: «ما از پست و تلگراف شروع کردیم، به مخابرات و پهن‌باند رسیدیم و امروز در آستانه ورود جدی به دنیای هوش مصنوعی هستیم. این مسیر نشان می‌دهد که وزارت ارتباطات همواره در قلب تحولات فناوری قرار داشته و همچنان به حرکت رو به جلو ادامه می‌دهد.»

چیت‌ساز در بخشی از سخنان خود، درباره ضرورت حفاظت از حقوق دیجیتال مردم تأکید کرد و گفت: «در تمام این تحولات، حقوق دیجیتال و داده‌های مردم اولویت ما بوده و هست. ما درصددیم تا با تنظیم‌گری به‌روز، محیطی امن و شفاف ایجاد کنیم تا شرکت‌ها و استارتاپ‌ها بتوانند با آسودگی فعالیت کنند و مردم نیز از حریم خصوصی خود مطمئن باشند.»

او در ادامه، به برنامه‌های عملی وزارت ارتباطات اشاره کرد و اعلام کرد: «مجوز اپراتور هوش مصنوعی به‌زودی توسط وزارت ارتباطات صادر خواهد شد. این اقدام، هم یک گام بزرگ برای شفافیت و ساماندهی فعالان حوزه هوش مصنوعی است و هم نشانه عزم جدی مقام عالی وزارت برای توسعه زیرساخت‌های دیجیتال و ترسیم آینده‌ای نو برای اقتصاد کشور.»

چیت‌ساز افزود: «هدف ما این است که دولت تنها در جایی سرمایه‌گذاری کند که بازده کوتاه‌مدت آن برای بخش خصوصی جذاب نیست. هر جا که بخش خصوصی قادر به فعالیت باشد و رقابت کند، ورود دولت ممنوع است. ما در کارگروه اقتصاد دیجیتال، دقیقاً برای تحقق همین هدف تلاش می‌کنیم تا علاوه بر هموار کردن مسیر سرمایه‌گذاری‌های جدید، از سرمایه و خلاقیت بخش خصوصی نیز برای رشد اقتصاد دیجیتال نهایت استفاده را ببریم.»

او با اشاره به تجربه‌های موفق جهانی خاطرنشان کرد: «ما چرخ از ابتدا اختراع کنیم. ما با ایجاد بسترهای قانونی و زیرساختی مناسب، به فعالان حوزه فناوری میدان می‌دهیم و اقتصاد کشور را دگرگون می‌کنیم. از تجربه‌های بین‌المللی برای سرعت‌بخشیدن به روند کار بهره خواهیم گرفت.»

چیت‌ساز در بخش پایانی سخنان خود، بر ضرورت هماهنگی میان دولت، نهادهای دانشگاهی و بخش خصوصی تأکید کرد و گفت: «زیست بوم دیجیتال و به‌ویژه هوش مصنوعی، نیازمند همکاری همگانی است. وزارت ارتباطات در نقش تسهیل‌گر حاضر می‌شود و زیرساخت‌ها را فراهم می‌کند، اما موفقیت نهایی، حاصل تلاش تک‌تک شماست. بیایید دست به دست هم، ایران را به یکی از قطب‌های هوش مصنوعی در منطقه و جهان تبدیل کنیم.»

مسایلی که نباید از هوش مصنوعی پرسید

جمعه, ۲۱ دی ۱۴۰۳، ۰۸:۵۴ ب.ظ | ۰ نظر

چت جی پی تی و دیگر چت ربات‌های هوش مصنوعی بسیار مفید هستند، اما ۷ موضوع وجود دارد که هرگز نباید از چت جی پی تی و دیگر چت ربات‌های هوش مصنوعی بپرسید یا درباره آن‌ها صحبت کنید!

به گزارش فرارو به نقل از تایمز آو ایندیا، کارشناسان هشدار داده‌اند که هیچوقت در مورد اطلاعات حساس، به ویژه برای توصیه‌های بهداشتی، به چت بات‌ها اعتماد نکنید. نظرسنجی‌ها نشان می‌دهند هر روزه استفاده از هوش مصنوعی برای گرفتن راهنمایی بیشتر می‌شود، اما جزئیات شخصی، مالی و پزشکی به دلیل خطرات حفظ حریم خصوصی و سوء استفاده احتمالی از اطلاعات هیچوقت نباید با چت ربات‌ها به اشتراک گذاشته شوند. در حالی که ربات‌های چت ممکن است به نظر دستیار‌های مفید و قابل اعتمادی باشند، کارشناسان هشدار می‌دهند که نباید بیش از حد به آن‌ها وابسته شد، به ویژه در موارد حساس مانند توصیه‌های پزشکی و بهداشتی.

نظرسنجی‌های اخیر روند رو به رشد افرادی را که برای چنین راهنمایی‌هایی به هوش مصنوعی روی می‌آورند، نشان می‌دهند. بر اساس گزارش نیویورک پست، داده‌های کلینیک کلیولند نشان می‌دهد که از هر پنج آمریکایی، یک نفر به دنبال توصیه‌های بهداشتی از هوش مصنوعی بوده است، در حالی که نظرسنجی تِبرا در سال گذشته نشان داد که تقریباً ۲۵ ٪ از آمریکایی‌ها استفاده از ربات چت را به درمان سنتی ترجیح می‌دهند. علیرغم این افزایش اعتماد، کارشناسان به شدت توصیه می‌کنند که جزئیات شخصی یا پزشکی را با چت جی پی تی و دیگر چت ربات‌های هوش مصنوعی به اشتراک نگذارید. در اینجا ۷ چیز وجود دارد که هرگز نباید به چت جی پی تی و سایر ربات‌های چت هوش مصنوعی بگویید یا از آن‌ها بپرسید:

اطلاعات شخصی: هرگز اطلاعات شخصی خود مانند نام، آدرس، شماره تلفن یا آدرس ایمیل خود را با چت ربات‌های هوش مصنوعی به اشتراک نگذارید. این اطلاعات می‌تواند برای شناسایی شما و پیگیری فعالیت شما استفاده شوند.

اطلاعات مالی: هرگز اطلاعات مالی خود مانند شماره حساب بانکی، شماره کارت اعتباری یا شماره تأمین اجتماعی خود را با چت ربات‌های هوش مصنوعی به اشتراک نگذارید. این اطلاعات می‌توانند برای سرقت پول یا هویت شما استفاده شوند.

رمز‌های عبور: هرگز رمز‌های عبور خود را با ربات‌های چت هوش مصنوعی به اشتراک نگذارید. این اطلاعات می‌تواند برای دسترسی به حساب‌های شما و سرقت داده‌های شما استفاده شوند.

اسرار شما: هرگز اسرار خود را با چت ربات‌های هوش مصنوعی به اشتراک نگذارید. چت جی پی تی یک شخص نیست و نمی‌توان برای حفظ اسرار به آن اعتماد کرد.

توصیه‌های پزشکی یا بهداشتی: هوش مصنوعی پزشک شما نیست، بنابراین هرگز از هوش مصنوعی مشاوره سلامتی نخواهید. همچنین هرگز جزئیات سلامتی خود از جمله شماره بیمه و موارد دیگر را به اشتراک نگذارید.

محتوای نامناسب: بیشتر ربات‌های چت هرگونه مطالب نامناسب به اشتراک گذاشته شده را فیلتر می‌کنند، بنابراین هر چیز نامناسبی ممکن است شما را برای همیشه از استفاده این ربات‌ها ممنوع کند. نه فقط این، بلکه به یاد داشته باشید، اینترنت هرگز چیزی را فراموش نمی‌کند. بنابراین، شما هرگز نمی‌دانید که این اطلاعات کجا ممکن است ظاهر شوند.

هر چیزی که شما نمی‌خواهید دنیا بداند: به یاد داشته باشید هر چیزی که به ربات‌های چت هوش مصنوعی بگویید می‌تواند ذخیره شود و به طور بالقوه با دیگران به اشتراک گذاشته شود. به این ترتیب، هرگز نباید چیز‌هایی را که نمی‌خواهید بقیه بدانند به چت بات‌های هوش مصنوعی بگویید.

رئیس کل سازمان امور مالیاتی در اجلاس مدیران دادرسی مالیاتی سراسر کشور گفت: عادلانه شدن و مردمی شدن نظام مالیاتی دو هدف مهمی است که در کنار تامین منابع مالی دولت، سازمان امور مالیاتی کشور به طور جدی دنبال می کند.
به گزارش رسانه مالیاتی ایران محمد هادی سبحانیان رئیس کل سازمان امور مالیاتی کشور در دومین اجلاس مدیران دادرسی مالیاتی سراسر کشور، اظهار داشت: از همکارانم در مرکز دادرسی به سبب عملکردشان و برگزاری این همایش مهم تقدیر و تشکر می‌کنم، امیدواریم خروجی این جلسه به عادلانه‌تر شدن نظام مالیات‌ستانی ختم شود.
وی افزود: امروز نظام مالیاتی تکالیف بسیار مهم و سنگینی را به عهده دارد به نحوی که در این باره می‌توان به تامین منابع مالی دولت و همچنین انتظاراتی که در خصوص تحولات نظام مالیاتی در میان تمام ارکان حاکمیت و مردم وجود دارد، اشاره کرد.
رئیس کل سازمان امور مالیاتی کشور تصریح کرد: خوشبختانه در هر دو حوزه‌، اقدامات خوبی صورت گرفته است و برخی از دوستان در جلساتی که ما در مجمع امسال در شورای عالی نظارت حضور پیدا کردیم، از عملکرد سازمان تقدیر کردند.
وی بیان کرد: یکی از محورها در جلسه شورای عالی نظارت، تحول در نظام مالیاتی بود و بحث این شد که لایحه بودجه سال ۱۴۰۴، در برنامه هفتم پیشرفت در زمینه تحولات مالیاتی بوده یا خیر، که خوب الحمدالله فضای عمومی حاکم در آن‌جا نسبت به تحولات مالیاتی بسیار مثبت بود که این جای تقدیر و تشکر از تک تک همکاران مالیاتی در سراسر کشور دارد.
رئیس کل امور مالیاتی کشور گفت: شاخص‌های عملکردی نظام مالیاتی همچون رشد نسبت مالیات به تولید ناخالص داخلی، رشد مالیات به منابع  عمومی دولت یا هزینه‌های دولت طی دوسال اخیر مثبت بوده که این آمار طی سال‌های قبل یک آرزو و آمال به حساب می‌آمد.
سبحانیان گفت: امروز نظام مالیاتی به قدری مثبت و موفق عمل کرده که نه تنها بار اصلی تامین منابع جاری دولت را بر عهده دارد بلکه سایر حوزه‌ها نیز از کانال نظام مالیاتی برای وصول مطالباتشان کمک می‌گیرند.
وی بیان کرد: یارانه ای که اکنون در حال پرداخت است از محل وصولی های مالیاتی است و ما در حوزه نظام مالیاتی در حال انجام هستیم، مبالغی که اکنون به شهرداری‌ها و دهیاری‌ها در حال پرداخت هستیم بسیار زیاد است این عمران و آبادانی شهرداری‌ها واسطه این پرداختی ها است.
رئیس کل سازمان امور مالیاتی کشور تصریح کرد: در ۹ ماهه سال گذشته حدود ۹۵ هزار میلیارد تومان عوارض شهرداری ها و دهیاری‌ها توزیع کردیم، امسال این مبلغ به ۱۴۷ هزار میلیارد تومان رسید، این مبالغ جز عملکرد نظام مالیاتی لحاظ نمی‌شود.
سبحانیان گفت: بیش از ۹۵ درصد هزینه‌های شهرداری‌ها و دهیاری‌ها از مسیر مزبور تامین می‌شود. حضور بنده در نظام مالیاتی به منظور عادلانه تر  و مردمی تر شدن این نظام است چرا که ما معتقدیم اگر قرار است سهم مردم در نظام مالیات افزایش یابد باید نظام مالیاتی در کنار مردم و فعالان اقتصادی باشد.
وی گفت: یکی از مهم‌ترین ضرورت های محقق شدن بحث مطرح شده در راستای عادلانه تر شدن این است که موانع را برای کسب و کارها ایجاد نکنیم و زمانی این موضوع رخ می‌دهد که ما بتوانیم به واسطه سیستم ها و داده‌ها و همچنین اطلاعاتی که در دست داریم برای آنکه مودی را کمتر درگیر مراجعات به ادارات کل کنیم بتوانیم به صورت سیستمی مالیاتستانی الکترونیکی را انجام دهیم.
رئیس کل‌ سازمان امور مالیاتی بیان کرد: زمانی نظام مالیات ستانی عادلانه است که وحدت رویه در ادارات در مواجه با یک موضوع خاص وجود داشته باشد. پس باید این امر محقق شود اگر رسیدگی های ما در نظام مالیاتی رسیدگی های کم دقتی باشد به واسطه کارهای بسیاری که من به نیروهایم محول کردم ایراد بر من وارد است چرا که من نتوانستم شرایطی را فراهم کنم تا کارمندم با خیال راحت و دقت نظر تمرکز خود را بر پرونده‌های مهم قرار دهد.
سبحانیان گفت: امسال برای نخستین بار داریم رسیدگی سیستمی املاک و مستغلات را انجام می‌دهیم. رسیدگی‌ها در حوزه مشاغل، اشخاص حقوقی به طور قابل توجهی به واسطه سیستمی شدن کاهش پیدا خواهد کرد.
رئیس کل سازمان امور مالیاتی کشور گفت: یکی از وجوه مردمی شدن یا عادلانه شدن نظام مالیاتی را ما از این مسیر می‌دانیم که بتوانیم رسیدگی دقیق تر و منصفانه‌تری نسبت به پرونده‌های مالیاتی داشته باشیم.
سبحانیان گفت: یکی از اقداماتی که به موجب آن مردم در کنار ما قرار گرفتند موضوع نشان‌دار کردن طرح های مالیاتی است، در این حوزه هم گام بسیار خوبی برداشته شد و اکنون تبدیل به یک جریان و مطالبه شد تا ما شرایط لازم را فراهم آوریم تا مودیان خودشان محل مصرف مالیات را تعیین کنند.
وی بیان کرد: علی‌رغم آنکه ابلاغیه دولت زمانی رخ داد که به فاصله یک هفته کار را شروع کردیم، امسال حدود دو هزار پروژه را مودیان خودشان تامین مالی کردند.که مجموع مبالغ تامین شده حدود شش همت بود.
رئیس کل سازمان امور مالیاتی کشور خاطرنشان کرد: جلساتی که اکنون با مقامات استانی داریم خوشبختانه یک فضای خوبی نسبت به طرح نشان‌دار کردن ایجاد شده است، معتقدیم که می‌بایست ادامه دار باشد.
سبحانیان گفت: بحث تمرکز ما با موضوع مبارزه با فرار مالیاتی نیز جز موضوعاتی است که باید در دستور کار قرار گیرد اگر که درآمدهای مالیاتی می‌بایست افزایش یابد که تکالیف بودجه ای ما نیز این را به ما می‌گوید این امر می‌بایست از محل شناسایی از محل های فرار مالیاتی باید رخ دهد باید این را بتوانیم نشان دهیم.
رئیس کل سازمان امور مالیاتی کشور تصریح کرد: اهتمام جدی در مجموعه دولت و شخص رئیس جمهور و وزیر اقتصاد در خصوص تکمیل پایگاه‌های اطلاعاتی ما در خصوص قانون ماده ۱۶۹  مکرر و  اجرای سامانه مودیان و پایانه‌های فروشگاهی وجود دارد.
سبحاانیان گفت: اگر سالیان گذشته حدود دو الی سه سال شناسایی شرکت صوری به طول می‌انجامید امروز به حدود دو الی سه ماه رسیده است. ما فرارهای بزرگ را به واسطه پایگاه‌های بزرگ شناسایی می‌کنیم و با این متخلفان مبارزه لازم را انجام می‌دهیم.
وی بیان کرد: استفاده از ابزارهای نوین همچون هوش مصنوعی، داده کاوی مبتنی بر پایگاه‌های اطلاعاتی بزرگی که در اختیار سازمان امور مالیاتی قرار گرفته ما را نسبت به مبارزه فرار مالیاتی  توانمند کرده است این موضوع مطالبات عمومی جامعه است چرا که می‌خواهند ما با موضوع فرار مالیاتی مبارزه کنیم.
رئیس کل سازمان امور مالیاتی گفت: ما قطعا این اجازه را به فراریان بزرگ مالیاتی نخواهیم داد ما در بخش دولتی و خصوصی مودیان را داریم که با اظهارات خلاف واقع در اظهارنامه های خودشان پرداخت مالیاتشان را به تعویق بیاندازند.
سبحانیان گفت: ما از ابزارهای موجود برای جلوگیری از این کتمان ها و فرارهای مقابله خواهیم کرد تا بتوانیم حقوق دولت را استیفا کنیم و عدالت را برقرار کنیم .
وی گفت: بحث تحول در نظام دادرسی برای ما اهمیت دارد. بارها گفته ام نظام دادرسی مالیاتی آخرین پناهی است که مودیان به آن پناه می‌برند تا اگر به اشتباه حقی از آنها ضایع شده است بتواند استیفا شود.

عباس پورخصالیان - به رغم این که نویسندگانِ «سند ملی هوش مصنوعی جمهوری اسلامی‌ ایران» در تعریف هوش مصنوعی [در مادۀ ۱ این سند، تحت عنوان "واژگان"] نوشته‌اند: 

رئیس دانشکده علوم مهندسی دانشگاه تهران با تاکید بر اینکه هوش مصنوعی تحولات زیادی در کشورها ایجاد کرده است، گفت: توسعه این فناوری نیاز به دسترسی داده دارد، ولی ما مسأله محرمانگی داده‌ها را داریم.

به گزارش ایسنا علی معینی امروز در کنفرانس ملی حکمرانی داده و هوش مصنوعی که در دانشگاه تهران برگزار شد، با اشاره به اهمیت مدیریت و حکمرانی داده‌ها برای همه سازمان‌های دولتی و غیر دولتی، اظهار کرد: از این رو موضوع محوری این رویداد حکمرانی داده است و طی آن آخرین دستاوردهای این حوزه مورد بحث و تبادل نظر قرار می‌گیردد.

وی با بیان اینکه با اقداماتی که مسؤولان کشور انجام دادند، امروزه حکمرانی داده، تبدیل به کلیدواژه متداول شده است، اظهار کرد: بر اساس احکامی از سال ۹۲ در قالب دولت الکترونیک، دولت هوشمند و اسناد بالادستی، از دستگاه‌ها خواسته شد تا موضوع حکمرانی داده را در سرلوحه کارهای خود قرار دهند، از این رو موضوع حکمرانی داده یک موضوع جدید نیست، ولی در تلاقی آن با توسعه هوش مصنوعی ضرورت بیشتری یافته است.

معینی با اشاره به اهمیت حکمرانی داده، خاطر نشان کرد: اگر بخواهیم به درستی مجموعه را اداره کنیم، نیازمند تحلیل داده هستیم و بر اساس نتایج آن، شرایط کسب و کار و نقاط آسیب زای کسب و کارها شناسایی می‌شود تا ببینیم که چه میزان تا اهداف فاصله داریم.

رئیس دانشکده علوم مهندسی دانشگاه تهران با تاکید بر اینکه توسعه هوش مصنوعی نیازمند در دسترس‌پذیر بودن داده‌ها است، یادآور شد: در این حوزه پارادوکسی وجود دارد که از یک سو مسأله محرمانگی داده‌ها مطرح است و از سوی دیگر نیاز به دسترسی به داده داریم.

گزارش‌ها حاکی از این هستند که «چت‌جی‌پی‌تی سرچ» در خطر فریب خوردن قرار دارد و ممکن است اطلاعات اشتباه را ارائه دهد.

به گزارش ایسنا، روزنامه بریتانیایی «گاردین» نوشت موتور جست‌وجوی «چت‌جی‌پی‌تی سرچ»(ChatGPT Search) مبتنی بر هوش مصنوعی که در ماه جاری میلادی راه‌اندازی شد، با مشکل فریب خوردن همراه است و متن‌های گمراه‌کننده را تولید می‌کند.

به نقل از تک کرانچ، هدف از ویژگی چت‌جی‌پی‌تی سرچ این است که با انجام دادن کارهایی مانند خلاصه کردن بررسی‌های صفحه وب، به مرور سرعت بدهد، اما گاردین خاطرنشان کرد که این قابلیت می‌تواند چت‌جی‌پی‌تی را ترغیب کند تا نظرات منفی را نادیده بگیرد و با درج متن پنهان در وب‌سایت‌هایی که ایجاد کرده، خلاصه‌های کاملا مثبت را تولید کند. همچنین، چت‌جی‌پی‌تی سرچ با استفاده از این روش می‌تواند رمزهای مخرب را استخراج کند.

این گونه حملات متنی مخفی، یک خطر شناخته‌شده برای مدل‌های زبانی بزرگ هستند، اما به نظر می‌رسد این اولین بار است که در یک محصول جستجوی زنده با هوش مصنوعی نشان داده می‌شود. گاردین خاطرنشان کرد که موتور جست‌وجوی «گوگل»، تجربه بیشتری را در برخورد با مشکلات مشابه دارد.

شرکت «اوپن‌ای‌آی»(OpenAI) به تماس تک کرانچ درباره این اتفاق خاص اظهار نظر نکرد، اما گفت که از روش‌های گوناگونی برای مسدود کردن وب‌سایت‌های مخرب استفاده می‌کند و به طور مداوم در حال بهبود بخشیدن آن است.

موانع ایجاد سامانه‌های داخلی هوش مصنوعی

چهارشنبه, ۵ دی ۱۴۰۳، ۱۱:۳۵ ق.ظ | ۰ نظر

عباس پورخصالیان -  «ضرورت استفاده حداکثری از هوش مصنوعی برای مقابله با توطئه‌های دشمن در جنگ شناختی» عنوان خبری بود که در چند خبرگزاری داخلی [مثلاٌ "میزان" با کد خبر: ۴۸۰۱۳۲۴] در هشتم آبان 1403 رسانه‌ای شد.

۲۰ شرکت برتر هوش مصنوعی در تحول انرژی

جمعه, ۳۰ آذر ۱۴۰۳، ۰۵:۳۴ ب.ظ | ۰ نظر

علی شمیرانی - عبارت «شرکت‌های هوش مصنوعی در حوزه انرژی»، به طور کلی، به شرکت‌هایی اشاره دارد که هوش مصنوعی را در عملیات خود ادغام کرده‌اند. این شرکت‌ها، در حال تغییر شکل بنیادین صنعت انرژی هستند.

آنتونیو گوترش دبیرکل سازمان ملل در نشست شورای امنیت درباره هوش مصنوعی هشدار داد: گسترش هوش مصنوعی به سیستم‌های امنیتی نگرانی‌های اساسی را در مورد حقوق بشر، کرامت و حاکمیت قانون ایجاد می‌کند.

به گزارش خبرنگار ایرنا، آنتونیو گوترش دبیرکل سازمان ملل روز پنجشنبه به وقت محلی در نشست شورای امنیت درباره هوش مصنوعی گفت: تکنولوژی بسیار سریع در حال حرکت است باید این واقعیت ساده درک شود؛ فناوری هرگز در آینده به کندی امروز حرکت نخواهد کرد.

گوترش افزود: در مدت کوتاهی، هوش مصنوعی با سرعت سرسام آوری پیشرفت کرده است. هوش مصنوعی فقط دنیای ما را تغییر شکل نمی دهد، بلکه آن را متحول می کند. وظایفی که به سال ها تخصص انسانی نیاز داشت، اکنون با یک چشم به هم زدن انجام می شوند. اما خطرات به همان اندازه بزرگ هستند.

دبیر کل سازمان ملل اضافه کرد: این رشد سریع در حال پیشی گرفتن از توانایی ما برای اداره آن است و سؤالات اساسی در مورد مسئولیت پذیری، برابری، ایمنی و امنیت در مورد نقش بشریت در فرآیند تصمیم گیری ایجاد می کند.

او تصریح کرد: هوش مصنوعی بدون نظارت انسان، جهان را کور می کند و شاید هیچ کجا خطرناکتر و بی پرواتر از صلح و امنیت جهانی نباشد.

گوترش ادامه داد: ابزارهای هوش مصنوعی در حال حاضر تغییرات مثبتی را در کشورهایی که از درگیری و ناامنی رنج می برند ایجاد کرده اند مانند شناسایی ناامنی غذایی و پیش‌بینی جابجایی‌های ناشی از رویدادهای شدید و تغییرات آب و هوایی، شناسایی و پاکسازی مین ها و به زودی، هوش مصنوعی می تواند الگوهای ناآرامی را قبل از وقوع خشونت شناسایی کند.

او گفت: اما هوش مصنوعی به شیوه های نگران کننده تری نیز وارد میدان جنگ شده است. درگیری های اخیر به محل آزمایشی برای کاربردهای نظامی هوش مصنوعی تبدیل شده است.

دبیرکل سازمان ملل تاکید کرد: «گسترش هوش مصنوعی به سیستم‌های امنیتی نگرانی‌های اساسی را در مورد حقوق بشر، کرامت و حاکمیت قانون ایجاد می‌کند. مسابقه تسلیحاتی هوش مصنوعی زمینه مساعدی برای سوء تفاهم، محاسبه اشتباه و ایجاد می کند.»

گوترش گفت: حملات سایبری مبتنی بر هوش مصنوعی می تواند زیرساخت های حیاتی یک کشور را فلج کرده و خدمات ضروری را فلج کند. از همه مهمتر، هوش مصنوعی اصل اساسی کنترل انسان بر استفاده از زور را از بین می برد.

دبیرکل سازمان ملل افزود: از ارزیابی‌های مبتنی بر هوش تا انتخاب هدف، الگوریتم‌ها قبلاً در تصمیم‌گیری مرگ و زندگی استفاده شده‌اند. ادغام هوش مصنوعی با تسلیحات هسته ای به ویژه با پیامدهای بالقوه فاجعه بار هشدار دهنده است.

او تاکید کرد: ما باید به هر قیمتی از آن اجتناب کنیم. انسان‌ها باید همیشه کنترل خود را بر عملکردهای تصمیم‌گیری حفظ کنند، با هدایت قوانین بین‌المللی، از جمله قوانین بین‌المللی بشردوستانه و حقوق بشر، و اصول اخلاقی.

دبیرکل سازمان ملل متحد ادامه داد: هوش مصنوعی محتوای بسیار واقعی ایجاد می کند که می تواند فوراً در فضای مجازی پخش شود - افکار عمومی را دستکاری کند، یکپارچگی اطلاعات را تهدید کند و حقیقت را از دروغ های آشکار متمایز کند.

گوترش تاکید کرد: جعل هویت می‌توانند باعث بحران‌های دیپلماتیک، تحریک ناآرامی و تضعیف پایه‌های جوامع شوند. ردپای زیست محیطی هوش مصنوعی همچنین خطرات امنیتی مشخصی را به همراه دارد.

به گزارش خبرنگار ایرنا از سازمان ملل، مجمع عمومی سازمان ملل متحد قطعنامه‌ مورد حمایت آمریکا در مورد هوش مصنوعی را دوم فروردین ۱۴۰۳ برابر با ۲۱ مارس ۲۰۲۴ با اجماع تصویب کرد که به گفته واشنگتن گام بزرگی در جهت ایجاد یک مسیر جهانی برای تنظیم این فناوری به‌سرعت در حال توسعه است.

این قطعنامه که پس از بیش از سه ماه مذاکرات میان ده‌ها کشور تصویب شد، از کشورهای عضو سازمان ملل می‌خواهد که از وجود «سیستم‌های هوش مصنوعی ایمن، مطمئن و قابل اعتماد» که مسئولانه توسعه یافته و به حقوق بشر و قوانین بین‌المللی احترام می‌گذارند، اطمینان حاصل کنند و از کشورهای عضو سازمان ملل می‌خواهد که سیستم‌های هوش مصنوعی ایمن، مطمئن و قابل اعتماد را برای رسیدگی به بزرگترین چالش‌های زمانه ما ترویج کنند و سیستم های هوش مصنوعی باید انسان محور، قابل اعتماد و مسئولیت پذیر باشند.

این قطعنامه همچنین می خواهد که در بحث هوش مصنوعی به طور کامل به حقوق بشر و قوانین بین المللی احترام گذاشته شود و آنها را ترویج و محافظت کند و تعهداتی را برای از بین بردن شکاف‌های هوش مصنوعی و دیجیتال از طریق افزایش ظرفیت‌سازی و گسترش اتصال و سواد دیجیتال در کشورهای در حال توسعه تعیین می‌کند تا کشورها از طریق اقدام جمعی بتوانند از هوش مصنوعی برای تسریع توسعه این تکنولوژی استفاده کنند.

این قطعنامه غیرالزام آور بوده و مکانیسم اجرایی را شامل نمی شود.بحث‌ها در مورد بهترین نحوه تنظیم هوش مصنوعی بیش از یک سال است که در مجامع دوجانبه و چندجانبه، از اجلاس سران گروه ۷ در ژاپن تا اجلاس ایمنی هوش مصنوعی که نوامبر گذشته به میزبانی انگلستان برگزار شد، جریان داشته است.چندین کشور بزرگ‌جهانی نیز پیش از این، مسیرهای خود را برای تنظیم هوش مصنوعی تعیین کرده‌اند.

اتحادیه اروپا در اوایل ماه جاری قانون هوش مصنوعی اروپا را پس از تقریباً دو سال بحث و بررسی به تصویب رساند، در حالی که مقامات در چین مقررات نظارتی را برای این تکنولوژی وضع کرده‌اند.

رئیس مرکز تحقیقات کامپیوتری علوم اسلامی گفت: در حال حاضر، مهم‌ترین سامانه‌های جهانی هوش مصنوعی تحریم است و ما به هیچ‌کدام دسترسی نداریم.

‌به گزارش خبرگزاری مهر، حجت‌الاسلام محمدحسین بهرامی، رئیس مرکز تحقیقات کامپیوتری علوم اسلامی در اختتامیهٔ پنجمین همایش علوم انسانی اسلامی پژوهش و فناوری که توسط مجمع پژوهشگاه‌های علوم انسانی در سالن شهید سلیمانی پژوهشگاه علوم و فرهنگ اسلامی دفتر تبلیغات اسلامی حوزه علمیه قم برگزار شد، با بیان اینکه امروز هوش مصنوعی مهم‌ترین تجلی از فضای جدید دیجیتال و فضای فناوری است، اظهار کرد: در هر دوره‌ای فناوری سرآمد می‌شود؛ زمانی کامپیوتر، اینترنت و شبکه‌های اجتماعی، در دوره‌هایی نیز بحث‌هایی مانند متاورس و بلاک‌چین در رأس قرار گرفتند و شاید خیلی از فعالیت‌های دیگر را تحت چتر خود گرفتند. اکنون به نظر می‌رسد هوش مصنوعی این جایگاه را پیدا کرده و قابل‌پیش‌بینی هم است؛ البته در آینده با فناوری متفاوتی که یا از دل هوش مصنوعی برمی‌آید یا در کنار آن شکل می‌گیرد، روبه‌رو خواهیم شد.

 

مطالعات بنیادین و نظری، نخستین گام در عرصهٔ هوش مصنوعی

استاد حوزه و دانشگاه ادامه داد: در هر دوره‌ای فناوری نوینی ظهور و بروز می‌کند که می‌توان از ظرفیت‌های آن بهترین استفاده را بُرد و امروز ظاهراً مهم‌ترین فرصت، عرصهٔ هوش مصنوعی است؛ لذا مراکز علوم اسلامی و انسانی می‌توانند دو مواجهه با عرصهٔ هوش مصنوعی داشته باشند که یک مواجهه، مطالعات بنیادین و نظری است.

وی به برخی از مطالعات نظری در عرصهٔ هوش مصنوعی اشاره و بیان کرد: پرداختن به مباحثی مثل فلسفهٔ هوش مصنوعی، اخلاق هوش مصنوعی، فقه هوش مصنوعی، آینده‌پژوهی هوش مصنوعی و بحث‌هایی از این قبیل، در شرایط فعلی ضرروی است.

 

ضرورت آینده‌پژوهی در حوزهٔ هوش مصنوعی

وی آینده‌پژوهی در حوزهٔ هوش مصنوعی را ضروری دانست و عنوان کرد: اقدامی که مرکز تحقیقات کامپیوتری علوم اسلامی در دستور کار دارد، ایجاد بستر استفاده از این فناوری توسط مراکزی است که به فعالیت‌های آموزشی و پژوهشی در حوزهٔ علوم اسلامی و انسانی مشغول‌اند. به نظر می‌رسد بهره‌گیری از ظرفیت هوش مصنوعی را باز در دو قسم و ساحت می‌توان دنبال کرد که یک ساحت، استفاده از ظرفیت‌های ابزارها و محیط‌های جهانی است، به این صورت که بتوانیم به‌خوبی از آنها بهره بگیریم، دوم هم زمینه‌سازی و تولید ابزارها در این زمینه است.

 

دو چالش پیش رو در بهره‌گیری از ظرفیت هوش مصنوعی

حجت‌الاسلام بهرامی با اشاره به اینکه در بهره‌گیری از ظرفیت هوش مصنوعی با دو چالش مواجه هستیم، عنوان کرد: اول اینکه پژوهشگران و مراکز، آشنایی لازم با ظرفیت‌های استفاده از هوش مصنوعی را کسب نکرده‌اند. بسیاری از اوقات، بیشترین استفادهٔ محققان از این ابزارها جنبهٔ سرگرمی دارد و متأسفانه هنوز نتوانسته‌ایم بسیاری از چالش‌ها را با استفاده از این ظرفیت برطرف کنیم.

وی اضافه کرد: به‌منظور بهره‌گیری بیشتر و بهتر از ظرفیت‌های هوش مصنوعی، یک درگاه دسترسی به سامانه‌های جهانی در مرکز تحقیقات کامپیوتری نور ایجاد کردیم. در حال حاضر، مهم‌ترین سامانه‌های جهانی هوش مصنوعی تحریم هستند و ما به هیچ‌کدام دسترسی نداریم، به همین دلیل به‌دنبال تولید ابزاری هستیم که دسترسی‌ها را تسهیل کند و مشکل تحریمی نداشته باشد.

رئیس مرکز تحقیقات کامپیوتری علوم اسلامی گفت: چالش دوم اینکه دسترسی به این سامانه‌ها، مستلزم پرداخت هزینهٔ دلاری با سازوکارهای جهانی است که ما دسترسی نداریم تا این چالش را به‌نحوی حل کنیم و با مقرون‌به‌صرفه‌ترین شکل ایجاد شود. یک نسخهٔ آزمایشی پرتال دسترسی به سامانه‌های هوش مصنوعی به‌زودی آماده می‌شود و ما امیدواریم بتوانیم در مدت‌زمان کوتاه و قابل‌قبولی نسخهٔ اولیهٔ آن را در اختیار مخاطبان قرار دهیم؛ به‌اضافهٔ اینکه در کنار آن، طیفی از استفاده‌های موردنیاز مراکز آموزشی و پژوهشی حوزهٔ علوم انسانی و اسلامی را در قالب تبدیل به ابزار فراهم کنیم. فرض کنید اگر بحث ocr هست، بحث ترجمه هست، مباحث دیگری که می‌شود تصور کرد، اینها را بتوانیم در آن بگنجانیم تا استفاده از این ابزار تسهیل شود.

 

بحث آموزش، دومین گام در عرصهٔ هوش مصنوعی

وی گفت: حوزهٔ دوم، بحث آموزش است که در این زمینه سرفصل‌هایی طراحی شده. آموزش‌هایی که صورت می‌گیرد، بعضی اوقات خیلی نظری هستند و به بهره‌برداری کمکی نمی‌کنند، بعضی اوقات هم جنبه‌هایی که آموزش می‌دهند، مشکلی را حل نمی‌کند. امیدواریم در یک دورهٔ پنج‌جلسه‌ای که تعریف شده است و به‌مرور در مراکز مختلف، به‌خصوص مراکز حوزوی آموزش آغاز می‌شود، بتوانیم در رفع این چالش کمک کنیم.

 

اقدامات صورت‌گرفته در حوزهٔ کاربردی‌سازی ظرفیت‌های موجود

عضو هئیت علمی جامعه المصطفی العالمیه به حوزهٔ کاربردی‌سازی ظرفیت‌های موجود اشاره و تصریح کرد: در مرکز تحقیقات کامپیوتری علوم اسلامی (نور) یکسری از فرایندها به‌سمت استفاده از هوش مصنوعی سوق داده شدند. بسیاری از اقدامات که پیش از این با استفاده از ابزارهای مختلف انجام می‌شدند، امروز با بهره‌گیری از هوش مصنوعی و با کیفیت بهتری در حال انجام است. این عرصه علاوه‌بر اینکه می‌تواند به بخش تولید شتاب بیشتری دهد، بر خروجی فعالیت‌ها و اقدامات در عرصه‌های مختلف نیز تأثیرگذار است.

حجت‌الاسلام بهرامی آماری از تولیدات علمی پژوهشی ارائه داد و بیان کرد: حدود صدهزار مقالهٔ علمی پژوهشی در حوزهٔ علوم انسانی و علوم اسلامی به زبان عربی ترجمه کردیم و امیدواریم در آیندهٔ نه‌چندان دور، مجموعه‌مقالات نورمگز را به زبان عربی و انگلیسی در فضای اینترنت داشته باشیم. همچنین بنا داریم تعداد قابل‌توجهی از مقالات عربی کشورهای اسلامی در حوزهٔ علوم انسانی و اسلامی را که در محدودهٔ جست‌وجوی محققان نیست، ترجمه و در دسترس قرار دهیم.

 

طراحی دستیار گفتگوی قرآنی

وی ادامه داد: در زمینهٔ تولید مدل‌های زبانی، اگرچه امکانات ما با امکانات خیلی از مؤسسه‌ها و شرکت‌های خارجی قابل‌مقایسه نیست، به‌دلیل دارایی‌های دیتایی و اطلاعاتی‌مان می‌توانیم مطالب و ابزارهایی تولید کنیم که در حوزهٔ تخصصی بسیار کارآمدتر باشد. یکی از نمونه‌های این اقدام، تولید سامانهٔ «دین‌دان» به‌منظور پاسخ‌گویی به سوالات دینی بود؛ نمونهٔ دیگر می‌تواند پروژهٔ مرکز در حوزهٔ جست‌وجوی احادیث باشد. به این ترتیب که اگر کسی عبارتی را جست‌وجو کرد، نزدیک‌ترین حدیث به وی ارائه شود. حوزهٔ دوم نیز بحث دستیار گفتگوی قرآنی است با این رویکرد که براساس دیتاهای قرآنی که از ترجمه و تفسیر استخراج می‌شود، بتواند پاسخ‌گوی سوالات باشد.

تولید دستیار پژوهشی نور، چشم‌انداز مرکز تحقیقات کامپیوتر علوم اسلامی

حجت‌الاسلام بهرامی به چشم‌انداز مرکز تحقیقات کامپیوتری علوم اسلامی اشاره و بیان کرد: چشم‌انداز ما تولید دستیار پژوهشی نور است، به‌طوری که می‌توان با استفاده از این ابزار، دربارهٔ نیازهای مختلف پژوهشی گفتگو کرده و نتایج مستند و مستدل دریافت کرد. تلاش بر این است مجموعه خدماتی که ربات‌های گفتگو می‌توانند برای کار پژوهشی ارائه کنند، در این ابزار ارائه شود. امیدواریم علاوه‌بر ارائهٔ خدمات، به‌زودی بتوانیم نتایج و خروجی اقدامات را در دسترس قرار دهیم.