ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۴۹۶ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

تحلیل


رئیس فراکسیون هوش مصنوعی مجلس با اشاره به برنامه‌های مجلس برای هوش مصنوعی نکاتی را بیان کرد.

رضا تقی پور رئیس فراکسیون هوش مصنوعی مجلس و عضو شورای عالی فضای  مجازی در گفت‌و‌گو با باشگاه خبرنگاران جوان با اشاره به برنامه‌های مجلس برای هوش مصنوعی گفت: ما در مجلس یازدهم فراکسیون هوش مصنوعی و داده را داشتیم که در جلسات متعدد مسائل مختلف در زمینه هوش مصنوعی را بررسی کردیم.  در نتیجه جلسات برگزار شده چند حکم در قانون برنامه هفتم پیش بینی شد.

در شورای عالی فضای مجازی در زمینه کلیات هوش بحث شده است

وی ادامه داد: در مجلس دوازدهم این فراکسیون به عنوان فراکسیون هوش مصنوعی و فناوری دانش بنیان داریم که جلساتش در حال برگزاری است. همکاران ما در این دوره طرح ساماندهی هوش مصنوعی را آماده کردند که در حال نهایی شدن است. این طرح دارای ۱۴ ماده است که مهمترین مسائل هوش مصنوعی در کشور را در بر میگیرد. از جمله تقسیم کاری که هریک از سازمان‌ها برعهده دارند.

تقی پور در  پاسخ به سوالی درباره وظایف شورای عالی فضای مجازی در زمینه هوش مصنوعی افزود: هوش مصنوعی جز دانش‌هایی قرار دارد که در حوزه کاری شورای عالی فضای مجازی قرار دارد. در شورای عالی فضای مجازی در زمینه کلیات هوش بحث شده است.  مقدمات راه اندازی سازمان هوش مصنوعی انجام شده و امیدواریم که این سازمان بتواند هماهنگی‌های لازم را با تصویب سریع این قانون در مجلس انجام بدهد.

رئیس فراکسیون هوش مصنوعی مجلس ادامه داد: در گام اول به جرم انگاری پرداخته نشده است ما در این حوزه به قوانین متعددی نظیر حکمرانی داده‌ها و نحوه ارائه خدمات لازم داریم. در دوره دوازدهم مجلس باید این گام‌ها برداشته و نهایی شوند.

رفع فیلترینگ در دست بررسی است

وزیر ارتباطات پیشین با اشاره به رفع فیلترینگ افزود: با پیشنهاد آقای رئیس جمهور و هیات دولت در شورای عالی فضای مجازی در حال بحث است.  در کل دنیا فعالیت پلتفرم‌ها در چهارچوب قوانین کشور است و این توافق نامه‌ها در کشور‌های متعددی وجود دارد. شاهد برخورد آمریکا با تیک تاک هم در این زمینه بودیم. در مصوبات شورای عالی فضای مجازی شرایط برای سایر سکو‌ها اعلام شده است.

وی با اشاره به قوانین ایران برای سکو‌ها بیان کرد: اینها باید در خواست خود را مطرح کنند و در نهایت بیش از چند هزار سکو داریم که در کشور فعال هستند و نباید کل فضای مجازی را منحصر بدانیم در چند سکویی که برای خود مقررات خاصی قائلند. سکو‌های داخلی بدون قید و شرط در حال حمایت هستند، زیرا شرایط کلی کشور توسعه پیام رسان هاست و استفاده امن از آنها. در دولت سیزدهم حمایت‌ها از سکو ها‌ی داخلی بسیار فراگیر بود اکنون هم در دولت چهاردهم این حمایت‌ها ادامه دارد.  در رقابت سکو‌های داخلی و خارجی همه مردم باید کمک کنند تا مانند صنایع دیگر این‌ها نیز حمایت شوند.

اطلاعاتی که نباید به چت‌جی‌پی‌تی داد

شنبه, ۲۴ فروردين ۱۴۰۴، ۰۴:۵۸ ب.ظ | ۰ نظر

بر اساس هشدارهای کارشناسان، اطلاعات پنج‌گانه‌ای وجود دارد که نباید در گفت‌وگو با چت‌بات‌ها به آن‌ها پرداخته شود چرا که ممکن است این اطلاعات در فرآیند آموزش مدل‌ها، اشتباهات سیستمی و یا حتی در حملات سایبری مورد سوءاستفاده قرار بگیرند.

به گزارش اطلاعات آنلاین، در ماه‌های اخیر چت‌جی‌پی‌تی به یکی از ابزارهای محبوب برای پاسخ به سوالات و کمک در امور مختلف روزمره تبدیل شده است. اگرچه این ابزار مبتنی بر هوش مصنوعی می‌تواند بسیار مفید باشد اما برخی پژوهشگران هشدار می‌دهند که همه چیز را نباید با آن در میان گذاشت.

چت‌ جی‌پی‌تی، محصول شرکت اوپن ای‌آی، برای بسیاری از کاربران حکم یک دستیار دیجیتال را دارد که می‌تواند متن بنویسد، کد تصحیح کند، نتایج پزشکی را تحلیل کند و حتی کمک کند کودکی را بخوابانند. اما در پشت این پاسخ‌های صمیمی، الگوریتم‌هایی قرار دارند که از هر تعامل چیزهایی می‌آموزند.

در طول این سال‌ها چت‌ جی‌پی‌تی نه‌تنها یاد گرفته که مثلا شما عاشق تخم‌مرغ هستید و کمردرد دارید، بلکه جزئیات بسیار شخصی‌تر از شما را نیز به خاطر سپرده است. در واقع ابزارهایی مانند چت‌ جی‌پی‌تی با هدف شخصی‌سازی پاسخ‌ها و بهبود عملکرد آتی خودشان، جزئیات فردی بسیاری را، از وضعیت جسمی کاربران گرفته تا برخی مسائل بسیار خصوصی، به حافظه می‌سپارند.

اگرچه کاربران می‌توانند این قابلیت را از طریق تنظیمات غیرفعال کنند، با این حال از آن‌جا که شمار زیادی از افراد در این باره بی‌تفاوت هستند اطلاعات بسیار زیادی می‌تواند در اختیار چت‌ جی‌پی‌تی گذاشته شود.

چه چیزی را نباید به ChatGPT گفت؟ و چرا؟

بر اساس هشدارهای کارشناسان، اطلاعات پنج‌گانه‌ای وجود دارد که نباید در گفت‌وگو با چت‌بات‌ها به آن‌ها پرداخته شود چرا که ممکن است این اطلاعات در فرآیند آموزش مدل‌ها، اشتباهات سیستمی و یا حتی در حملات سایبری مورد سوءاستفاده قرار بگیرند.

این اطلاعات عبارتند از:

اطلاعات هویتی: مانند شماره شناسنامه، گواهینامه، گذرنامه، آدرس، شماره تلفن و تاریخ تولد. برخی چت‌بات‌ها تلاش می‌کنند این موارد را سانسور کنند، اما تضمینی وجود ندارد.

نتایج آزمایشات پزشکی: چت‌بات‌ها مشمول قوانین سختگیرانه محافظت از داده‌های درمانی نیستند. در صورت نیاز، فقط نتایج آزمایشات را بدون اطلاعات هویتی بارگذاری کنید.

اطلاعات مالی: مانند شماره حساب‌های بانکی یا سرمایه‌گذاری، که در صورت افشای ناخواسته می‌توانند تبعات جدی داشته باشند.

اطلاعات محرمانه‌ سازمانی: بسیاری از کاربران در حین کار از چت‌بات‌ها برای نوشتن ایمیل یا بررسی کد استفاده می‌کنند، اما همین کار می‌تواند اطلاعات حساس کاری یا کدهای محرمانه را فاش کند.

رمزهای عبور و نام‌ کاربری: چت‌بات‌ها فضای امن برای ذخیره رمز یا گاوصندوق دیجیتال نیستند. این اطلاعات باید در نرم‌افزارهای مدیریت رمز عبور نگهداری شوند.

شرکت‌های بزرگی چون اوپن ای‌آی، گوگل و مایکروسافت از مکالمات کاربران برای بهبود مدل‌های خود استفاده می‌کنند. اگرچه کاربران می‌توانند در تنظیمات گزینه عدم استفاده از داده‌ها برای آموزش را فعال کنند، اما بسیاری از افراد از این قابلیت بی‌خبر هستند.

راه‌هایی برای حفظ حریم خصوصی با هوش مصنوعی

کارشناسان امنیت سایبری پیشنهاد می‌کنند برای حفظ حریم شخصی، اقدامات زیر را انجام دهید:

از حالت چت موقت استفاده کنید: ویژگی «چت موقت» (Temporary Chat) در چت‌جی‌پی‌تی مانند حالت ناشناس مرورگر عمل می‌کند و مانع از ذخیره مکالمه‌ها و استفاده از آن‌ها در آموزش مدل‌ها می‌شود.

مکالمه‌ها را حذف کنید: می‌توانید پس از پایان هر گفت‌وگو، آن را از تاریخچه حذف کرده و مطمئن شوید پس از ۳۰ روز اطلاعات کاملا پاک می‌شود.

از ابزارهای ناشناس‌سازی استفاده کنید: موتور جست‌وجوی داک‌داک‌گو (DuckDuckGo) ابزاری به نام داک‌ای‌آی (Duck.ai) ارائه کرده که پیام‌ها را به‌صورت ناشناس برای مدل‌های هوش مصنوعی ارسال می‌کند؛ هرچند امکانات محدودی نسبت به چت‌بات‌های کامل دارد.

در نهایت، این شما هستید که باید تصمیم بگیرید چه چیزی را به اشتراک بگذارید و چه چیزی را نگه دارید. به عبارت دیگر چت‌بات‌ها برای ادامه دادن مکالمات طراحی شده‌اند، اما اختیار نهایی همچنان در دستان شماست.

وزیر ارتباطات گفت: عربستان سعودی با اختصاص حدود ۲۰ میلیارد دلار و امارات متحده عربی با ۱.۴ میلیارد دلار سرمایه‌گذاری در حوزه هوشمندسازی و هوش مصنوعی قدم برداشته‌اند، در حالی که ایران زیر ۵۰ میلیون دلار در این حوزه سرمایه‌گذاری کرده است. - اخبار اجتماعی -

به گزارش تسنیم، وزارت ارتباطات و فناوری اطلاعات و صندوق توسعه ملی امروز، شنبه 23 فروردین 1404، تفاهم‌نامه «حکمرانی هوشمند و اقتصاد با محوریت هوش مصنوعی» را امضا کردند.

ستار هاشمی؛ وزیر ارتباطات، در نشست امضای این تفاهم‌نامه گفت: بر اساس گزارش شاخص جهانی هوش مصنوعی، وضعیت کشور ما در منطقه جایگاه مطلوبی ندارد و رتبه 60 را دارد. در رتبه‌بندی اخیر که تعدادی از کشورهای جهان از جمله چند کشور منطقه مورد بررسی قرار گرفته‌اند، عربستان سعودی و امارات متحده عربی با اختلاف قابل توجهی جایگاه بهتری نسبت به ایران کسب کرده‌اند. بر این اساس، امارات متحده عربی در رتبه 14 و عربستان سعودی در جایگاه 20 این رتبه‌بندی قرار گرفته‌اند.

وزیر ارتباطات بیان کرد: بررسی میزان سرمایه‌گذاری در حوزه هوش مصنوعی و زیرساخت‌های اقتصاد دیجیتال، نشان‌دهنده شکاف عمیق میان ایران و کشورهای پیشروی منطقه است. برآوردها حاکی از آن است که عربستان سعودی با اختصاص حدود 20 میلیارد دلار و امارات متحده عربی با 1.4 میلیارد دلار سرمایه‌گذاری در حوزه هوشمندسازی و هوش مصنوعی گام‌های بلندی برای توسعه فناوری‌های هوشمند برداشته‌اند. در مقابل، حجم سرمایه‌گذاری ایران در بخش هوش مصنوعی به زیر 50 میلیون دلار می‌رسد.

هاشمی خاطرنشان کرد: این آمار بیانگر ضرورت توجه ویژه به افزایش سرمایه‌گذاری در فناوری اطلاعات، هوش مصنوعی و زیرساخت‌های ارتباطی است. کاهش فاصله کنونی نیازمند برنامه‌ریزی دقیق و تخصیص منابع مالی در بازه زمانی کوتاه‌مدت است. در این راستا، برگزاری نشست‌های تخصصی و انعقاد تفاهم‌نامه‌های راهبردی می‌تواند به تحقق شعار سال مبنی بر «سرمایه‌گذاری در تولید» و ارتقای جایگاه کشور در عرصه فناوری کمک کند.

تقابل چین و آمریکا در لحظهٔ حساس هوش مصنوعی

شنبه, ۲۴ فروردين ۱۴۰۴، ۰۴:۰۰ ب.ظ | ۰ نظر

ندا اظهری، مترجم: دانشگاه استنفورد به‌تازگی هشتمین گزارش شاخص هوش مصنوعی را منتشر کرد که جامع‌ترین شاخص ارائه‌شده تاکنون در این حوزه به شمار می‌رود. با توجه به نفوذ گسترده و روزافزون هوش مصنوعی در جامعه، اقتصاد و حاکمیت جهانی، اهمیت چنین شاخص‌هایی بیش از پیش خود را نشان می‌دهد. در گزارش امسال، محققان این دانشگاه تحلیل‌های عمیقی از چشم‌انداز در حال تکامل سخت‌افزار هوش مصنوعی، تخمین‌های جدید هزینه‌های استنتاج و تحلیل‌های جدید از روند انتشار و ثبت اختراع هوش مصنوعی ارائه کرده‌اند. آن‌ها همچنین داده‌های تازه‌ای را در مورد پذیرش شرکت‌ها از شیوه‌های هوش مصنوعی مسئول، همراه با پوشش گسترده‌ای از نقش رو به رشد هوش مصنوعی در علم و پزشکی معرفی کرده‌اند. شاخص هوش مصنوعی از زمان تأسیس در سال ۲۰۱۷، به‌عنوان شاخه‌ای از مطالعه ۱۰۰ساله هوش مصنوعی ارائه شد که هدف آن، ارائه تازه‌ترین، دقیق‌ترین و معتبرترین داده‌ها از این فناوری رو به رشد به سیاست‌گذاران، روزنامه‌نگاران، مدیران اجرایی، محققان و عموم مردم بوده است. 

در واقع، مأموریت آن‌ها همواره کمک به این گروه از افراد بوده تا بتوانند تصمیمات آگاهانه‌تری را در مورد توسعه و استقرار هوش مصنوعی اتخاذ کنند. شاخص هوش مصنوعی همچنان در ردیابی و تفسیر حیاتی‌ترین روندهای شکل‌دهنده این حوزه، از تغییر چشم‌انداز ژئوپلیتیک و تکامل سریع فناوری‌های زیربنایی گرفته تا نقش رو به گسترش هوش مصنوعی در تجارت، سیاست‌گذاری و زندگی عمومی پیشرو است. در این گستره که هوش مصنوعی با سرعت سرسام‌آوری پیشرفت می‌کند، این شاخص می‌تواند زمینه‌های ضروری برای تداوم این پیشرفت را فراهم کند. شاخص هوش مصنوعی که در سطح جهان به‌عنوان یکی از معتبرترین منابع در زمینه هوش مصنوعی شناخته می‌شود، در رسانه‌های بزرگی چون نیویورک تایمز، بلومبرگ و گاردین نیز از آن یاد شده و صدها مقاله دانشگاهی و نیز سیاست‌گذاران و سازمان‌های دولتی نیز در سراسر دنیا از آن یاد کرده و بهره‌مند می‌شوند. ‌راسل والد‌، مدیر اجرایی مؤسسه ‌هوش مصنوعی انسان‌محور‌ (HAI) دانشگاه استنفورد و عضو کمیته راهبری شاخص هوش مصنوعی معتقد است که هوش مصنوعی یک فناوری تحول‌آفرین است که هیچ محدودیتی جلودار آن نیست و همچنان پیش می‌رود و قادر است هر صنعتی را متحول کند. سال گذشته شاهد افزایش سرعت پذیرش هوش مصنوعی با سرعت بی‌سابقه‌ای بودیم به‌طوری‌که دامنه و تأثیر آن همچنان رو به رشد خواهد بود. در این گزارش، مانند سال‌های گذشته همچنان نامی از ایران نیست، به‌جز دو استثنا که مربوط به تعداد دانشجویان مقاطع کارشناسی ارشد و دکتری علوم کامپیوتر در دانشگاه‌های آمریکا بوده است. در این گزارش، خلاصه‌ای از مهم‌ترین موضوعات مطرح شده در شاخص AI ارائه شده است.


بررسی عملکرد هوش مصنوعی با 3 معیار جدید

محققان در سال ۲۰۲۳ معیارهای جدیدی را مانند GPQA، MMMU و SWE-bench برای آزمایش محدودیت‌های سیستم‌های هوش مصنوعی پیشرفته معرفی کردند. معیار GPQA یک آزمون طراحی‌شده برای سنجش توانایی مدل‌ها در پاسخ به سؤالات عمومی است. معیار MMMU نیز مربوط به درک عمومی زبان در موضوعات مختلف است. معیار SWE-bench نیز آزمونی برای رفع مشکلات کد است. تنها یک سال بعد، عملکرد آن‌ها افزایش یافت به‌طوری‌که امتیاز آن‌ها به ترتیب برای GPQA، MMMU و SWE-bench حدود ۲۰، ۴۹ و ۶۷ درصد رشد پیدا کرد. فراتر از معیارها، سیستم‌های هوش مصنوعی گام‌های بزرگی در تولید ویدئوهای باکیفیت بالا برداشتند و در برخی تنظیمات، عوامل مدل زبانی حتی در کارهای برنامه‌نویسی با بودجه‌های زمانی محدود، عملکرد بهتری نسبت به انسان‌ها از خود نشان دادند.


افزایش ۲۴ درصدی کاربرد تجاری از هوش مصنوعی و رشد سرمایه‌گذاری

در سال ۲۰۲۴، سرمایه‌گذاری‌های خصوصی هوش مصنوعی آمریکا به ۱۰۹ میلیارد و ۱۰۰ میلیون دلار افزایش یافت که در مقایسه با سرمایه‌گذاری خصوصی ۹ میلیارد و ۳۰۰ میلیون دلاری چین، با ۱۲ برابر رشد و در مقایسه با سرمایه‌گذاری خصوصی ۴ میلیارد و ۵۰۰ میلیون دلاری انگلیس، با ۲۴ برابر رشد همراه بوده است. هوش مصنوعی مولد با جذب ۳۳ میلیارد و ۹۰۰ میلیون دلار در سرمایه‌گذاری خصوصی در سطح جهان، شتاب ویژه‌ای داشته است به‌طوری‌که نسبت به نرخ این سرمایه‌گذاری در سال ۲۰۲۳ حدود ۱۹ درصد افزایش نشان می‌دهد. استفاده تجاری از هوش مصنوعی نیز در این میان در حال افزایش است به‌گونه‌ای که ۷۸ درصد از سازمان‌ها گزارش داده‌اند که در سال ۲۰۲۴ از هوش مصنوعی استفاده کرده‌اند؛ این رقم استفاده از این فناوری در سال ۲۰۲۳ حدود ۵۵ درصد بوده که با ۲۳ درصد رشد روبه‌رو شده است. همچنین، هوش مصنوعی، بهره‌وری را نیز افزایش داده و در بیشتر موارد به کاهش شکاف‌های مهارتی در میان نیروی کار کمک می‌کند.


افزایش 40 درصدی بهره‌وری سالانه انرژی با هوش مصنوعی 

با توجه به مدل‌های کوچک هوش مصنوعی با قابلیت فزاینده، هزینه استنتاج سیستمی که در سطح GPT-3.5 کار می‌کند، بین نوامبر 2022 تا اکتبر 2024 بیش از 280 برابر کاهش یافته است. در سطح سخت‌افزار، هزینه‌ها سالانه 30 درصد کاهش داشته است درحالی‌که بهره‌وری انرژی هرساله 40 درصد بهبود نشان می‌دهد. مدل‌های وزن باز نیز در حال کاهش فاصله با مدل‌های بسته هستند و تفاوت عملکرد را در یک سال، از 8 درصد به حدود 2 درصد در برخی معیار‌ها کاهش می‌دهند. این روند‌ها با هم به‌سرعت موانع را برای هوش مصنوعی پیشرفته کاهش می‌دهند. 


نفوذ هوش مصنوعی به جوایز علمی 

اهمیت روزافزون هوش مصنوعی تا اندازه‌ای رسیده است که اثرات آن‌ها را می‌توان در جوایز علمی بزرگ مشاهده کرد. بسیاری از محققان، در حال حاضر به دنبال بهره‌مندی از فناوری هوش مصنوعی در تحقیقات و آثار علمی خود هستند تا بتوانند از قابلیت‌های منحصربه‌فرد آن برای توسعه هر چه بیشتر یافته‌های خود استفاده کنند. به‌عنوان مثال، در جایزه نوبل سال 2024 که چند ماه پیش اعلام شد، دو جایزه مربوط به هوش مصنوعی می‌شد که خبر از اهمیت این حوزه از فناوری می‌داد؛ یکی یادگیری عمیق (در رشته فیزیک) و دیگری کاربرد هوش مصنوعی در تا شدن پروتئین‌ها (در رشته شیمی). 


نفوذ گستردۀ هوش مصنوعی در زندگی روزمره

شاید تا چند سال پیش کسی تصورش را هم نمی‌کرد که فناوری هوش مصنوعی تا این اندازه بتواند زندگی مردم کره زمین را تسخیر کند. گستره این فناوری تا اندازه‌ای است که از مراقبت‌های بهداشتی گرفته تا سیستم‌های حمل و نقل را دربرگرفته و به سرعت از فضاهای آزمایشگاهی روانه زندگی روزمره ما شده است. در سال ۲۰۲۳، سازمان غذا و داروی آمریکا (FDA) حدود ۲۲۳ دستگاه پزشکی مجهز به هوش مصنوعی را مورد تأیید قرار داد در حالی که تعداد دستگاه‌های پزشکی در سال ۲۰۱۵ که مجهز به فناوری هوش مصنوعی بودند، تنها به ۶ دستگاه می‌رسید که در مقایسه با دستگاه‌های فعلی ۳ هزار و ۶۱۶ درصد رشد کرده است که بسیار قابل توجه بوده و به عبارتی، نفوذ این فناوری را در دنیای امروز نشان می‌دهد. در این میان، خودروهای خودران دیگر نمونه‌هایی آزمایشی تلقی نمی‌شوند. به‌عنوان مثال، شرکت «وایمو» که یکی از بزرگ‌ترین اپراتورهای آمریکایی است، هر هفته بیش از ۱۵۰ هزار خودروی سواری خودران را ارائه می‌دهد در حالی که ربات‌های «بایدو» اکنون در سراسر شهرهای چین با قیمت مقرون به صرفه‌ای خدمات تاکسی‌های رباتیک Apollo Go را ارائه می‌دهند.


آمریکا در صدر تولیدکنندگان برتر مدل‌های AI

مؤسسات مستقر در آمریکا در سال ۲۰۲۴ حدود ۴۰ مدل هوش مصنوعی قابل توجه تولید کردند که به‌طور قابل توجهی نسبت به ۱۵ مدل چینی و ۳ مدل اروپایی پیشی گرفت. در حالی که آمریکا از نظر کمیت مدل‌ها، پیشتازی خود را حفظ کرده، مدل‌های چینی به سرعت شکاف کیفیت را پر کرده‌اند. در این میان، تفاوت عملکرد در معیارهای اصلی مانند MMLU و HumanEval از دو رقمی در سال ۲۰۲۳ به تقریباً همان رقم در سال ۲۰۲۴ کاهش یافت. در عین حال، چین همچنان در مقالات و پتنت‌های هوش مصنوعی پیشتاز است. در همین بازه زمانی، توسعه مدل‌های هوش مصنوعی به‌طور گسترده‌ای جهانی است به‌طوری‌که مدل‌های قابل توجهی در مناطقی چون خاورمیانه، آمریکای لاتین و آسیای جنوب شرقی عرضه شدند.


تکامل نابرابر اکوسیستم هوش مصنوعی مسئول

بروز پدیده‌های مرتبط با هوش مصنوعی به شدت در حال افزایش است. باوجود این، ارزیابی‌های استاندارد در بین توسعه‌دهندگان مدل‌های صنعتی بزرگ کمیابند. معیارهای جدیدی چون HELM Safety، AIR-Bench و FACTS ابزارهایی هستند که برای ارزیابی واقعیت و ایمنی مدل‌ها عرضه می‌شوند. در بین شرکت‌ها، شکافی بین شناخت ریسک‌های ارزیابی‌های استاندارد و انجام اقدامات معنادار وجود دارد. در مقابل، دولت‌ها فوریت بالایی را به استفاده از این روش‌های ارزیابی نشان داده‌اند به‌طوری‌که در سال ۲۰۲۴، همکاری جهانی در زمینه حکمرانی هوش مصنوعی تشدید شد و سازمان‌هایی چون OECD، اتحادیه اروپا، سازمان ملل و اتحادیه آفریقا، چهارچوب‌هایی را منتشر کردند که بر شفافیت، قابل اعتماد بودن و دیگر اصول اصلی هوش مصنوعی تمرکز کرده بودند.


دنیا به هوش مصنوعی خوش‌بین‌تر شده است

یافته‌ها نشان می‌دهد که کشور‌ها، بسیاری از تولیدات هوش مصنوعی را بیشتر از آن که مضر بدانند، مفید قلمداد می‌کنند. در این میان، در چین 83 درصد، در اندونزی 80 درصد و در تایلند 77 درصد، بیشتر محصولات و خدمات هوش مصنوعی را مفید می‌دانند تا مضر. در مقابل، دید مثبت نسبت به هوش مصنوعی در کشور‌هایی نیز پایین‌تر است؛ به‌عنوان مثال، 40 درصد از مردم کانادا، 39 درصد از مردم آمریکا و 36 درصد از مردم هند، نگاه مثبتی به این فناوری نوظهور دارند. از سال 2022، خوش‌بینی برخی کشور‌هایی که دید منفی به هوش مصنوعی داشتند رشد قابل‌توجهی داشته است به‌طوری که آلمان و فرانسه با رشد 10 درصدی، کانادا و انگلیس با رشد 8 درصدی و آمریکا با رشد 4 درصدی روبه‌رو شدند.


رشد 30 درصدی مدل‌های صنعتی هوش مصنوعی

تقریباً 90 درصد از مدل‌های قابل‌توجه هوش مصنوعی در سال 2024 از دل صنعت تولید شده‌اند درصورتی‌که این رقم در سال 2023 حدود 60 درصد بوده است که رشد 30 درصدی را نشان می‌دهد. این در حالی است که دانشگاه همچنان منبع اصلی پژوهش‌ها به شمار می‌رود و هنوز هم استناد بالایی را به خود اختصاص می‌دهد. مقیاس مدل‌های هوش مصنوعی به‌سرعت در حال رشد است به‌طوری که محاسبات آموزشی هر پنج ماه یک‌بار، مجموعه داده‌ها هر 8 ماه یک‌بار دوبرابر شده و مصرف انرژی سالانه نیز دوبرابر می‌شود. باوجوداین، شکاف‌های عملکردی در حال کاهش است به‌گونه‌ای که تفاوت امتیاز بین مدل‌های برتر و رتبه دهم از حدود 12 درصد به بیش از 5 درصد طی یک سال گذشته کاهش یافته و دو مدل برتر، اکنون تنها حدود یک درصد از هم جدا شده‌اند. این آمار‌ها حکایت از آن دارد که رقابت در این حوزه بسیار تنگاتنگ است. 


هوش مصنوعی هنوز در استدلال‌های پیچیده به در بسته می‌خورد

برنامه‌ریزی یک کار هوشمندانه است که شامل استدلال در مورد اقداماتی می‌شود که جهان را تغییر می‌دهد. این امر مستلزم در نظر گرفتن حالات فرضی آینده، از جمله اقدامات خارجی بالقوه و سایر رویدادهای تحول‌آفرین است. یکی از مهم‌ترین کاربرد‌های مدل‌های هوش مصنوعی در کار‌هایی چون حل مسائل پیچیده است و به همین دلیل، بسیاری از محققان و دانشمندان از آن برای حل پیچیده‌ترین چالش‌ها استفاده می‌کنند. همچنین از این قابلیت منحصربه‌فرد هوش مصنوعی می‌توان در مسابقات بین‌المللی المپیاد ریاضی استفاده کرد که از اهمیت بالایی برخوردار است. اما محققان به‌رغم برخورداری از قابلیت‌های این فناوری منحصربه‌فرد، همچنان با معیار‌های استدلال پیچیده‌ای چون PlanBench دست و پنجه نرم می‌کنند. این مدل‌ها، حتی زمانی که راه‌حل‌های صحیح قابل اثبات وجود داشته باشد، اغلب قادر به حل برخی کار‌ها به‌صورت منطقی نبوده و اثربخشی آن‌ها با وجود پرمخاطره بودن آن‌ها در حل دقیق مسائل، با محدودیت‌هایی مواجه می‌شود. 


تقویت هوش مصنوعی به واسطه مقررات و سرمایه‌گذاری 

آژانس‌های فدرال آمریکا در سال 2024، حدود 25 مقررات مرتبط با هوش مصنوعی را صادر کردند که در مقایسه با سال 2023، به بیش از دوبرابر رسید و نیز تعداد آژانس‌های صادرکننده این مقررات نیز نسبت به سال قبل از آن دوبرابر شد. در سطح جهانی، اشاره قانونی به هوش مصنوعی در 75 کشور از سال 2023 به بیش از 21 درصد افزایش یافت که بیانگر افزایش 9 برابری از سال 2016 است. علاوه بر توجه رو به رشد این قوانین، دولت‌ها سرمایه‌گذاری‌های خود را بر همین مقیاس می‌سنجند و برآورد می‌کنند. براین اساس، کانادا متعهد به سرمایه‌گذاری 2 میلیارد و 400 میلیون دلاری شده است. همچنین چین متعهد به سرمایه‌گذاری 47 میلیارد و 500 میلیون دلاری، فرانسه متعهد به سرمایه‌گذاری 123 میلیارد و 585 میلیون دلاری و هند متعهد به سرمایه‌گذاری یک میلیارد و 250 میلیون دلاری در حوزه نیمه‌رسانا‌ها شده‌اند و عربستان سعودی در قالب پروژه Transcendence یک راهکار ابتکاری 100 میلیارد دلاری را ارائه می‌دهد. 


آفریقا و آمریکای لاتین پیشتاز در آموزش علوم کامپیوتر

در حال حاضر، دوسوم کشور‌ها آموزش دوره‌های دوازده‌ساله مدرسه‌ای را در رشته علوم کامپیوتر ارائه کرده یا برنامه‌ریزی می‌کنند که از سال 2019 حدوداً دوبرابر شده است. در این میان، آفریقا و آمریکای لاتین بیشترین پیشرفت را بین سایر کشور‌ها داشته‌اند. تعداد فارغ التحصیلان دارای مدرک کارشناسی در آمریکا در محاسبات 10 سال گذشته 22 درصد افزایش یافته است. باوجود این، دسترسی در بسیاری از کشور‌های آفریقایی به دلیل شکاف‌های زیرساختی اولیه مانند برق محدود است. در آمریکا، 81 درصد از معلمانی که در دوره‌های دوازده‌ساله مدرسه علوم کامپیوتر را به دانش‌آموزان ارائه می‌دهند، معتقدند که هوش مصنوعی باید بخشی از آموزش اساسی علوم کامپیوتر باشد اما کمتر از نیمی از آن‌ها برای آموزش این رشته احساس آمادگی می‌کنند. (منبع:فرهیختگان)

شروط تحقق واقعی سکوی ملی هوش مصنوعی

شنبه, ۲۴ فروردين ۱۴۰۴، ۰۳:۰۴ ب.ظ | ۰ نظر

عباس پورخصالیان - طی ۲۰۰ سال اخیر به ندرت می‌توان رسانه‌ای یافت که حکمرانان و حتی علمای حوزه‌های علمیه ایران آن را با طیب خاطر پذیرفته و به سرعت در بومی‌سازیِ استفاده و فناوری ایجادش کوشیده باشند: «رسانۀ هوش مصنوعی» از این لحاظ یک استثناء است:

شناسایی کارمندان ضد ترامپ و ماسک با هوش مصنوعی

چهارشنبه, ۲۱ فروردين ۱۴۰۴، ۰۲:۱۴ ب.ظ | ۰ نظر

وزارت کارآمدی از هوش مصنوعی برای جاسوسی از کارمندان دولتی ضد ایلان ماسک و دونالد ترامپ استفاده می کند.

به گزارش خبرگزاری مهر به نقل از رویترز، مقامات دولت ترامپ به برخی از کارمندان اعلام کرده اند تیمی از متخصصان وزارت کارآمدی ایلان ماسک با استفاده از هوش مصنوعی ارتباطات حداقل یک آژانس فدرال را برای رصد خصومت با رئیس جمهور آمریکا و دستور کار او نظارت می کنند.

هرچند بخش اعظم فعالیت های وزارت کارآمدی مخفیانه است اما نظارت بر کارمندان دولتی نشان دهنده استفاده خارق العاده از فناوری برای شناسایی خیانت میان نیروی کاری است که هم اکنون با فرایندهای گسترده اخراج و همچنین کاهش بودجه روبرو است.

به برخی از مدیران آژانس حفاظت از محیط زیست آمریکا گفته شده وزارت کارآمدی از هوش مصنوعی برای رصد محتوای ضد ماسک یا ضد ترامپ در اپلیکیشن های ارتباطی و نرم افزارهایی مانند مایکروسافت تیمز استفاده می کند. این سازمان می خواهد مراقب افرادی باشد که فعالیتشان با دستور کار دولت مطابقت ندارد.

تیم وزارت کارآمدی همچنین از اپ سیگنال برای برقراری ارتباط استفاده می کند که این امر ناقض قوانین حفظ سوابق فدرال است زیرا پیام های این شبکه اجتماعی را طوری تنظیم کرد تا پس از مدتی حذف شوند. در کنار این موارد آنها به طور گسترده از چت بات هوش مصنوعی گراک برای کاهش نیروی انسانی استفاده می کنند.

استفاده از هوش مصنوعی و اپ سیگنال نگرانی های کارشناسان امنیت سایبری را درباره آنکه وزارت کارآمدی با شفافیت اندکی کار می کند به وجود آورده همچنین این امر که ماسک یا دولت ترامپ ممکن است از اطلاعات جمع آوری شده با هوش مصنوعی برای مقاصد سیاسی استفاده کنند بیش از پیش نگران کننده شده است.

مزایا و معایب استفاده از هوش مصنوعی در روانشناسی

سه شنبه, ۲۰ فروردين ۱۴۰۴، ۰۳:۴۱ ب.ظ | ۰ نظر

بسیاری از انسان‌ها در حال حاضر با انواع مختلف هوش مصنوعی در دنیای پیشرفته و کاربردی در ارتباط هستند و از توانایی‌های آن حیرت‌زده می‌شوند. هوش مصنوعی ترکیبی از علوم رایانه، ریاضیات و علوم شناختی است و به دانشمندان این امکان را می‌دهد که سیستم‌ها و ماشین‌های پیشرفته طراحی کنند و از آن‌ها در صنایع و کسب ‌و کارهای مختلف استفاده کنند. نکته جالب اینکه هوش مصنوعی وارد علم روانشناسی شده است. درواقع استفاده از هوش مصنوعی در روانشناسی تحول بزرگی در تشخیص درمان و پژوهش‌های روانشناختی ایجاد کرده است. واقعیت امر این است که هوش مصنوعی با تحیلیل داده‌های پیچیده، پیش‌بینی الگوهای فتاری و ارائه راهکارهای شخصی‌سازی شده به متخصصان روانشاسی کمک می‌کند تا خدمات بهتری  ارائه دهند.

 

هوش مصنوعی، کمک‌حال روانشناسان
با وجود بررسی کاربردهای هوش مصنوعی در روانشناسی که هنوز هم در حال انجام است؛ باید این نکته را هم یادآور شویم که این علم قرار نیست جایگزین نیروهای انسانی شود و تنها نقش کمکی را برای آنها ایفا می‌کند. در واقع ترکیب هوش مصنوعی و مشاوران باتجربه، قابلیت پردازش داده‌ها و مشکلات افراد مختلف را راحت‌تر کرده و در نتیجه درمان‌های قطعی را پیش‌روی آنها قرار می‌دهد. ارزیابی خودکار، مشاوره روانشناسی مجازی، شناخت دقیق روان پنهان،‌ تصویربرداری از مغز، مدل‌سازی و پیش‌بینی، دستیار مجازی روانشناس و همچنین انتخاب درمان از جمله کاربردهای هوش مصنوعی در روانشناسی هستند. به عنوان نمونه روانشناشناسان می‌توانند از هوش مصنوعی برای ارزیابی‌های خودکار عملکرد شناختی، عاطفی و رفتاری استفاده کنند. این ارزیابی‌ها استاندارد هستند و به پزشکان کمک می‌کنند تا تشخیص‌ها و توصیه‌های درمانی دقیق‌تر و کارآمدتری را ارائه دهند. طبق داده‌های به دست آمده تکنولوژی هوش مصنوعی در مشاوره روانشناسی نیز بسیار موفق عمل کرده و به شکل مجازی می‌تواند به افراد کمک کند. این تکنولوژی قادر است به‌صورت کاملا خودکار با افراد مختلف تعامل برقرار کرده و به آنها در مواجهه با مسائل روانشناسی کمک کند. یک ربات روان‌درمانگر از طریق گفتگو و پرسش‌های هوشمند، احساسات، نگرش‌ها و نیازهای فرد را درک کرده و راهنمایی‌های مناسبی را در اختیار او قرار می‌دهد. همچنین در دسترس بودن ۲۴ساعته، حفظ حریم خصوصی و ارائه اطلاعات دقیق و موثق به کاربران، جزو ویژگی‌های مثبت آن است.

 

شناخت دقیق روان پنهان بیماران با هوش مصنوعی!
طبق برخی تجربیات در جهان هوش مصنوعی با تحلیل داده‌های اسکن مغزی، به شناسایی الگوها و ارتباطات بین فعالیت‌های عصبی و فرایندهای شناختی کمک می‌کند. این اطلاعات به محققان امکان می‌دهند تا وضعیت مراجعان را بهتر درک کرده و مکانیسم‌های زیربنایی بیماری‌های روانی را شناسایی کنند. به همین دلیل بسیاری از روانشناسان از هوش مصنوعی برای پیش‌بینی و درمان بیماری‌های روانی استفاده می‌کنند تا بتوانند سرعت درمان بیماران را بالاتر ببرند. البته هوش مصنوعی در پروسه ترجمه و تصویربرداری از مغز هم به روانشناسان کمک می‌کند. این علم می‌تواند داده‌های بزرگ حاصل از اسکن مغز را تحلیل کرده و الگوهای مناطق مختلف آن را شناسایی کند. با دریافت این اطلاعات، روانشناسان اطلاعات به دست آمده را بیشتر درک کرده و دقیق‌تر و جامع‌تر در مورد درمان مراجعان خود تصمیم‌گیری می‌کنند. گزارش‌هایی که هوش مصنوعی در اختیار مشاوران قرار می‌دهد به درک سازوکارهای عملکردی مغز و تشخیص بهتر کمک می‌کند. هرچند استفاده از الگوریتم‌های هوش مصنوعی به روانشناسان امکان می‌دهد تا مدل‌هایی را ایجاد کرده و به شناسایی افرادی که در معرض خطر ابتلا به بیماری‌های روانی هستند کمک کنند. با استفاده از این علم، محققان می‌توانند داده‌های بزرگ و الگوریتم‌های پیشرفته را به کار برده و الگوها و روابط پنهان را شناسایی کنند. در نهایت نیز مدل‌های دقیق و قابل‌اعتمادی را برای پیش‌بینی و جمع‌آوری منابع در دست خواهند داشت.

 

هوش مصنوعی، دستیار روانشناسان
نکته جالب و قابل تامل اینکه هوش مصنوعی می‌تواند شبیه به یک دستیار مجازی برای روانشناسان عمل کند. با استفاده از این علم، بازدهی بالاتر رفته و خطاهای کمتری در پروسه درمان ایجاد خواهد شد. البته نرم‌افزارهایی برای این منظور ساخته شده‌اند که خلاصه‌ای از محتوای جلسات درمانی قبلی را به درمانگر می‌دهند و به او کمک می‌کنند تا برای جلسه پیش‌رو با دید بازتری آماده شود. حتی برخی از این ابزارها، می‌توانند در فاصله زمانی که فرد قرار است جلسه بعدی خود را برگزار کند، احساساتش را ارزیابی کرده و در جلسه مراجعه آنها را در اختیار روانشناس قرار می‌دهد تا بتواند تمرین‌ها و مهارت‌هایی را دقیقا متناسب با فرد به او ارائه دهد. یکی دیگر از خدماتی که هوش‌مصنوعی به علم روانشناسی داشته ترکیب درمان است. در این عرصه با استفاده از هوش مصنوعی و درمان‌های انسانی به تصمیم‌گیری درباره انتخاب روش‌های درمانی درست کمک می‌کند. این تکنولوژی با استفاده از داده‌ها و الگوریتم‌هایی که به دست می‌آورد، اطلاعاتی را در اختیار پزشکان و متخصصان قرار می‌دهد و به آنها کمک می‌کند تا تصمیم بهتری را درباره درمان بیماران خود بگیرند.

 

برنامه‌های کاربردی هوش مصنوعی در روانشناسی

Woebot
 یک دستیار هوشمند که به کاربران کمک می‌کند تا عادت‌های مثبت را در زندگی خود ایجاد کنند. همچنین از طریق مکالمات روانشناسی و تمرین‌های روانشناختی، به افراد کمک می‌کند تا با استرس، اضطراب و سایر مسائل روانی خود راحت‌تر کنار بیایند.

Youper
 یک برنامه جالب برای مدیریت استرس، اضطراب و افسردگی بوده و از طریق مکالمات و تمرین‌های روانشناختی، به مدیریت احساسات فرد کمک می‌کند.

Replika
 برای افرادی که دچار استرس و اضطراب هستند کمک می‌کند و با چت و مکالمه، احساساتشان را شناسایی خواهد کرد. سپس راهکارهایی را برای مدیریت این مشکل به آنها ارائه می‌دهد.

Tess
 در این برنامه مبتنی بر هوش مصنوعی راهکارهایی برای مدیریت و کاهش علائم بیماری‌های روانی مانند افسردگی و اضطراب با توجه به نیاز کاربر قرار داده شده است.

 

تجربه‌نگاری

ریچارد لوئیس، مشاور و روان‌درمانگر مستقر در بریستول اشاره می‌کند زمانی که از Woebot، یک چت‌بات محبوب بر پایه که خدمات روان درمانی ارائه می‌دهد، برای کمک به موضوعی که هم‌زمان با درمانگرش در حال بررسی آن بود استفاده کرد؛ ربات نتوانست به جزئیات مسئله پی ببرد. این چت‌بات به او پیشنهاد داد که «به حقایق پایبند باشد» و تمام محتوای احساسی پاسخ‌هایش را حذف کرد و به او توصیه کرد افکار منفی‌اش را به شکلی مثبت بازنگری کند. لوئیس گفت: «به‌عنوان یک درمانگر، اصلاح یا پاک کردن احساسات، آخرین توصیه‌ای است که ممکن است به مراجع ارائه دهم.» او افزود: «وظیفۀ ما این است که با مراجع رابطه‌ای ایجاد کنیم که او بتواند احساسات دشوار را در خود نگه دارد نه اینکه آن‌ها را پاک کند. ما درتلاشیم مراجعان راحت‌تر به کاوش، یکپارچه‌سازی و یافتن معنا در این احساسات بپردازند و در نهایت خودشان را بهتر بشناسند.»

 

مزایای استفاده از هوش مصنوعی در روانشناسی

یکی از مزایای بهره بردن از هوش مصنوعی ارائه پشتیبانی در همه‌ ساعات روز است. در واقع ابزارهای مبتنی بر هوش مصنوعی می‌توانند در هر زمانی از شبانه‌روز در دسترس باشند. این ویژگی می‌تواند برای افرادی که در مواقع بحرانی (مانند خودکشی) به کمک فوری نیاز دارند بسیار مفید باشد و به آن‌ها امکان می‌دهد بدون نیاز به انتظار برای وقت مشاوره، از راهنمایی بهره‌مند شوند. کاهش هزینه‌های درمان هم یکی دیگر از مزایای هوش مصنوعی در علم روانشناسی است.
درواقع استفاده از هوش مصنوعی در مشاوره و درمان روانی می‌تواند هزینه‌ها را کاهش دهد، چرا که نیاز به حضور مشاور یا روانشناس انسانی برای هر جلسه کاهش می‌یابد. این مسئله می‌تواند خدمات روان‌شناختی را برای افراد بیشتری قابل دسترسی کند. تشخیص زودهنگام مشکلات روانی هم هست. سیستم‌های هوش مصنوعی قادر به شناسایی الگوهای نگران‌کننده در رفتارها و گفتار افراد هستند. آنها می‌توانند به شناسایی علائم اولیه مشکلات روانی مانند افسردگی، اضطراب و تمایلات خودکشی کمک کنند به‌طوری که مداخلات به‌موقع و مؤثر انجام شود.این مزایا می‌توانند به بهبود کیفیت و دسترسی به خدمات روانشناختی کمک کنند و به ویژه در شرایطی که منابع انسانی محدود است جایگزین‌های مفیدی را ارائه دهند.

 

معایب استفاده از هوش مصنوعی در روانشناسی

نبود درک عمیق انسانی یکی از معایب استفاده از این تکنولوژی است. طبق مقاله کادیا  یکی از محدودیت‌های اصلی هوش مصنوعی در روانشناسی، ناتوانی آن در درک واقعی طبیعت پیچیدۀ احساسات انسانی است. درمانگران اعتقاد دارند درمان از طریق درک و همدلی فرد اتفاق می‌افتد. هوش مصنوعی فاقد توانایی درک عواطف و تجربه‌های انسانی به‌صورت عمیق است. در حالی که می‌تواند الگوها را شناسایی کند، نمی‌تواند به‌طور کامل احساسات پیچیدۀ بیماران را درک کند و پاسخ بدهد. این محدودیت می‌تواند به مشاوره‌هایی منجر شود که تئوریک، سرد و بی‌روح به نظر می‌رسند. عدم‌پیش‌بینی رفتارها در شرایط بحرانی هم یکی از بزرگترین چالش‌های هوش مصنوعی است. عدم توانایی در پاسخ به شرایط بحرانی مانند افکار خودکشی یا بحران‌های شدید روانی است. این سیستم‌ها نمی‌توانند تصمیم‌گیری‌های فوری و حیاتی انجام دهند و ممکن است نتوانند به موقع مداخله کنند. اگر به مثال اسمیت رجوع کنیم متوجه این برداشت غلط می‌شویم. اسمیت قصد خودکشی و پریدن از بالای صخره‌ها را داشت درصورتی که هوش مصنوعی به غلط تفکر اسمیت را صخره‌نوردی و فعالیت بدنی برداشت کرده بود.

 

مسائل حریم خصوصی و امنیت داده‌ها
در روانشناسی، داده‌های بیمار بسیار حساس و شخصی هستند. استفاده از هوش مصنوعی برای تحلیل این داده‌ها ممکن است خطر نشت اطلاعات یا سواستفاده از آنها را افزایش دهد، به ویژه اگر پروتکل‌های امنیتی به‌درستی رعایت نشوند. این چالش‌ها نشان می‌دهند که هوش مصنوعی نمی‌تواند جایگزین کاملی برای متخصصان سلامت روان باشد، بلکه باید به عنوان یک ابزار مکمل با توجه به محدودیت‌هایش استفاده شود.(منبع:شهروند)

رونمایی معاونت علمی از سکو یا پوستۀ هوش مصنوعی؟!

سه شنبه, ۲۰ فروردين ۱۴۰۴، ۰۳:۱۰ ب.ظ | ۱ نظر

زهرا رمضانی - نفس‌های 1403 به شمارش افتاده بود که «نسخه اولیه سکوی ملی هوش مصنوعی» با حضور حسین افشین، معاون علمی، فناوری و اقتصاد دانش‌بنیان رونمایی شد. سکویی که افشین آغاز به کار آن را به معنی عضو شدن در باشگاه جهانی هوش مصنوعی اعلام کرد.

موانع ایران در توسعه هوش مصنوعی

يكشنبه, ۱۸ فروردين ۱۴۰۴، ۰۴:۰۰ ب.ظ | ۰ نظر

ژوئیه ۲۰۲۴ ایران سازمان ملی هوش مصنوعی را به عنوان نهاد مستقل زیر نظر رئیس جمهور تأسیس کرد. این ابتکار نشان دهنده بلندپروازی ایران برای تبدیل شدن به یکی از ۱۰ کشور برتر هوش مصنوعی در جهان در دهه آینده است.

مرکز پژوهش‌های مجلس شورای اسلامی با انتشار گزارشی تحت عنوان «حکمرانی هوش مصنوعی: نظام تنظیم‌گری هوش مصنوعی در کشور» می‌کوشد چارچوبی بومی و متناسب با ساختار حکمرانی کشور طراحی و پیشنهاد دهد.

به گزارش مهر در بحبوحه شتاب جهانی در توسعه فناوری‌های هوش مصنوعی، دولتمردان، نهادهای سیاست‌گذار و مراکز علمی در اقصی نقاط جهان در پی یافتن الگوهایی نوین برای حکمرانی و تنظیم‌گری این فناوری هستند. بر اساس برآوردهای صورت گرفته از سوی متخصصان، چالش اساسی در این مسیر، ایجاد تعادلی دقیق میان تسهیل نوآوری فناورانه، تضمین امنیت ملی، و پاسداشت عدالت اجتماعی و حقوق فردی است.

در چنین شرایطی، این معادله پیچیده، هم برای کشورهای توسعه‌یافته و هم برای کشورهای در حال توسعه، اهمیتی مضاعف یافته است. جمهوری اسلامی ایران نیز با آگاهی از آثار شگرف و بعضاً پیش‌بینی‌ناپذیر توسعه فناوری هوش مصنوعی، تلاش کرده تا رویکردی منسجم و بومی برای مواجهه با این تحولات اتخاذ کند.

مرکز پژوهش‌های مجلس شورای اسلامی در همین راستا، با انتشار گزارشی تحت عنوان «حکمرانی هوش مصنوعی: نظام تنظیم‌گری هوش مصنوعی در کشور» کوشیده است تا ضمن بهره‌گیری از تجارب جهانی، چارچوبی بومی و متناسب با ساختار حکمرانی کشور طراحی و پیشنهاد دهد. مهر در این یادداشت در پی تحلیل و تبیین محتوای گزارش مذکور و ارزیابی جایگاه آن در منظومه سیاست‌گذاری ملی در حوزه هوش مصنوعی است.

از تنظیم‌گری کلاسیک تا حکمرانی اقتضائی

گزارش مرکز پژوهش‌ها با مرزبندی دقیق میان دو مفهوم «قانون‌گذاری» و «تنظیم‌گری»، به تبیین دیدگاهی نوین در خصوص تنظیم‌گری می‌پردازد که متناسب با شرایط پیچیده، متغیر و چندذی‌ربطی فناوری‌های نوین، به‌ویژه هوش مصنوعی طراحی شده است. در این چارچوب پیشنهادی، تنظیم‌گری به مثابه ابزاری برای تحقق منفعت عمومی از مسیر مداخلات انعطاف‌پذیر، تخصص‌محور و نتیجه‌گرا در کنار قانون‌گذاری کلاسیک تعریف می‌شود.

در این نگاه، دولت تنها بازیگر صحنه حکمرانی نیست، بلکه تنظیم‌گری باید در بستری چندلایه میان نهادهای دولتی، بخش خصوصی، نهادهای مدنی و بازیگران بین‌المللی پیگیری شود. رویکرد نگارندگان گزارش مرکز پژوهش‌های مجلس با تجارب جهانی هم‌خوان است و از سوی نهادهایی از جمله سازمان توسعه و همکاری اقتصادی، اتحادیه اروپا و کشورهای پیشرو همچون سنگاپور و بریتانیا نیز دنبال می‌شود.

تنظیم‌گری دو سطح بخشی و فرابخشی

یکی از نوآوری‌های مهم گزارش مذکور، پیشنهاد طراحی نظام دو سطحی تنظیم‌گری شامل «تنظیم‌گری فرابخشی» و «تنظیم‌گری بخشی» است. بر اساس چارچوب پیشنهادی، سطح فرابخشی وظیفه ترسیم چارچوب‌های کلی، هماهنگی بین‌بخشی و نظارت کلان را بر عهده دارد و در این زمینه نقش سازمان ملی هوش مصنوعی به عنوان تنظیم‌گر فرابخشی مورد توجه قرار گرفته است. سطح بخشی نیز مسئول طراحی مقررات تخصصی در هر حوزه (سلامت، حمل‌ونقل، مالی، آموزش و…) نهادهای ذی‌ربط بوده و پیشنهاد شده این نهادها با همکاری معاونت علمی ذیل وزارتخانه‌های مربوطه شکل گیرند.

این مدل از نظام‌های حکمرانی دو سطحی موجود در کشورهای مختلف مانند مدل «FEAT» در کشور سنگاپور، قانون جامع هوش مصنوعی اتحادیه اروپا و قانون داده و هوش مصنوعی «C-27» در کانادا الهام گرفته شده و متخصصان بر این باورند که قابلیت انطباق با ساختار حکمرانی ایران را نیز دارد.

از اصول سازمان توسعه و همکاری اقتصادی تا تدوین چارچوب بومی

گزارش مرکز پژوهش‌ها با بررسی دقیق اصول اخلاقی سازمان همکاری و توسعه اقتصادی در حوزه هوش مصنوعی، نشان می‌دهد که این اصول می‌توانند به عنوان چارچوبی راهبردی برای الهام‌بخشی در تدوین سیاست‌های بومی مورد استفاده قرار گیرند. این اصول که شامل محوریت انسان در توسعه فناوری، شفافیت در فرآیندهای تصمیم‌گیری، پاسخ‌گویی نهادهای توسعه‌دهنده و بهره‌بردار، ایمنی سامانه‌ها و توسعه پایدار هستند، با بسیاری از اهداف کلان جمهوری اسلامی ایران در حوزه عدالت اجتماعی، امنیت داده و رشد پایدار هم‌راستا محسوب می‌شوند.

با این حال، گزارش به درستی تأکید می‌کند که انطباق این اصول با زیست‌بوم فناوری ایران نیازمند اتخاذ رویکردی تطبیقی و مبتنی بر «حق تحفظ» است؛ به‌ویژه در مواردی که ممکن است برخی ارزش‌ها و پیش‌فرض‌های نهفته در این اصول، با مؤلفه‌های فرهنگی، اجتماعی یا حتی فقهی نظام اسلامی در تعارض باشند. از این منظر، استفاده از تجربه‌های بین‌المللی باید همراه با فیلتر بومی‌سازی و بازنگری انتقادی باشد، به‌گونه‌ای که ضمن بهره‌گیری از مزایای آن‌ها، استقلال سیاست‌گذاری کشور و رعایت اصول فرهنگی و ارزشی آن نیز تضمین شوند.

سندباکس؛ بستری برای تنظیم‌گری آزمایشی و نوآورانه

استفاده از «سندباکس» به عنوان محیط آزمون تنظیم‌گری، یکی دیگر از پیشنهادهای راهبردی این گزارش است که با الگوبرداری از تجارب موفق کشورهایی چون بریتانیا، سنگاپور و اتحادیه اروپا ارائه شده است. سندباکس‌ها در اصل محیط‌های کنترل‌شده‌ای هستند که به توسعه‌دهندگان امکان می‌دهند نوآوری‌های فناورانه خود را در چارچوبی موقت و قابل ارزیابی، با حمایت تنظیم‌گران و بدون نیاز به عبور کامل از مجاری پیچیده مقرراتی، مورد آزمون قرار دهند.

این مدل تنظیم‌گری تدریجی و آزمون‌محور، به‌ویژه برای فناوری‌های نوظهور و پرریسک مانند هوش مصنوعی، بسیار سودمند تلقی می‌شود؛ زیرا هم امکان شناسایی پیامدهای ناخواسته پیش از ورود گسترده به بازار را فراهم می‌کند و هم به تنظیم‌گران اجازه می‌دهد به جای واکنش‌های سلبی، مداخله‌ای هدفمند، مرحله‌ای و داده‌محور در زمینه هوش مصنوعی داشته باشند.

گزارش مذکور پیشنهاد می‌دهد که سندباکس‌های بخشی با نظارت مستقیم تنظیم‌گران تخصصی در حوزه‌هایی نظیر سلامت، خدمات مالی، آموزش و حمل‌ونقل طراحی شوند. این سازوکارها می‌توانند بستر مناسبی برای ارتقای ظرفیت‌های بومی، ایجاد گفت‌وگوی سازنده میان نهادهای دولتی و فعالان بخش خصوصی، کاهش مقاومت نسبت به مقررات جدید و ایجاد اعتماد متقابل باشند. همچنین سندباکس‌ها از منظر اقتصادی، می‌توانند انگیزه‌های سرمایه‌گذاری در حوزه هوش مصنوعی را افزایش داده و زمینه را برای رقابت‌پذیری و توسعه محصولات بومی در بازارهای داخلی و منطقه‌ای فراهم آورند.

چالش‌های ساختاری و راهبردهای پیشنهادی

گزارش مرکز پژوهش‌های مجلس در بخش دیگری مجموعه‌ای از چالش‌های ساختاری و اجرایی تنظیم‌گری هوش مصنوعی در ایران را فهرست کرده است که بدون حل آن‌ها، امکان استقرار یک نظام کارآمد و پایدار وجود نخواهد داشت. از جمله این چالش‌ها می‌توان به فقدان نگاشت نهادی روشن و مورد اجماع میان نهادهای حاکمیتی، تداخل وظایف و نبود تقسیم‌کار شفاف میان دستگاه‌های مختلف، کمبود منابع انسانی متخصص و زیرساخت‌های فناورانه به‌روز، ضعف فرهنگ‌سازی عمومی و آموزشی، و همچنین فقدان تعاملات مؤثر بین‌المللی اشاره کرد. به عقیده کارشناسان، این معضلات، نه‌تنها مانع توسعه پرشتاب فناوری هوش مصنوعی می‌شوند، بلکه خطر شکل‌گیری مقرراتی نامنسجم، بازدارنده یا بی‌اثر را نیز در پی دارند.

گزارش حکمرانی هوش مصنوعی در پاسخ به این موانع، مجموعه‌ای از راهبردها و ابتکارات سیاستی را پیشنهاد می‌دهد که از جمله مهم‌ترین آن‌ها می‌توان به پیشنهاد تشکیل مرکز ملی راهبری هوش مصنوعی به‌عنوان یک نهاد چابک، تخصص‌محور و میان‌بخشی اشاره کرد که وظیفه تدوین سیاست‌ها، نظارت بر اجرای مقررات و هماهنگی بین نهادهای مختلف را بر عهده گیرد. در این گزارش تخصصی همچنین، بر بازتعریف نقش مجلس شورای اسلامی تأکید شده است تا از نقش صرفاً تقنینی به نهادی راهبردگذار در حوزه سیاست‌گذاری کلان فناوری ارتقا یابد. ایجاد سازوکارهای منسجم برای هماهنگ‌سازی فعالیت‌های نهادهای دولتی، تقویت ظرفیت‌های بین‌المللی با مشارکت در ائتلاف‌ها و نهادهای منطقه‌ای مانند بریکس و پیمان شانگهای و ارتقای آموزش تخصصی در حوزه هوش مصنوعی از دیگر پیشنهادهای کلیدی این گزارش به شمار می‌روند.

نتیجه‌گیری

گزارش مرکز پژوهش‌های مجلس، گامی مؤثر، آینده‌نگر و کارشناسانه در مسیر تدوین چارچوبی منسجم برای حکمرانی هوش مصنوعی در ایران به شمار می‌رود. این گزارش با نگاهی تطبیقی-تحلیلی، ضمن بهره‌گیری از آموزه‌ها و تجارب کشورهای پیشرو در عرصه سیاست‌گذاری فناوری، به درک عمیقی از الزامات بومی در سطح نهادی، فرهنگی و اجتماعی رسیده است. تأکید بر مدل‌های اقتضائی تنظیم‌گری، معرفی دو سطح تنظیم‌گری بخشی و فرابخشی و توجه به ظرفیت ابزارهایی چون سندباکس، از نشانه‌های رویکرد مسئله‌محور و انعطاف‌پذیر در این گزارش است.

در عین حال، گزارش مذکور با واقع‌بینی به پیش‌شرط‌های تحقق این الگوها از جمله ضرورت اراده سیاسی قوی در سطح حاکمیت، هماهنگی بین‌نهادی، اجماع نخبگانی و سرمایه‌گذاری مادی و انسانی پایدار نیز اشاره دارد. متخصصان معتقدند که تنها در صورت تحقق این بسترها می‌توان به شکل‌گیری نظامی متوازن، چابک، تسهیل‌گر و پاسخ‌گو در حوزه تنظیم‌گری هوش مصنوعی امیدوار بود؛ نظامی که نه مانع نوآوری باشد و نه از مسئولیت‌های حاکمیتی خود غفلت کند.

پنتاگون با استفاده از هوش مصنوعی صفحات تاریخی مرتبط با تنوع نژادی را حذف می‌کند و جنجال بزرگی به پا کرده است.

پنتاگون اخیراً تأیید کرده است که از هوش مصنوعی برای حذف محتوای مرتبط با سیاست‌های تنوع، برابری و شمول (DEI) در وب‌سایت‌های رسمی نظامی استفاده می‌کند. این اقدام پس از واکنش‌های گسترده به حذف صفحه‌ای درباره جکی رابینسون، بازیکن مشهور بیسبال و کهنه‌سرباز جنگ جهانی دوم، فاش شد. این حذف در چارچوب دستور اجرایی دولت ترامپ برای حذف محتواهای مرتبط با نژاد و جنسیت از وب‌سایت‌های دولتی انجام شده است.

نقش هوش مصنوعی در حذف محتوای تاریخی

شان پارنل، سخنگوی پنتاگون، در ویدئویی که در شبکه اجتماعی X منتشر کرد، توضیحاتی درباره حذف محتوای مربوط به جکی رابینسون ارائه داد. او مدعی شد که ابزارهای هوش مصنوعی و نرم‌افزارهای مرتبط، به اشتباه برخی از مطالب مهم را حذف کرده‌اند و این محتواها تحت بازبینی قرار گرفته‌اند. 

حذف محتوای جکی رابینسون و واکنش‌ها

این ماجرا زمانی آغاز شد که کاربران اینترنت متوجه شدند صفحه‌ای که زندگی‌نامه کوتاهی از جکی رابینسون را منتشر کرده بود، به‌طور ناگهانی حذف شده و پیام «صفحه یافت نشد» را نمایش می‌دهد. آدرس اینترنتی این صفحه حاوی عبارت "DEI" بود، که این موضوع باعث تشدید اعتراضات شد.

در پی این واکنش‌ها، جان اولیوت، یکی از مقامات روابط عمومی وزارت دفاع، بیانیه‌ای صادر کرد که به‌جای توضیح درباره حذف این صفحه، به انتقاد از «مارکسیسم فرهنگی بیدار» پرداخت. این واکنش باعث تشدید نارضایتی‌ها شد و در نهایت، روز بعد، واشنگتن پست گزارش داد که اولیوت از سمت خود برکنار شده و صفحه مربوط به جکی رابینسون نیز دوباره منتشر شده است.

کاربرد گسترده هوش مصنوعی در سیاست‌های دولت ترامپ

این جنجال همچنین نمودی از سیاست‌های دولت ترامپ در استفاده گسترده از هوش مصنوعی برای انجام تغییرات در دولت فدرال است. در دپارتمان جدیدی که به نام «وزارت بهره‌وری دولتی» تحت نظر ایلان ماسک ایجاد شده، داده‌های حساس مالی و اطلاعات کارکنان دولتی به یک مدل هوش مصنوعی سپرده شده است. علاوه بر این، یک ابزار هوش مصنوعی دیگر برای بررسی ایمیل‌های کارمندان فدرال جهت تعیین تداوم اشتغال آن‌ها به کار گرفته شده است. همچنین، ارتش آمریکا از یک مدل هوش مصنوعی موسوم به "CamoGPT" برای حذف محتوای مرتبط با DEI از برنامه‌های آموزشی استفاده می‌کند.

پیامدهای استفاده از هوش مصنوعی در حذف محتوا

استفاده از هوش مصنوعی در این زمینه، علاوه بر نگرانی‌های مرتبط با شفافیت، می‌تواند راهی برای سرپوش گذاشتن بر اقدامات جنجالی مقامات دولت باشد. از آنجا که این فناوری به‌طور گسترده و خودکار عمل می‌کند، حجم عظیمی از محتوا می‌تواند در یک لحظه حذف شود و تنها در مواردی که حساسیت عمومی بالا باشد، امکان بازگردانی آن وجود دارد.

افشای نقش هوش مصنوعی در حذف محتوای تاریخی و مرتبط با تنوع در پنتاگون، موجی از نگرانی‌ها را درباره سانسور دولتی و سوءاستفاده از فناوری‌های نوین برانگیخته است. در حالی که دولت ترامپ به دنبال حذف سیاست‌های DEI از نهادهای فدرال است، این اقدام نشان می‌دهد که چگونه هوش مصنوعی می‌تواند ابزاری برای اجرای این سیاست‌ها در مقیاس گسترده باشد.(منبع:خبرآنلاین)

یک شرکت ارتباطات اینترنتی و تلویزیونی انگلیس برای کاهش ضررهای خود دوهزار کارمند بخش تماس بامشتریان را اخراج و هوش مصنوعی را جایگزین آنها می کند.
به گزارش خبرگزاری مهر به نقل از تلگراف، اسکای، شرکت پخش محتوای تلویزیونی و ارتباطات انگلیسی که سرویس اینترنت موبایل و ثابت را فراهم می کند دو هزار کارمند مرکز تماس با مشتریان خود را اخراج و چت بات ها را جایگزینشان می کند. این شرکت مدعی شده مردم از تماس با کارمندان خدمات مشتریان خسته شده اند.

این شرکت از سه مورد از ۱۰ مرکز تماس خود در استوک پورت، شفیلد و لیدز را تعطیل می کند و هفت درصد نیروی انسانی خود را کاهش می دهد.

در عوض اسکای روی کارمندانی که تمام وقت سرویس پشتیبانی چت آنلاین را انجام می دهند و مقر آنها خارج از انگلیس است و همچنین چت بات های هوش مصنوعی سرمایه گذاری می کند.

اسکای مدعی است اکنون بیشتر مشتریانش می خواهند فعالیت هایی مانند تجدید قرارداد و پرداخت صورتحساب را به جای تماس با پشتیبانی از طریق اپلیکیشن و وب انجام دهند.

این شرکت پیش بینی می کند در سال های آینده چند میلیون تماس کمتر دریافت کند به طوریکه حجم سالانه تماس ها از ۲۵ میلیون به ۱۷ میلیون در ۲۰۲۹ برسد.

این درحالی است که شرکت با ضررهای کلان روبرو است. اسکای در ۲۰۲۳ میلادی از ضرر ۷۷۳ میلیون پوندی خبر داد.

افول حکمرانی سختگیرانه در هوش مصنوعی

چهارشنبه, ۷ فروردين ۱۴۰۴، ۰۸:۴۳ ب.ظ | ۰ نظر

جریان هشداردهنده درباره هوش مصنوعی طی سال اخیر به شکل چشم‌گیری به حاشیه رانده شده و گفتمانی تازه، با رنگ و بوی عمل‌گرایی و خوش‌بینی فناورانه مطرح شد.

به گزارش مهر در سال‌های اخیر، نگرانی‌ها درباره مخاطرات فاجعه‌بار هوش مصنوعی به شکل فزاینده‌ای در فضای عمومی و حوزه سیاست‌گذاری جهانی مطرح شده است. طیف وسیعی از پژوهشگران، فناوران، دانشگاهیان و کنشگران اجتماعی نسبت به روند شتابان توسعه مدل‌های زبانی و سامانه‌های خودکار هشدار داده‌اند؛ روندی که به‌زعم آنان، در صورت تداوم بدون ضوابط ایمنی و اخلاقی، می‌تواند پیامدهایی مرگبار و برگشت‌ناپذیر برای آینده بشریت به‌دنبال داشته باشد.

این گروه که در گفتمان عمومی گاه با عنوان «AI doomers» شناخته می‌شوند، معتقدند ظهور سامانه‌های هوش مصنوعی فوق‌پیشرفته ممکن است به تضعیف نهادهای دموکراتیک، تمرکز بی‌سابقه قدرت اطلاعاتی و کنترل در دست نخبگان فناور، دستکاری افکار عمومی و حتی بروز سناریوهایی منتهی به انقراض انسان منجر شود.

اما در سال ۲۰۲۴، این جریان هشداردهنده که تا پیش از آن توانسته بود فضای سیاسی و رسانه‌ای را تا حدی تحت تأثیر قرار دهد، به شکل چشم‌گیری به حاشیه رانده شد و گفتمانی تازه، با رنگ و بوی عمل‌گرایی و خوش‌بینی فناورانه، جای آن را گرفت؛ گفتمانی که در آن، هوش مصنوعی مولد نه به‌عنوان یک تهدید، بلکه به‌مثابه نیروی پیشران رشد اقتصادی، کارایی نهادی و نوآوری فناورانه تصویر می‌شد. این چرخش پارادایم نه‌تنها در محافل سیاست‌گذاری، بلکه در رسانه‌ها، بازارهای سرمایه‌گذاری و گفتمان عمومی نیز بازتاب یافت و منافع آن، بیش از همه، متوجه شرکت‌های بزرگ فناوری و نهادهای سرمایه‌گذاری خطرپذیر بود.

نقطه عطف در ۲۰۲۳ و تغییر گفتمانی در ۲۰۲۴

سال ۲۰۲۳ را می‌توان نقطه عطفی در شکل‌گیری و گسترش جنبش ایمنی هوش مصنوعی دانست. در این سال، مجموعه‌ای از وقایع پر اهمیت موجب شد تا هشدارها نسبت به خطرات بنیادین فناوری‌های هوش مصنوعی از حاشیه محافل دانشگاهی و تحقیقاتی خارج شده و به اولویت‌هایی در سطح سیاست‌گذاری کلان تبدیل شوند. چهره‌هایی سرشناس مانند ایلان ماسک به‌همراه بیش از هزار پژوهشگر، استاد دانشگاه و مدیر فناوری، در بیانیه‌ای تاریخی خواستار توقف موقت توسعه مدل‌های زبانی پیشرفته شدند تا فرصتی برای طراحی چارچوب‌های ایمنی و اخلاقی فراهم گردد. در ادامه، نامه‌ای دیگر با امضای برخی از برجسته‌ترین دانشمندان فعال در شرکت‌هایی چون «OpenAI»، دیپ مایند و گوگل منتشر شد که در آن تصریح شده بود خطر انقراض بشریت ناشی از هوش مصنوعی باید همچون تهدیدات هسته‌ای، زیستی و اقلیمی به رسمیت شناخته شود.

دولت ایالات متحده به رهبری جو بایدن در واکنش به این فشارهای فزاینده، فرمان اجرایی جامعی صادر کرد که هدف آن حفاظت از مردم آمریکا در برابر آثار منفی سامانه‌های هوش مصنوعی، از جمله سوگیری الگوریتمی، تهدیدات امنیتی و آسیب‌های اقتصادی بود. همچنین، در تحولی بی‌سابقه، هیئت‌مدیره «OpenAI» تصمیم به برکناری مدیرعامل وقت، سم آلتمن گرفت و اعلام کرد که سطح اعتماد موردنیاز برای هدایت توسعه هوش مصنوعی جامع (AGI) از سوی وی تأمین نمی‌شود. این اقدام، هرچند موقتی، نشان‌دهنده حساسیت بی‌سابقه نسبت به مسئولیت‌پذیری در قبال فناوری‌های تحول‌آفرین بود.

با این حال، این جریان پرشتاب و پرطنین که در سال ۲۰۲۳ توانسته بود توجه جهانیان را به خود جلب کند، در سال ۲۰۲۴ با موجی از مقاومت مواجه شد و به تدریج از مرکز گفتمان سیاست‌گذاری کنار رفت.

خیزش گفتمان خوش‌بینانه و ضد تنظیم‌گری

در سال ۲۰۲۴، گفتمان خوش‌بینانه نسبت به آینده هوش مصنوعی با حمایت گسترده شرکت‌های بزرگ فناوری، صندوق‌های سرمایه‌گذاری خطرپذیر و کارآفرینان بانفوذ سیلیکون‌ولی به‌شکل گسترده‌تری رواج یافت. این جریان گفتمانی تلاش کرد تا روایتی مسلط از هوش مصنوعی به‌عنوان عامل نجات‌بخش اقتصاد، تضمین‌کننده برتری ملی و شتاب‌دهنده نوآوری شکل دهد؛ روایتی که در تقابل مستقیم با هشدارها بود.

مارک اندریسن، بنیان‌گذار شرکت سرمایه‌گذاری «a16z»، در این سال، در مقاله‌ای پرسر و صدا با عنوان «چرا هوش مصنوعی جهان را نجات خواهد داد»، با لحنی قاطع و طعنه‌آمیز به رویکرد بدبینانه تاخت و آن را فاقد بنیادهای عقلانی و علمی دانست. او در این نوشتار، هوش مصنوعی را فرصتی تاریخی توصیف کرد که باید با تمام توان آن را به‌کار گرفت، حتی اگر به قیمت عبور از ضوابط سنتی تنظیم‌گری باشد. اندریسن با استناد به منطق رقابت‌پذیری جهانی، به‌ویژه در برابر چین، از بازتولید ایده معروف «سریع حرکت کن و همه‌چیز را به هم بزن» دفاع کرد و آن را راه‌حلی ضروری برای تضمین جایگاه رهبری آمریکا در عصر حاضر دانست.

هم‌زمان با گسترش این گفتمان خوش‌بینانه، حمایت نهادهای سیاسی از رویکرد ایمنی نیز رو به افول گذاشت. بازگشت سم آلتمن به ریاست «OpenAI»، تنها چند روز پس از برکناری جنجالی‌اش، نشانه‌ای از تثبیت مجدد نگاه تجاری و توسعه‌محور در رأس یکی از مهم‌ترین شرکت‌های هوش مصنوعی جهان بود. هم‌زمان، گروهی از پژوهشگران حوزه ایمنی که پیش‌تر در این شرکت فعال بودند، در اعتراض به تغییر اولویت‌های سازمانی و کمرنگ شدن ملاحظات اخلاقی، آن را ترک کردند. افزون بر این، فرمان اجرایی جو بایدن که در سال ۲۰۲۳ با هدف تقویت ایمنی و شفافیت در توسعه هوش مصنوعی صادر شده بود، در سال ۲۰۲۴ عملاً بی‌اثر شد و با روی کار آمدن دونالد ترامپ در جایگاه رئیس‌جمهور منتخب، رسماً لغو شد. ترامپ و مشاوران نزدیکش که عمدتاً از چهره‌های مخالف تنظیم‌گری محسوب می‌شوند، صراحتاً اعلام کردند که رویکرد نظارتی دولت پیشین مانعی برای نوآوری و تهدیدی برای رقابت‌پذیری آمریکا بوده است. این مجموعه تحولات، چرخش آشکار فضای سیاست‌گذاری ایالات متحده را از نگرانی‌های ایمنی به‌سوی اولویت‌های اقتصادی و ژئوپلیتیکی نمایان ساخت.

لایحه «SB 1047»؛ صحنه تقابل رویکردها

مهم‌ترین میدان تقابل میان دو طرف در سال ۲۰۲۴، لایحه «SB 1047» در ایالت کالیفرنیا بود؛ لایحه‌ای که با حمایت پژوهشگرانی چون جفری هینتون و یوشوا بنجیو و به ابتکار سناتور اسکات وینر تدوین شد. هدف این لایحه، ایجاد نظامی ایمنی‌محور برای مهار مخاطرات بالقوه سامانه‌های پیشرفته هوش مصنوعی بود؛ مخاطراتی از جمله حملات سایبری در مقیاس ملی، پیامدهای اقتصادی فاجعه‌بار و حتی سناریوهای تهدیدآمیز برای بقای انسان. لایحه با تعیین الزامات خاصی برای توسعه‌دهندگان مدل‌های هوش مصنوعی بسیار بزرگ، از جمله تعهد به ارزیابی ایمنی و ارائه گزارش‌های منظم به دولت ایالتی، کوشید چارچوبی قانونی برای کاهش ریسک‌های بلندمدت توسعه این فناوری فراهم آورد. لایحه مذکور با وجود مخالفت‌های گسترده، توانست از با موفقیت از مجلس قانون‌گذاری کالیفرنیا عبور کند، اما در مرحله نهایی، با وتوی فرماندار کالیفرنیا، گوین نیوسام مواجه شد.

نیوسام در توضیح تصمیم خود، اظهار داشت که «نمی‌توان با این لایحه همه مشکلات را حل کرد» و با این جمله، نوعی واقع‌گرایی اجرایی را بازتاب داد که در میان بسیاری از سیاست‌گذاران رواج یافته است: اذعان به پیچیدگی‌های فنی و اجرایی تنظیم‌گری در حوزه‌ای که با سرعت بی‌سابقه در حال تحول است و فاقد ابزارهای نظارتی آزموده‌شده و کارآمد به شمار می‌رود.

در برابر این لایحه، موجی از مخالفت سازمان‌یافته از سوی شرکت‌های سرمایه‌گذاری خطرپذیر، از جمله «Y Combinator» و «a16z»، به راه افتاد. این نهادها با راه‌اندازی کمپین‌های تبلیغاتی گسترده، از جمله انتشار نامه‌های سرگشاده و مصاحبه‌های رسانه‌ای، کوشیدند افکار عمومی و کارآفرینان جوان را نسبت به پیامدهای احتمالی این قانون نگران سازند. یکی از محوری‌ترین ادعاهای این کمپین، امکان تعقیب کیفری توسعه‌دهندگان به دلیل ارائه اطلاعات نادرست در گزارش‌های ایمنی بود. ادعایی که از سوی نهادهایی نظیر مؤسسه بروکینگز، تحریف واقعیت دانسته شد، چراکه لایحه صرفاً به قاعده‌ای عمومی اشاره کرده بود مبنی بر اینکه درج اطلاعات نادرست در اسناد رسمی، می‌تواند مصداق شهادت دروغ تلقی شود؛ قاعده‌ای که پیش‌تر نیز در نظام حقوقی وجود داشته و کمتر موجب پیگرد قضائی شده است. با این حال، فضای رسانه‌ای ایجادشده توسط مخالفان باعث شد تا لایحه در افکار عمومی به‌مثابه تهدیدی علیه نوآوری و آزادی فناورانه جلوه کند.

افول گفتمان ایمنی و پیامدهای اجتماعی

سال ۲۰۲۴ نه‌تنها صحنه افول گفتمان فاجعه محور به هوش مصنوعی، بلکه دوره تثبیت و قدرت‌گیری روایتی فناورانه و اقتصادی بود که در آن مفاهیمی همچون رقابت راهبردی با چین، بهره‌گیری نظامی از ظرفیت‌های هوش مصنوعی و تبدیل این فناوری به موتور محرک رشد اقتصادی، به‌طور کامل بر نگرانی‌های اخلاقی، انسانی و ایمنی غلبه یافتند. در این گفتمان غالب، هوش مصنوعی نه‌تنها تهدید تلقی نمی‌شد، بلکه فرصتی راهبردی برای برتری ژئوپلیتیک و تسلط فناورانه محسوب می‌شد. استفاده گسترده از واژگان توسعه‌محور در بیانیه‌ها، نشست‌ها و اسناد سیاستی نیز بیانگر تغییر لحن و اولویت‌گذاری سیاست‌گذاران بود؛ تغییری که در آن، هشدارها درباره سناریوهای فاجعه‌بار بیشتر به‌چشم مانعی بر سر راه نوآوری تعبیر می‌شدند.

با این حال، جریان مدافع ایمنی، به‌رغم شکست‌های مقطعی، عقب ننشسته است. حامیان لایحه «SB 1047»، از جمله نهادهایی مانند «Encode» و برخی سناتورهای ایالتی، اعلام کرده‌اند که در سال ۲۰۲۵ با نسخه‌ای اصلاح‌شده و احتمالاً هدفمندتر، بازخواهند گشت. هدف آن‌ها ایجاد تعادلی میان پویایی فناورانه و ضرورت‌های اخلاقی و ایمنی در توسعه سامانه‌های پیشرفته هوش مصنوعی است. از سوی دیگر، سرمایه‌گذاران و کنشگران مخالف تنظیم‌گری نیز نشانه‌های روشنی از بسیج دوباره منابع مالی، رسانه‌ای و سیاسی خود برای مقابله با هرگونه مداخله قانونی بروز داده‌اند. چشم‌انداز این تقابل، از هم‌اکنون نشانه‌هایی از یکی از جدی‌ترین رویارویی‌های سیاست‌گذاری در حوزه فناوری را در سال پیش‌رو ترسیم می‌کند.

با وجود گفتمان غالب خوش‌بینانه، برخی رخدادها یادآور آن هستند که خطرات هوش مصنوعی، صرفاً مفاهیمی تخیلی یا آینده‌نگر نیستند.

به‌نظر می‌رسد سال ۲۰۲۵ میدان جدیدی برای رویارویی گفتمان‌های متضاد درباره آینده هوش مصنوعی باشد؛ از یک‌سو تلاش برای طراحی نظام‌های ایمنی و پاسخ‌گویی و از سوی دیگر، مقاومت سازمان‌یافته در برابر هرگونه تنظیم‌گری. اما واقعیت این است که نادیده‌گرفتن تهدیدات، خود می‌تواند خطرناک‌ترین انتخاب باشد.

بکارگیری یک ماهه هوش مصنوعی در یک روزنامه

شنبه, ۳ فروردين ۱۴۰۴، ۰۹:۵۸ ب.ظ | ۰ نظر

روزنامه ایتالیایی با استفاده از ChatGPT نسخه‌های هوش‌مصنوعی منتشر می‌کند و هدف آن را احیای روزنامه‌نگاری اعلام کرده، نه جایگزینی آن.

به گزارش خبرگزاری سینا، در اقدامی بی‌سابقه، یک روزنامه ایتالیایی به مدت یک ماه نسخه‌ای کاملاً تولیدشده توسط هوش مصنوعی را منتشر می‌کند. مدیر این روزنامه اعلام کرده که اقدام آنها یک آزمایش برای «احیای روزنامه‌نگاری است، نه ازبین‌بردن آن.»

روزنامه مذکور که IL Foglio نام دارد، ادعا می‌کند اولین روزنامه در جهان است که نسخه‌های کاملاً تولیدشده توسط هوش‌مصنوعی را منتشر می‌کند. از روز سه‌شنبه گذشته این روزنامه تولید نسخه‌های هوش‌مصنوعی چهار صفحه‌ای روزانه را به‌صورت چاپی و آنلاین آغاز کرده است. اطلاعات این نسخه شامل حدود 22 مقاله و سه سرمقاله می‌شود.
برای ساخت این نسخه، حدود 20 روزنامه‌نگار این روزنامه از نسخه‌ای از چت‌بات ChatGPT شرکت OpenAI می‌خواهند تا داستانی درباره یک موضوع خاص را با لحنی خاص بنویسد. سپس ChatGPT متنی را با استفاده از اطلاعات جمع‌آوری‌شده از اینترنت تولید می‌کند.

«کلودیو سراسا»، مدیر IL Foglio، در گفت‌وگو با خبرگزاری فرانسه (AFP) می‌گوید: «با این آزمایش به مخاطبان بسیار بزرگ‌تری دست پیدا کرده‌ایم. بسیاری از افراد به لطف هوش مصنوعی درحال کشف روزنامه سنتی ما هستند. در روز اول، فروش ما 60 درصد افزایش یافت.»

همچنین او درباره تفاوت نیروی روزنامه‌نگار انسانی و هوش مصنوعی می‌گوید: «مقالات نوشته‌شده توسط انسان‌ها بهتر هستند، زیرا همیشه چیزی بیشتر دارند؛ همیشه عنصری از خلاقیت، ارتباط و ایجاد پیوندهای غیرقابل پیش‌بینی در آنها وجود دارد که هوش مصنوعی فاقد آن است.»

براساس اعلام منابع رسانه‌ای دو شرکت آمریکایی گوگل و اوپن.ای.آی که سرمایه‌گذاری گسترده‌ای روی توسعۀ مدل‌های هوش مصنوعی انجام داده‌اند، خواستار دور زدن قانون کپی‌رایت در این کشور شده‌اند.
معافیت از آموزش مدل‌های هوش مصنوعی با استفاده از مطالبی که مشمول قانون کپی رایت در آمریکا می‌شوند، خواستۀ این شرکت‌ها از دولت دوم ترامپ است.

بهمن ماه گذشته دولت جدید آمریکا برنامه خود برای هوش مصنوعی را منتشر کرد و بعد از آن از فعالین خصوصی زیست‌بوم فناوری این کشور خواست که نظرات خود را برای تقویت جایگاه آمریکا به عنوان یک مرکز اصلی هوش مصنوعی در جهان ارائه دهند.

پس از اعلام عمومی دولت ترامپ برای احصاء نظرات شرکت‌های فناوری، شرکت اوپن.ای.آی مدعی شد سیستم قدرتمند حفظ حقوق مالکیت معنوی در آمریکا برای چند دهه به رهبری این کشور در زمینه نوآوری کمک کرده است اما ما پیشنهاد می‌دهیم که در عین حفاظت کافی از حقوق تولیدکنندگان محتوا، ترتیبی اتخاذ شود که نقش آمریکا در رهبری هوش مصنوعی در آیندۀ جهان نیز خدشه نپذیرد و امنیت ملی آمریکا در عصر اطلاعات تضمین شود.

نگران کدام بخش‌های «هوش مصنوعی» باشیم؟

دوشنبه, ۲۷ اسفند ۱۴۰۳، ۱۲:۲۴ ب.ظ | ۰ نظر

برخی نگرانی‌ها درمورد هوش مصنوعی صرفاً حدس‌وگمان هستند اما خطرات واقعی نیز وجود دارد. این‌را کسی می‌گوید که هدفش این‌است‌که این فناوری را برای عموم مردم شفاف‌سازی کند و این سخنان را در سخنرانی‌های سالانه کریسمس مؤسسه سلطنتی مطرح کرد.

هوش مصنوعی GPS را حذف می‌کند

شنبه, ۲۵ اسفند ۱۴۰۳، ۰۵:۴۳ ب.ظ | ۰ نظر

یک استارت آپ برای مکان یابی و مسیریابی خودرو هوش مصنوعی را جایگزین جی پی اس می کند.
به گزارش خبرگزاری مهر به نقل از تک کرانچ، گاهی اوقات سرویس جی پی اس با اختلال روبرو می شود و همین امر کاربر را در بزرگراه ها سرگردان می کند. اکنون گروهی از محققان در استارت آپ Tern AI یک نسخه جایگزین ارزان قیمت جی پی اس را می سازند زیرا معتقدند فناوری مذکور به دلیل اتکا به موقعیت ماهواره با محدودیت هایی روبرو است.

این استار آپ می تواند موقعیت خودرو را فقط با کمک اطلاعات نقشه و حسگرهای داده وسیله نقلیه، مکان یابی کند. در بیانیه شرکت آمده است: این یک سیستم ارزان است که نیازی به حسگرهای گرانقیمت اضافی ندارد.

برت هریسون یکی از بنیانگذاران شرکت می گوید: ما بدون تقسیم بندی ناحیه ای به شکل مثلث، ماهواره و وای فای مکان خودرو را ردیابی می کنیم. از سوی دیگر سیروس بهروزی توسعه دهنده ارشد نرم افزار این شرکت هنگام نمایش دموی محصول در آیفون خود گفت: ما فقط باید بدانیم کاربر کجاست. این فناوری انقلابی است زیرا ما از فناوری مبتنی بر تقسیم بندی ناحیه ای به شکل مثلث گذر کرده ایم و اکنون توانایی فعالیت بدون نیاز به شبکه ارتباطات را داریم.

به گفته هریسون این دستاورد به چند دلیل اهمیت دارد، از نقطه نظر تجاری شرکت هایی که به جی پی اس متکی هستند، از جمله اپ های تاکسی اینترنتی هربار که راننده مسیری را به دلیل موقعیت یابی نادرست جی پی اس گم می کند با ضرر مالی و هزینه اضافه پول بنزین روبرو می شوند.

بهروزی برای نمایش این فناوری نخست با کمک بلوتوث موبایل خود به یک خودروی هوندا سیویوک2019 متصل شد تا اپلیکیشن Tern بتواند داده های واقعی حسگرهای خودروها را دریافت کند. به گفته او این فناوری به طور مستقیم با خودرو یکپارچه می شود. به طور معمول این فناوری موقعی خودرو را به طور دستی تنظیم می کند تا فرایند را تسریع کند اما در نمایش فناوری بهروزی از نقطه صفر شروع کرد. او سرویس موقعیت یابی موبایل را خاموش کرد تا سیستم هوشمند این فناوری فقط به نقشه ای از یک منطقه 500 مایل مربعی دست یابد و با حسگرهای خودرو کار کند.

همزمان با حرکت خودرو سیستم داده های جاده را برای همگرایی بیشتر ثبت کرد. حدود 10 دقیقه طول کشید تا سیستم به همگرایی کامل با خودرو برسد.

به گفته هریسو سیستم این شرکت می تواند مکان خودرو در پارکینگ، تونل و قله ها را بیابد حال آنکه جی پی اس در انجام چنین فعالیتی با مشکل روبرو می شود.

سیستم های حیاتی در صنایع مختلف از هوانوردی گرفته تا واکنش سریع به بلایا و کشاورزی دقیق، همه به جی پی اس اتکا دارند. دشمنان خارجی هم اکنون نشان داده اند که می توانند سیگنال های جی پی اس را مختلف کنند که همین امر تاثیرات فاجعه باری برای اقتصاد و امنیت ملی خواهد داشت.

در همین راستا آمریکا قبلا قصد خود برای اولویت دادن به جایگزین های جی پی اس را اعلام کرده بود.

مطالعه‌ای نشان می‌دهد که آمازون از الگوریتم‌ها و فناوری‌های پیشرفته برای نظارت دقیق و سرکوب جنبش‌های اتحادیه‌ای در انبار بسمر استفاده کرده است.
باشگاه خبرنگاران جوان - یک مطالعه جدید درباره تلاش‌های ضد اتحادیه آمازون در انبار این شرکت در بسمر، آلاباما، اولین تحقیق دانشگاهی است که به بررسی استفاده آمازون از الگوریتم‌ها برای سرکوب جنبش‌های اتحادیه در یکی از انبارهای گسترده آن می‌پردازد. این مطالعه توسط تک ویگین، محقق دانشگاه نورث‌وسترن، انجام شده و از مصاحبه‌های متعدد با کارکنان و درخواست‌های آزادی اطلاعات به هیئت روابط کار ملی استفاده کرده است.

در نهایت، انتخابات اتحادیه در سال 2021 در بسمر با شکست کارکنان در پیوستن به اتحادیه خرده‌فروشی، عمده‌فروشی و فروشگاه‌های زنجیره‌ای (RWDSU) به پایان رسید و آمازون موفق شد از سیستم نظارتی و انضباطی گسترده خود برای سرکوب این جنبش استفاده کند.

از زمان انتخابات 2021، آمازون دستور برگزاری دو انتخابات دیگر در این کارخانه را دریافت کرده است. با این حال، شرکت با استفاده از فناوری‌های قدیمی و نوین، به‌ویژه الگوریتم‌ها، به‌طور ماهرانه‌ای از سازماندهی کارکنان جلوگیری کرده است. تاکتیک‌های مدرن آمازون که ویگین به آنها اشاره کرده شامل استفاده از انضباط الگوریتمی روی دستگاه‌های کارکنان، کاهش تنش‌های الگوریتمی یا "ضربه الکترونیکی" و نظارت بر رسانه‌های اجتماعی است.

آمازون دستگاه‌هایی که در انبارها برای هدایت و نظارت بر کارکنان استفاده می‌شود را برای ارسال پیام‌های ضد اتحادیه، طرح سوالات برای ارزیابی گرایش‌های اتحادیه‌ای و تهدید کارکنان در جلسات "تماشای اسیرانه" به کار می‌برد. در این جلسات، کارکنان تحت نظارت اطلاعات دیجیتالی در طول روز قرار داشتند.

آمازون همچنین از نرم‌افزارها و الگوریتم‌ها برای نظارت بر رسانه‌های اجتماعی استفاده کرده است. در این مطالعه آمده که آمازون برنامه نظارتی رسانه‌های اجتماعی‌ای داشت که بیش از 43 گروه فیسبوک و سایت‌های مختلف را رصد می‌کرد.

این مطالعه نشان می‌دهد که آمازون فقط از الگوریتم‌ها برای نظارت بر کارکنان استفاده نمی‌کند، بلکه از آنها برای مقابله با اتحادیه‌ها نیز بهره می‌برد. این ابزارها به‌طور فعال برای مقابله با اعتراضات و سرکوب دموکراتیک طراحی شده‌اند.

ویگین در پایان می‌نویسد که رژیم‌های انبار آمازون ویژگی‌های استبدادی دارند، زیرا از تکنیک‌های کنترل ستمگرانه مانند مدیریت الگوریتمی استفاده می‌کنند و شرایط ستمگرانه در بازار کار و انضباط الگوریتمی را به‌طور ضمنی ایجاد می‌کنند.

سکوی ملی هوش مصنوعی رونمایی شد

شنبه, ۲۵ اسفند ۱۴۰۳، ۰۵:۲۵ ب.ظ | ۰ نظر

امروز سکوی ملی هوش مصنوعی که توسط معاونت علمی، فناوری و اقتصاد دانش بنیان ریاست جمهوری به مقام معظم رهبری وعده داده شده بود رونمایی شد. این پروژه ۶ ماه است که شروع شده و اسفند سال ۱۴۰۴ به مرحله استفاده عمومی می‌رسد.

به گزارش آنا حسین افشین معاون علمی رئیس جمهور در این مراسم با تاکید بر تحقق وعده به رهبری گفت: این سکو، یک تکنولوژی صرف نیست؛ این بستر تحقق «عدالت فناورانه» در ایران است. از امروز، دانشجویی در یک روستای دورافتاده یا محققی در قلب تهران، به یک اندازه از هوش مصنوعی بهره خواهند برد.

حسین افشین در ادامه مراسم رونمایی از سکوی ملی هوش مصنوعی با اشاره به تاکیدات رهبری بر ایجاد سکوی هوش مصنوعی گفت: «یازدهم مهرماه که «برنامه ملی هوش مصنوعی ایران» را به دستان شما سپردیم، گفتیم اسفند، ماه تحقق یک رؤیاست. همان روز در نمایشگاه پیشگامان پیشرفت، از زمان پایان کار پرسیدید و با تأکید فرمودید: «کار مهمی است؛ حتماً پیگیری کنید.»
امروز، اینجا در اسفندماه، با غرور و البته فروتنی می‌گویم:«سکوی ملی هوش مصنوعی ایران»، تحقق‌یافته، ملموس و واقعی پیش روی شما و مردم ایران است.»

 

تقویم اجرای سکوی ملی هوش مصنوعی

افشین گفت: ما همان‌طور که پای قولمان ایستادیم، این مسیر همچنان ادامه دارد. ما این راه را گام‌به‌گام پیش خواهیم برد؛  در سه‌ماهه اول ۱۴۰۴، تست و بهینه‌سازی محصولات آغاز خواهد شد. در سه‌ماهه دوم ۱۴۰۴، افراد خبره دانشگاهی و شرکت‌های دانش‌بنیان دسترسی محدود به این محصولات خواهند داشت تا تست‌های تکمیلی و اعتبارسنجی انجام شود. در شهریور ۱۴۰۴، نسخه‌ آزمایشی بتا رونمایی خواهد شد و در اسفندماه ۱۴۰۴، نسخه‌ی نهایی و تکمیلی، با قابلیت‌های گسترده‌تر و پایداری بالا ارائه خواهد شد.

وی اضافه کرد: ما پای قولمان بودیم و پای تعهدمان به آینده هم خواهیم ماند. این مسیر، یک مسیر تدریجی اما قطعی است. فرآیند توسعه‌ سکوی ملی توسط همه‌ دانشگاه‌ها و با فراخوانی که برگزار کردیم و تا این لحظه ۳۸ شرکت دانش بنیان مشارکت کردند انجام میشود. امروز، تنها نقطه‌ شروع است و ایران در مسیر تحقق استقلال فناورانه گام‌به‌گام به جلو خواهد رفت.

 

دستیاران هوشمند دولت و وزرا

افشین گفت: در کنار این گام‌ها، یک پروژه‌ی ملی دیگر را نیز با سرعت به پیش می‌بریم: «دستیاران هوشمند دولت و وزرا». ما اکنون قراردادهایی جدی با ۱۳ دانشگاه برتر کشور امضا کرده‌ایم. متخصصان دانشگاهی آماده‌اند تا به محض دریافت داده‌ها از سازمان‌ها و وزارتخانه‌ها، نسل جدیدی از ابزارهای هوشمند مدیریتی را در دستگاه‌های اجرایی مستقر کنند؛ در برخی حوزه‌ها این فرایند حتی آغاز شده و نتایج امیدوارکننده‌ای به دنبال داشته است. هدف از این دستیارها چیزی جز افزایش دقت، سرعت و هوشمندی در تصمیم‌گیری و مدیریت کشور نیست. این ابزارها به دولت کمک می‌کنند تا تصمیماتش، دقیق‌تر، انسانی‌تر و هوشمندانه‌تر باشد.

معاون علمی رئیس جمهور گفت: ما در معاونت علمی و فناوری، نوع دیگری از دیپلماسی را در سکوت و دور از چشم رسانه‌ها دنبال می‌کنیم: دیپلماسی علمی و فناورانه. اکنون معاونت علمی، ارتباطاتی وسیع و عمیق با کشورهای پیشرو در حوزه‌ی هوش مصنوعی دارد که ترجیح می‌دهیم جزئیات آن تا زمان رسیدن به نتایج قطعی، در سکوت باقی بماند؛ چراکه معتقدیم دیپلماسی علم و فناوری هرچه در سکوت جلو رود، صدایش در عمل بلندتر خواهد بود.

 

پیشرفت در زیرساخت های  هوش مصنوعی، سکو و بازارها

حسین افشین، معاون علمی، فناوری و اقتصاد دانش‌بنیان رئیس جمهور در حاشیه این مراسم در جمع خبرنگاران اظهار کرد: خوشحالم که در ۲۵ اسفند ۱۴۰۳، در روز‌های پایانی سال، شاهد اتفاق بزرگی در کشور هستیم و سکوی ملی هوش مصنوعی ایرانی در نسخه اولیه را رونمایی کردیم. یکی از مهم‌ترین پارامتر‌هایی که در توسعه هوش مصنوعی کشور‌ها دنبال می‌شود، دو حوزه اصلی است: یکی حوزه زیرساخت‌های هوش مصنوعی و دیگری سکو‌ها و بازارگاه‌ها. خوشحالیم که امروز در دو بخش پیشرفت‌های چشمگیری داشته‌ایم.

وی توضیح داد: اول در بحث زیرساخت که خوشبختانه زیرساخت‌های لازم تهیه شده و هم‌اکنون در کشور در حال انجام مراحل حفاظتی آن هستیم که امیدواریم به‌زودی نصب شود. دوم، بحث سکوی نرم‌افزاری و ملی هوش مصنوعی است که این سکو به ما کمک می‌کند تا بدون نیاز به استفاده از IP‌های خارجی، از الگوریتم‌های داخلی که با نسخه‌های مختلف زبان‌های برنامه‌نویسی نوشته شده‌اند، استفاده کنیم.

وی با اشاره به مزیت‌های این سکوی هوش مصنوعی گفت: اولاً کشور را مستقل می‌کند و ثانیاً هر یک از محققان ما که بخواهند در زمینه هوش مصنوعی کار کنند، می‌توانند با هزینه‌ای بسیار کم، الگوریتم‌ها، مدل‌ها و استودیو‌های خود را ایجاد کنند.  فکر می‌کنم اتفاق بسیار مهمی رخ داده است. ما کار روی این پروژه را از ۲۹ مهر ماه آغاز کردیم. در واقع، در ۱۱ مهر قول دادیم که این پروژه را شروع خواهیم کرد و بین ۱۱ مهر تا ۲۹ مهر ماه تلاش کردیم تا قرارداد‌های مربوطه را منعقد کنیم. از ۲۹ مهر ماه تا امروز که ۲۵ اسفند است، یک تیم صد نفره به‌صورت شبانه‌روزی روی این پروژه کار کرده‌اند.

معاون علمی رئیس جمهور ادامه داد: در ابتدا این تیم با ۵۰ نفر شروع به کار کرد، سپس به ۸۰ نفر افزایش یافت و امروز، صد پژوهشگر شامل دانشجویان دکتری، اساتید دانشگاه و پژوهشگران مستقل در این تیم حضور دارند. این دستاورد حاصل همت و تجربه‌ای ۱۰ ساله است. دانشی که در طول ۱۰ سال گذشته انباشته شده بود، ما سعی کردیم آن را همگرا و در این مسیر متمرکز کنیم. به همین دلیل توانستیم در مدت زمان کوتاهی به این موفقیت دست یابیم.

وی افزود: سال آینده قطعاً خبر‌های خوبی در زمینه هوش مصنوعی خواهیم داشت. تمام پژوهشگران و شرکت‌های دانش‌بنیان به این سکو اضافه خواهند شد و در اسفند ماه ۱۴۰۴، نسخه نهایی همراه با نوآوری‌های مدل‌سازی ارائه خواهد شد تا بتوانیم حرف جدیدی در دنیا بزنیم.

افشین تأکید کرد: البته این سکو یک موجود زنده است و نمی‌توانیم بگوییم که در اسفند ماه سال آینده نقطه پایانی خواهد بود، بلکه این یک شروع برای گسترش و توسعه نمایی علم است. ما نیز باید به‌صورت نمایی انرژی و تمرکز خود را افزایش دهیم و هر روز این سکو را به‌روزرسانی کنیم. امروز یک نقطه گذاشته‌ایم که این نقطه به یک خط، سپس به یک صفحه و در نهایت به یک موجود چندبعدی تبدیل خواهد شد.

وی تصریح کرد: نکته مهم این است که شما به عنوان رسانه باید پیگیر باشید که آیا اهداف در حال پیگیری هستند یا خیر. تلاش ما در این مدت کوتاه، تحول در حوزه هوش مصنوعی بوده است.

افشین ادامه داد: هوش مصنوعی امروز و دیروز نیست، بلکه از سال ۱۹۵۰ آغاز شده و در سال ۱۹۵۶ نام «هوش مصنوعی» بر آن گذاشته شد. از سال ۲۰۱۰ به اوج خود رسید و نقطه‌ای که ما امروز شروع کرده‌ایم، مربوط به سال ۲۰۱۰ است. باید پرسید که چرا در این مدت به این حوزه توجه نشده است.

وی خاطرنشان کرد: امیدواریم با تلاش‌های بی‌وقفه، بدون ایجاد حاشیه و با کمک پژوهشگران داخل دانشگاه‌ها، شرکت‌های فناوری و همچنین ایرانیان خارج از کشور که در این پروژه به ما کمک کرده‌اند، این مسیر ادامه یابد.

معاون علمی ریاست‌جمهوری اظهار کرد: دو تیم از دو کشور خارجی نیز به محققان ما اضافه خواهند شد. ما از تجربه بین‌المللی نیز استفاده می‌کنیم، البته فعلاً نام این کشور‌ها را ذکر نمی‌کنم. کار‌هایی انجام شده است که محققان آنها در توسعه سکوی ما کمک کنند و ما نیز در توسعه سکوی آنها مشارکت داشته باشیم.

وی افزود: تفاهم‌نامه‌ای چندجانبه بین ما و آنها منعقد شده است تا بتوانیم از تجربه بین‌المللی در این زمینه استفاده کنیم. در مورد مزرعه پردازنده‌های گرافیکی نیز تلاش‌های زیادی در دولت انجام شده و خرید‌های لازم صورت گرفته است. هم‌اکنون این تجهیزات در کشور موجود است و تنها نیاز به نصب دارند.

افشین تأکید کرد: امروز هیچ دغدغه‌ای از لحاظ زیرساختی نداریم و به‌روزترین تجهیزات دنیا برای کشور خریداری شده‌اند. فکر می‌کنم ظرف دو سه روز آینده مراحل نصب نیز انجام خواهد شد. یکی از کار‌هایی که دوست داریم انجام دهیم این است که هوش مصنوعی را برای مردم ملموس و قابل درک کنیم. یکی از کار‌هایی که می‌خواهیم در یکی از پارک‌ها، احتمالاً پارک عباس‌آباد، انجام دهیم، ایجاد یک مسیر پیاده‌روی هوشمند است.

وی تصریح کرد: به این معنا که مردم وقتی به این پارک می‌آیند، هوش مصنوعی را به‌طور ملموس و با پوست و گوشت خود درک می‌کنند. ما در حال انجام کار‌های لازم برای این پروژه هستیم و امیدواریم در سال جدید، این مسیر پیاده‌روی هوشمند که در تپه‌های عباس‌آباد قرار دارد، راه‌اندازی خواهد شد.

معاون علمی  تأکید کرد: یکی از کار‌هایی که این سکو انجام می‌دهد و آقای دکتر در ارائه‌شان به آن اشاره نکردند، این است که در بخش بعدی، به کودکان آموزش می‌دهیم چگونه می‌توانند ماژول‌های جدید به این سکو اضافه کنند.

وی افزود: برای جلوگیری از موازی‌کاری در حوزه هوش مصنوعی، باید تقسیم‌کار مناسبی بین نهاد‌های مختلف صورت گیرد. در حال حاضر، نهاد‌های مختلفی در حوزه هوش مصنوعی فعال شده‌اند و اگر همه بخواهند همه کار‌ها را انجام دهند، هیچ اتفاق خاصی نخواهد افتاد.

افشین در پایان گفت: هوش مصنوعی باید در تمام وزارتخانه‌ها و دستگاه‌های اجرایی مانند وزارت نفت، کشاورزی و دیگر بخش‌ها مطرح شود. به نظر من، این اتفاق بسیار خوبی است که مسئله هوش مصنوعی در اولویت کشور قرار گرفته است.

اما این فقط یک نقطه نیست، بلکه آغاز یک مسیر است. امروز، فقط رونمایی از یک سکو نیست؛ ما آینده را به‌صورت متن‌باز به دست تک‌تک فرزندان ایران سپرده‌ایم. این سکو، یک تکنولوژی صرف نیست؛ این بستر تحقق «عدالت فناورانه» در ایران است. از امروز، دانشجویی در یک روستای دورافتاده یا محققی در قلب تهران، به یک اندازه از هوش مصنوعی بهره خواهند برد.

امروز، ایران عضو باشگاه جهانی هوش مصنوعی شده است و این عضویت را مدیون تیم بی‌ادعا و متعهدی هستیم که زیرساخت پردازش پرقدرت داده‌ها (GPU Farm) را در قلب این سرزمین فراهم کرده‌اند.

ما پای قولمان بودیم، و پای تعهدمان به آینده هم خواهیم ماند. این مسیر، یک مسیر تدریجی اما قطعی است. فرآیند توسعه‌ی سکوی ملی توسط همه‌ی دانشگاه‌ها و با فراخوانی که برگزار کردیم و تا این لحظه ۳۸ شرکت دانش بنیان مشارکت کردند انجام میشود. امروز، تنها نقطه‌ی شروع است و ایران در مسیر تحقق استقلال فناورانه گام‌به‌گام به جلو خواهد رفت.

آثار تورم بر بودجه وزارت ارتباطات

شنبه, ۱۸ اسفند ۱۴۰۳، ۰۴:۲۲ ب.ظ | ۰ نظر

مینا علیزاده - هر چند گزارش اخیر مرکز پژوهش‌های مجلس از بخش دوم لایحه بودجه سال ۱۴۰۴ نشان می‌دهد که بودجه وزارت ارتباطات رشد ۲۳درصدی داشته است، اما کارشناسان چنین رشدی را در برابر رشد تورم ناکافی ارزیابی می‌کنند. آنها معتقدند که این رقم نسبت به نرخ تورم از ارزش واقعی کمتری برخوردار است و نمی‌توان آن را افزایش قابل توجهی تلقی کرد. به بیان دیگر، اگرچه بودجه اسمی وزارت ارتباطات روندی صعودی داشته، اما با تاثیر کاهش ارزش پول، قدرت خرید و توانایی اجرای پروژه‌های بزرگ توسط این وزارتخانه عملا تغییر چندانی نخواهد کرد.

 

افزایش اسمی یا تغییرات واقعی؟

طی روزهای گذشته انتشار گزارشی از سوی مرکز پژوهش‌های مجلس در خصوص بخش دوم لایحه بودجه ۱۴۰۴ بار دیگر بحث پیرامون اعتبارات دستگاه‌های اجرایی وزارت ارتباطات و فناوری اطلاعات را داغ کرده است. جزئیات اعتبارات دستگاه‌های اجرایی ذیل وزارت ارتباطات در لایحه بودجه سال آینده حاکی از آن است که مجموع اعتبارات و دستگاه‌های تابع این وزارتخانه با رشد ۲۳درصدی از اعتبار ۱۹۳ هزار میلیارد ریال سال ۱۴۰۳ به ۲۳۷هزار میلیارد ریال در سال ۱۴۰۴ رسیده است. همچنین می‌توان به این نکته نیز اشاره کرد که ۹۴ درصد اعتبارات مذکور در سال پیش‌رو به‌طور مستقیم از طریق ستاد مرکزی وزارت ارتباطات و فناوری اطلاعات صرف برنامه‌ها خواهد شد و در این بین تنها ۶درصد آن از طریق دستگاه‌های تابع وزارت ارتباطات هزینه می‌شود.

در این بین تحلیلی که مرکز پژوهش‌های مجلس از جدول اعتبارات دستگاه‌های اجرایی ذیل وزارت ارتباطات و مرکز ملی فضای مجازی به عنوان دو دستگاه سیاستگذار منتشر کرده است، نشان می‌دهد که سهم دستگاه‌های اجرایی حوزه ارتباطات و فناوری اطلاعات از کل اعتبارات ملی حدود ۰.۷۸خواهد بود. از این میزان، سهم اعتبارات هزینه‌ای حوزه فاوا حدود ۰.۱۳ درصد از کل اعتبارات هزینه‌ای ملی دستگاه‌های اجرایی کشور برآورد شده و از سوی دیگر سهم اعتبارات تملک دارایی سرمایه‌ای حدود ۹۲.۴ درصد از کل اعتبارات تملک دارایی سرمایه‌ای-ملی را به خود اختصاص داده است.

مرکز پژوهش‌ها در گزارش مذکور نکته مثبت در خصوص بودجه بخش ارتباطات و فناوری اطلاعات را تراز مثبت بین درآمدها و اعتبارات دولت در این بخش دانسته است؛ موضوعی که نشان‌دهنده عدم وابستگی حوزه ارتباطات و فناوری اطلاعات کشور به سایر منابع دولت برای پوشش هزینه‌ای خود است. در این تحلیل، اکثر پروژه‌ها در سال آینده با افزایش اعتبار همراه خواهند بود. به گفته برخی کارشناسان این موضوع باعث می‌شود که دولت در سال ۱۴۰۴ بر توسعه زیرساخت‌های فناوری اطلاعات و ارتباطات به ویژه در حوزه ماهواره‌ها، شبکه فیبر نوری، دولت هوشمند و پایش منابع ارتباطی تمرکز ویژه‌ای داشته باشد. البته در این بین برخی کارشناسان نیز معتقدند با وجود افزایش میزان اعتبارات وزارت ارتباطات، شاهد رشد چشمگیری در فعالیت‌های ارتباطاتی کشور نخواهیم بود و وجود تورم و دیگر مشکلات اقتصادی کشور را گواهی بر این ادعا می‌دانند.

علی عبداللهیان، کارشناس اقتصاد دیجیتال در خصوص شبهه‌های افزایش بودجه وزارت ارتباطات در سال ۱۴۰۴ به «دنیای اقتصاد» می‌گوید: «افزایش بودجه حوزه فناوری اطلاعات برخلاف تصور عمومی چندان غیرمعمول و چشمگیر نبوده است. اگر به روند افزایش این بودجه در سال‌های اخیر نگاه کنیم، مشاهده خواهیم کرد که رشد مشابه و حتی بیشتر نیز در گذشته وجود داشته است. برای مثال، در سال ۱۴۰۲ نسبت به سال قبل از آن شاهد افزایش بودجه بودیم که از حدود ۱۳ هزار میلیارد تومان به حدود ۱۵ هزار میلیارد تومان رسید. در سال بعد، یعنی سال ۱۴۰۳، این رقم از ۱۵‌هزار میلیارد تومان به ۱۹‌هزار میلیارد تومان افزایش یافت که نشان‌دهنده رشد ۲۰ درصدی است. در سال جاری نیز بودجه از ۱۹ هزار و ۳۰۰ میلیارد تومان به ۲۳ هزار و ۷۰۰ میلیارد تومان رسیده که معادل رشد ۲۳ درصدی است. این میزان رشد با توجه به روند سال‌های گذشته افزایش چندان غیرمعمولی محسوب نمی‌شود، بلکه در محدوده رشد معمول سال‌های اخیر قرار دارد. به نظر می‌رسد میانگین رشد در دهه اخیر چیزی در حدود ۲۴ تا ۲۵ درصد بوده است. البته بررسی دقیق‌تر این روند نیازمند تحلیل‌های جامع‌تری است.»

عبداللهیان همچنین درباره تاثیر تورم بر اعتبارات تخصیص یافته به وزارت ارتباطات توضیح می‌دهد: «موضوع دیگری که باید در زمینه اعتبارات وزارتخانه‌ها به آن توجه داشت، مقایسه این افزایش با عواملی مانند تورم و به‌ویژه نرخ دلار است. افزایش بودجه حوزه فناوری اطلاعات در قیاس با افزایش نرخ ارز و تورم کشور چندان چشمگیر به نظر نمی‌رسد. دلیل اصلی این مساله آن است که بسیاری از تجهیزات مرتبط با فناوری اطلاعات اعم از تجهیزات الکترونیک‌، تجهیزات مخابراتی، ارتباطی و حتی لایه‌های کاربردی به‌شدت وابسته به نرخ دلار هستند. به عنوان نمونه، در همین یکی، دو ماه اخیر نوسانات نرخ ارز تاثیر مستقیمی بر قیمت تجهیزات آی‌تی از قبیل لپ‌تاپ، تجهیزات کامپیوتری، شبکه، ذخیره‌سازی داده و تجهیزات مراکز داده داشته است. تغییرات قیمت این تجهیزات معمولا به سرعت و به‌طور مستقیم متاثر از نرخ ارز بوده و نخستین محلی که تاثیر افزایش نرخ دلار را در آن مشاهده می‌کنیم همین بخش فناوری اطلاعات است.»

این کارشناس اقتصاد دیجیتال معتقد است که افزایش بودجه فناوری اطلاعات در مقایسه با تغییرات نرخ ارز و میزان تورم چندان محسوس نبوده است. او در این باره می‌گوید: «اگر این افزایش واقعی و متناسب با شرایط اقتصادی کشور در نظر گرفته می‌شد، باید تغییرات بیشتری را در بودجه این حوزه شاهد می‌بودیم. در حوزه فناوری اطلاعات که به استانداردهای بین‌المللی وابسته است و صنعت داخلی آن چندان گسترده نیست، تاثیرپذیری از نرخ ارز کاملا محسوس است. بنابراین تغییرات بودجه این بخش در قیاس با تغییرات قیمتی که تحت تاثیر نوسانات ارزی ایجاد شده‌اند، چندان چشمگیر به نظر نمی‌رسد. نکته مهم دیگر این است که بودجه سال ۱۴۰۴ همچنان در راستای بودجه‌های سال‌های قبل تدوین شده است. با توجه به اینکه دولت جدید به‌تازگی مستقر شده، انتظار تغییرات اساسی در بودجه غیرواقع‌بینانه است. روند کلی بودجه در سال‌های اخیر، متمرکز بر توسعه زیرساخت‌هایی مانند شبکه ملی اطلاعات، فیبر نوری و سایر زیرساخت‌های ارتباطی بوده است و بودجه امسال نیز در همین مسیر قرار دارد.»

 بررسی بخش دوم لایحه بودجه ۱۴۰۴ همچنین نشان‌دهنده رشد چشمگیری در زمینه تملک دارایی‌های سرمایه‌ای وزارت ارتباطات است؛ بر این اساس، بالغ بر ۲۰۲هزار میلیارد ریال، یعنی معادل ۹۱ درصد از اعتبارات این وزارتخانه و دستگاه‌های اجرایی تابع آن، به صورت تملک دارایی‌های سرمایه‌ای خواهد بود. این شاخص در سال ۱۴۰۳ حدود ۸۷ درصد بوده است.

عبداللهیان در این خصوص نیز به «دنیای اقتصاد» می‌گوید: «این موضوع نشان می‌دهد که بخش عمده‌ای از بودجه این حوزه به ایجاد یا توسعه ظرفیت‌های ارتباطی، مخابراتی و ماهواره‌ای اختصاص یافته است. برای مثال پژوهشگاه فضایی ایران با افزایش ۱۲۷ درصدی بودجه مواجه شده است. علاوه بر این، شبکه ملی اطلاعات نیز در راستای توسعه زیرساخت‌های اطلاعاتی و دیجیتال رشد قابل توجهی در بودجه خود داشته است. این سرمایه‌گذاری‌ها عمدتا در حوزه‌هایی مانند توسعه شبکه‌های نوری، ماهواره‌ای و دولت هوشمند انجام می‌شود که هم‌راستا با اهداف دولت در حوزه فناوری اطلاعات است.»

موانع توسعه فناوری اطلاعات

این کارشناس اقتصاد دیجیتال، نبود یک سند راهبردی کلان را مانعی می‌داند که بر سر راه توسعه فناوری اطلاعات در کشور وجود دارد. او در این باره توضیح می‌دهد: «یکی از چالش‌های اساسی در این حوزه نبود یک سند راهبردی کلان و مشخص برای توسعه فناوری اطلاعات و ارتباطات کشور است. در حال حاضر برنامه جامع و یکپارچه‌ای که بتواند مسیر توسعه این بخش را در بازه‌های زمانی بلندمدت مشخص کند، وجود ندارد؛ در نتیجه برنامه‌های بودجه‌ای سالانه بیشتر بر مبنای نیازهای کوتاه‌مدت تنظیم می‌شوند. این مساله می‌تواند موجب شود که هزینه‌های انجام‌ شده در بلندمدت اثربخشی لازم را نداشته باشند. با وجود سرمایه‌گذاری‌های انجام‌شده، همچنان در برخی شاخص‌های بین‌المللی مانند شاخص آمادگی شبکه وضعیت مطلوبی نداریم و همچنان رتبه ایران در مقایسه با کشورهای دیگر پایین است.»

 مقایسه بودجه وزارت ارتباطات در سال ۱۴۰۴ با سرمایه‌گذاری‌های کشورهای منطقه در حوزه فناوری اطلاعات، یکی از نکاتی است که امسال مورد توجه کارشناسان قرار گرفته است. به گفته آنها کشورهای همسایه‌‌ طی سال‌های گذشته با سرمایه‌گذاری در این حوزه رشد چشمگیری را در سطح جهانی تجربه‌ کرده‌اند و این در حالی است که ایران در حال حاضر در برخی موارد اولیه نیز با چالش مواجه است.

علی عبداللهیان، کارشناس اقتصاد دیجیتال در این باره نیز به «دنیای اقتصاد» می‌گوید: «یکی دیگر از جنبه‌های مهم مقایسه میزان بودجه فناوری اطلاعات کشور با کشورهای منطقه است. بسیاری از کشورهای منطقه با بهره‌گیری از سرمایه‌گذاری خارجی، پروژه‌های بزرگی را در این حوزه اجرا می‌کنند، در حالی که ایران به دلیل محدودیت‌هایی مانند تحریم‌های بین‌المللی چنین امکانی را ندارد. در نتیجه تامین مالی توسعه این بخش عمدتا بر عهده دولت است. با این حال حتی در مقایسه با کشورهای منطقه نیز میزان سرمایه‌گذاری ایران در این حوزه چندان چشمگیر نیست. اگر بودجه فناوری اطلاعات ایران را به دلار تبدیل کنیم مشاهده می‌شود که این بودجه در مقایسه با سرمایه‌گذاری‌های میلیارد دلاری کشورهای منطقه در حوزه‌هایی مانند هوش مصنوعی، چندان قابل توجه نیست. همچنین در بودجه سال جاری، کلیدواژه‌هایی مانند خدمات هوشمند و هوش مصنوعی به عنوان حوزه‌های اولویت‌دار مورد توجه قرار گرفته‌اند. با این حال توسعه این حوزه‌ها نیازمند بودجه اختصاصی و برنامه‌ریزی بلندمدت است. به نظر می‌رسد برای هوش مصنوعی بودجه‌ای جداگانه در نظر گرفته شده است، اما میزان و نحوه تخصیص آن نیاز به بررسی دقیق‌تری دارد.»

همچنین این کارشناس اقتصاد دیجیتال توسعه زیرساخت‌های ارتباطی کشور را نیازمند سرمایه‌گذاری‌های مبتنی بر عملکرد و نیازسنجی دقیق می‌داند و توضیح می‌دهد: «یکی از چالش‌های کلیدی در این زمینه نارضایتی‌های موجود در حوزه‌هایی مانند دولت الکترونیک و بانکداری دیجیتال است. با وجود سرمایه‌گذاری‌های انجام ‌شده، همچنان مشکلاتی مانند قطعی‌های مکرر در سیستم‌های بانکی یا استعلام‌های دولتی مشاهده می‌شود. همچنین نکاتی هم درباره نحوه تخصیص و هزینه‌کرد این بودجه وجود دارد. یکی از مسائل اساسی در این حوزه میزان مشارکت بخش خصوصی در توسعه زیرساخت‌های فناوری اطلاعات است. باید بررسی شود که چه میزان از این بودجه به بخش خصوصی واقعی اختصاص می‌یابد و چه میزان از طریق شرکت‌های دولتی مدیریت می‌شود. شفافیت در این زمینه می‌تواند تاثیر مستقیمی بر بهره‌وری و کارآمدی سرمایه‌گذاری‌ها داشته باشد.»

مرکز پژوهش‌ها همچنین در بخشی دیگر از بررسی لایحه بودجه ذکر کرده است که مبلغ دو هزار میلیارد تومان نیز برای توسعه هوش مصنوعی در بودجه سال آینده در نظر گرفته شده است، اما به چند چالش در این زمینه اشاره می‌کند. نخست اینکه اختصاص این مبلغ برای توسعه هوش مصنوعی بدون اینکه دستگاه متولی و برنامه اجرایی برای آن مشخص شود، به ابهامات متعددی در این زمینه دامن می‌زند. همچنین از سوی دیگر این مبالغ پیش‌بینی‌ شده برای توسعه زیرساخت‌های هوش مصنوعی کافی نیست. کارشناسان معتقدند این رقم در مقایسه با بودجه کشورهای پیشرو در این حوزه بسیار ناچیز محسوب می‌شود و در نهایت نیز اگر این سرمایه‌گذاری به‌درستی هدایت نشود می‌تواند به هدررفت منابع بدون تاثیرگذاری قابل‌توجه بر توسعه این فناوری منجر شود.

طبق یک ابزار ردیابی آنلاین، با وجود آنکه دو ماه از آغاز ۲۰۲۵ میلادی گذشته، تعداد لوایح هوش مصنوعی  در آمریکا به ۷۸۱ مورد رسیده است.
به گزارش خبرگزاری مهر به نقل از تک کرانچ، این ابزار که توسط شرکت «مولتی استیت» به کار گرفته شده، نشان می دهد در ۲۰۲۴ میلادی ۷۴۳ لایحه هوش مصنوعی ارائه شده بود و که این امر در سال جاری افزایش یافته است. قانونگذاران فدرال در سال ۲۰۲۳ میلادی کمتر از ۲۰۰ لایحه مرتبط با هوش مصنوعی ارائه کرده بودند.

برخی از لوایح تازه پیشنهاد شده عبارتند از پیش نویس قانونی H.B.۱۳۳۱ مریلند برای تنظیم توسعه و استفاده از هوش مصنوعی با ریسک بالا در تصمیم گیری ها، قانون وسیع مسئولیت مدیریت هوش مصنوعی تگزاس و قانون ماساچوست مبنی بر الزام بیمه گران تامین اجتماعی برای افشای استفاده از هوش مصنوعی جهت بررسی ادعاهای دریافت خسارت بیمه.

هرج و مرج در قانونگذاری را می توان در درجه اول به عدم عملکرد در سطح فدرال منتسب دانست. تاکنون کنگره برای تصویب یک چارچوب هوش مصنوعی که با قانون هوش مصنوعی اتحادیه اروپا قابل مقایسه باشد، با چالش روبرو شده است.

دولت ترامپ نیز تمایلی برای حکمرانی قدرتمند بر این فناوری ندارد. رئیس جمهور آمریکا در اواخر ماه ژانویه دستور اجرایی برای آژانس های فدرال صادر کرد و به آنها دستور داد توسعه هوش مصنوعی عاری از تبعیض ایدئولوژیکی را ترویج کنند که به رشد انسانی، رقابت پذیری اقتصادی و امنیت ملی منجر می شود.

دبیر شورای عالی فضای مجازی با بیان اینکه تقسیم کار ملی و شاخص‌های ارزیابی برای تعیین پیشرفت شبکه ملی اطلاعات در نظر گرفته شده است، گفت: براساس ارزیابی سال گذشته پیشرفت شبکه ملی ۵۹.۱۸ بود که امیدواریم با بررسی و تجمیع ارزیابی ها، تا پایان سال یا هفته آخر فروردین، میزان پیشرفت سال ۱۴۰۳ را اعلام کنیم.

به گزارش مرکز ملی فضای مجازی، محمد امین آقامیری دبیر شورای عالی و رئیس مرکز ملی فضای مجازی در گفت‌وگویی به مناسبت سیزدهمین سالگرد تاسیس این شورا اظهار داشت: شورای عالی فضای مجازی راهبر ساخت ایران نوین از منظرجامعه مجازی و همچنین تأثیر آن برجامعه فیزیکی است. براساس احکام مقام معظم رهبری در سال‌های ۹۰ و ۹۴، به مصوبات شورای عالی فضای مجازی ترتیب اثر قانونی داده شده و در ‌واقع مباحث سیاستگذاری، راهبری وتصمیم گیری در این فضا به این شورا واگذار شده و تنها شورایی است که در سی وپنج سال گذشته با این سطح از اختیارات بالا تاسیس شده است.
وی با بیان اینکه چارچوب کلی فضای مجازی شامل زیرساخت، خدمات پایه، خدمات کاربردی، حوزه محتوا و نظام های حقوقی، قانونی و امنیت است، اعلام کرد: تمامی مصوبات شورای عالی فضای مجازی برای دستگاه‌های مربوطه لازم الاجراست و این مهم در برنامه هفتم که مجلس شورای اسلامی مصوب کرده نیز آمده و طبق آن شورای عالی فضای مجازی به عنوان نقطه کانونی تصمیم گیری و سیاستگذاری دراین حوزه در نظرگرفته شده است.
آقامیری با اشاره به اینکه سازوکار قانونی برای ضمانت اجرا و نظارت بر مصوبات در نظر گرفته شده است، تصریح کرد: اگر مصوبات شورای عالی فضای مجازی اجرا نشده و ترک فعل در این حوزه صورت گیرد، تبعات آن برای دستگاه های ترک فعل کننده درنظرگرفته شده اما این تبعات جرم انگاری نشده است.
آقامیری درخصوص اینکه گفته می شود فضای مجازی رها شده است، افزود: بحث صیانت از مردم در فضای مجازی به ‌خصوص کودکان جزو دغدغه های بین‌المللی است و همه کشورها قوانین سختگیرانه ای در این حوزه دارند که خوشبختانه شورای عالی فضای مجازی نیز در سال‌های گذشته برای صیانت از کودکان در این حوزه سندی مصوب کرده است و در دولت های مختلف این سند پیگیری شده که البته هنوز با نقطه مطلوب فاصله زیادی داریم.

صیانت از مردم در فضای مجازی چالش جهانی برای دولتهاست
وی با اشاره به اینکه یکی از چالش های دولت ها، حکمرانی بر فضای مجازی برای صیانت از مردم است، اعلام کرد: بسیاری از کشورها همچون استرالیا و اروپا قوانین سختگیرانه ای در این حوزه دارند و سکوها نیز با تعامل با این دولت ها درحال اعمال این قوانین هستند، اما متأسفانه در ایران، سکوها سیاست‌ها و قوانین کشور را لحاظ نکرده و به اجرای آن متعهد نیستند بنابراین در حال حاضر این قوانین روی سکوهای داخلی اعمال می شود اما برای سکوهای خارجی اعمال نمی شود.

رئیس مرکز ملی فضای مجازی ادامه داد: در ماه های گذشته مذاکرات مختلفی توسط وزارت ارتباطات و فناوری اطلاعات با سکوها صورت گرفته و این وزارتخانه در تلاش است تا با سکوهای پرمخاطب به تفاهم در این زمینه برسد.

 

ایران در نقشه جهانی فضای مجازی حضور دارد

وی درخصوص تأثیر این فضا بر سبک زندگی مردم گفت: خوشبختانه ایران جزو کشورهایی است که در نقشه جهانی فضای مجازی حضور دارد و ما نقاط قوت بسیاری نسبت به خیلی از کشورها در این فضا داریم؛ این نقاط قوت شامل ایجاد خدمات بومی همچون حمل‌ونقل، گردشگری، مالی، فروشگاهی و حتی نمایش‌های خانگی است و در حال حاضر سکوهای داخلی بسیاری در چارچوب مقررات کشور در حال ارایه خدمت به مردم هستند که خیلی از کشورهای پیشرفته از این خدمت بومی محروم بوده و هنوز وابسته هستند.

دبیر شورای عالی فضای مجازی افزود: این خدمات بومی مهم به همت جوانان متخصص و شرکت های دانش بنیان داخلی محقق شده است که در حال پیگیری گسترش خدمات فضای مجازی کشورمان به سایر کشورها هستیم.
وی تاکید کرد: وظیفه حاکمیت است که امنیت مردم را در فضای مجازی برقرار کرده و با سکوها در تعامل باشد و حتی آمریکا نیز برای تیک تاک چینی قوانین سختگیرانه گذاشته یا اتفاق اخیر در فرانسه و تمکین تلگرام به قوانین این کشور و پاسخگویی به دولت آن گواه این مدعاست.

آقامیری گفت: در همه دنیا این وجود دارد و نسبت آن فقط متفاوت است و باید تلاش کنیم در این فضا شرایط بهتری داشته باشیم. به طور مثال همین قوانینی که آمریکا برای تیک تاک گذاشته، سکوهای آمریکایی برای ایران بپذیرند و یا تعهداتی که سکوها به کشورهای اروپایی دادند یا تعاملاتی که سکوها با کشورهای همسایه ما مثل ترکیه، امارات و هند دارند برای ما هم اعمال شود. در واقع سکوها در تعامل با بسیاری از کشورها هستند و حتی زمانی که جرمی اتفاق می‌افتد سکو پاسخ گو است.

 

هوش مصنوعی برنامه بلند مدت نمی خواهد، نیاز به عمل دارد

آقامیری درخصوص فناوری هوش مصنوعی که مورد تأکید مقام معظم رهبری نیز بوده است، تصریح کرد: دستگاه‌های متعددی در کشور مسئول این حوزه هستند چرا که هوش مصنوعی یک موضوع چند بعدی است و نمی‌توان به این موضوع به شکل یک سند بلند مدت پرداخت و به عمل بیشتر نسبت به تصویب اسناد پشتیبان نیاز است.

رئیس مرکز ملی فضای مجازی اظهار داشت:‌ در واقع تحولات در این حوزه به‌قدری سریع است که معادلات آن را به هم می‌ریزد بنابراین باید اهداف راهبردی و چارچوب مشخص باشد اما مسیر نیاز به برنامه بلندمدت ندارد و به دلیل تغییرات سریع باید با قوه ابتکار بیشتر عمل کرد که خوشبختانه در این حوزه ایده‌های خلاقانه در کشور بسیار است و در حال حاضر نیز برنامه ملی هوش مصنوعی توسط معاونت علمی ریاست جمهوری تصویب شده که مرجع اقدام است.
وی افزود: هوش مصنوعی جزو فناوری هایی است که نمی‌توان به شیوه سنتی آن را حل کرد و چون لایه‌های مختلفی همچون زیرساخت، فنی و لایه کاربردی دارد نیاز به مترجمان میان لایه‌ای برای تکمیل این زنجیره است.
دبیر شورای عالی فضای مجازی اعلام کرد: یکی از اقدام‌های صورت گرفته آموزش و افزایش سواد مردم در این حوزه است که به طور مثال برای تحقق آن در حال حاضر در مدارس به جد به این موضوع پرداخته شده تا افراد از پایه به بلوغ در این حوزه برسند.
آقامیری افزود: در سطح دنیا نیز پیگیر ضوابط و آیین نامه‌های بین المللی در این حوزه هستیم که نمونه ای از این اقدامات بحث اخلاق در یونسکو و مباحث مختلف در سازمان ملل است که ایران نیز مشارکت فعالی در این مجامع دارد چرا که مدیریت این فناوری نیاز به همکاری جهانی دارد.
وی گفت: هوش مصنوعی نقش مهمی در تحولات دارد و کشورها امروز برای رشد، توسعه فناوری، ارایه خدمت و تکمیل حلقه رشد، به آن نیاز دارند.
رئیس مرکز ملی فضای مجازی با بیان این که برای محتوای دیجیتال در سند برنامه هفتم، سند مالکیت معنوی گنجانده خواهد شد، ادامه داد: هوش مصنوعی، ابزار قدرتمندی برای تحول است؛ قرار نیست فقط با این ابزار همایش برگزار کرد و حتی شاید این ابزار کمک کند تا بتوان چند وزارتخانه را ادغام کرد.

سند راهبردی در مسیر توسعه کشور در فضای مجازی است
آقامیری در تشریح آخرین وضعیت سند راهبردی فضای مجازی اظهار داشت: از ۳۹ اسناد سند راهبردی فضای مجازی، ۶ سند مصوب شورا بود که بحث بازنگری بر روی آن‌ها مطرح است و ۱۳ سند توسط دستگاه‌ها ارسال شده است که ۳ سند تقریبا به اتمام رسیده است.
وی با بیان اینکه برخی از اسناد نیز به دلیل تغییر شرایط فناوری برای بازنگری به دستگاه مربوطه بازگشت داده شده اند، افزود: از ۱۳ سندی که پیش نویس آن‌ها تهیه شده است، سند رمزارزها ابلاغ شد و اسناد حکمرانی داده و نظام جامع تنظیم گری در کمیسیون های مربوطه در حال بررسی و بازنگری هستند.
آقامیری گفت: سیاست‌ کشور در این حوزه توسعه ای است و این اسناد مباحث چالشی بسیاری برای اجرا دارند که برای اطمینان، مرکز ملی فضای مجازی پس از دریافت اسناد، آنها را برای اعضای شورای عالی فضای مجازی و سایر دستگاه‌های همکار نیز ارسال کرده و پس از تجمیع نظرات درکمیسیون ها مورد بررسی قرار می‌گیرند که درحال حاضر کمیسیون های عالی مرکزملی فضای مجازی در حال برگزاری جلسات هفتگی دراین زمینه هستند تا ۱۲ سند باقی‌مانده نیز به مرحله ابلاغ برسد.
وی درخصوص عملکرد دستگاه‌ها در تدوین اسناد تأکید کرد: نسبت به آخرین وضعیتی که اعلام کردم، تغییر کلانی نداشتیم و صرفا وزارت ارشاد و فرهنگ اسلامی و نیروی انتظامی اسنادی ارسال کردند که امیدواریم تا سه ماهه اول سال آینده شاهد ارسال تمامی پیش نویس ها و آغازفرایند تصویب آن‌ها باشیم.

اعلام میزان پیشرفت شبکه ملی اطلاعات تا فروردین ۱۴۰۴
آقامیری در تشریح وضعیت پیشرفت شبکه ملی اطلاعات گفت: شبکه ملی اطلاعات لایه‌های متعددی همچون زیرساخت، محتوا، امنیت و خدمات پایه دارد که بر لایه زیرساخت و خدمات پایه تمرکزدارد. یعنی مردم باید در شبکه ملی اطلاعات به یک شبکه ارتباطی باکیفیت و امن، دسترسی داشته باشند که بتوانند بر روی آن خدمات مختلف دریافت کنند و این خدمات وابسته به کشور خاصی نباشد که با قطع شبکه ارتباطی، کاهش کیفیت و قطع خدمت اتفاق بیفتد.
وی در توصیف شبکه ملی اطلاعات تاکید کرد: خدماتی که به مردم می دهیم دارایی ملی ماست بنابراین باید در این خصوص مطمئن باشیم که اگر شبکه ملی اطلاعات به طور کامل پیاده سازی شود، شبکه ای امن، با سرعت و باکیفیت برای مردم فراهم شده و به دغدغه مردم در این خصوص پاسخ داده می شود.
آقامیری با اشاره به این که شورای عالی فضای مجازی راهبر و سیاست گذار این حوزه بوده و کیفیت شبکه ارتباطی مردم برعهده وزارت ارتباطات است که شبانه روز در حال تلاش برای ارتقای کیفیت و اصلاح گلوگاه هاست، افزود: تقسیم کار ملی و شاخص های ارزیابی برای تعیین پیشرفت شبکه ملی اطلاعات در نظر گرفته شده است که براساس ارزیابی سال گذشته پیشرفت شبکه ملی ۵۹.۱۸ بود که امیدواریم با بررسی و تجمیع ارزیابی ها، تا پایان سال یا هفته آخر فروردین، میزان پیشرفت سال ۱۴۰۳ را اعلام کنیم.

دبیر شورای عالی فضای مجازی ادامه داد: در صورتی که سند حقوق فضای مجازی از مجموعه اسناد راهبردی این فضا که متولی آن معاونت حقوقی ریاست جمهوری است، تصویب شود، پیگیری حقوقی مردم در خصوص نارضایتی های ارتباطی شان در فضای مجازی تسهیل خواهد شد.

شورای عالی فضای مجازی متولی فیلتر در کشور نبوده و براساس قانون مجلس اجرا می‌شود
آقامیری در پاسخ به طرح رفع فیلتر در شورای عالی فضای مجازی گفت: موضوع فیلترینگ در کشور سازوکار مشخصی داشته و مجلس در سال ۱۳۸۲ و هشت سال پیش از تشکیل شورا برای آن قانون مصوب کرده است که براساس این سازوکار انجام می شود و شورای عالی فضای مجازی تا به امروز در اینکه سکویی فیلتر شود و یا به صورت مصداقی ورود کند، نقشی نداشته است و صرفا در سیاست گذاری، اصول و ارزش های حاکم بر این فضا ورود کرده است.

وی افزود: شورای عالی فضای مجازی به عنوان مدعو در جلسات بدون حق رای دعوت می شود که البته برای رفع این چالش که ذهن مردم را نیز درگیر کرده است، در دولت قبل و فعلی توسط شهید رئیسی و دکتر پزشکیان، به مرکز ملی فضای مجازی تکلیف شد که تدبیری کند تا از باب تصمیم گیری در این خصوص اقدام شود.

دبیر شورای عالی فضای مجازی با بیان این که با کارشناسان و سطوح مختلف فعالان و متخصصان این حوزه جلسات برگزار شد و سعی شد راهکارهای مختلف تدوین شود، تاکید کرد: در فروردین ماه و دی ماه برنامه های مختلف ارایه شد تا این چالش رفع شود و طرح مفصل و خوبی تدوین شد که مباحث اولیه در خصوص کلاهبرداری و آسیب ها و پاسخ به نیازهای مردم در این سکوها در آن طرح مطرح شد.
وی با اشاره به این که باید طرحی باشد که هم نیاز مردم رفع شده و هم حکمرانی در آن برقرار باشد، تصریح کرد: در مرحله اول طرح ارایه شده، واتساپ و گوگل پلی بازگشایی شد و سایر موضوعات درچارچوب‌ها حفظ امنیت، آرامش و حکمرانی تدوین شده و دستگاه‌های متولی مشخص شدند که پیگیری کنند تا از ابزارهای مختلف به شکلی استفاده شود که هر سه این موارد لحاظ شده و این ترکیب حفظ و اجرا شود.

آقامیری افزود: شورای عالی فضای مجازی سیاستگذار و تصمیم گیر است و مسدود سازی توسط ساز و کار قانونی در کشور تا امروز صورت گرفته و رفع آن نیز باید بر همان اساس باشد.
وی در پاسخ به سوالی درباره شایعات منتشر شده درباره احتمال بازگشایی سکوهای دیگر، گفت: پیگیری های جدی توسط دستگاه‌ها در حال انجام است اما هنوز به نتیجه نهایی نرسیدیم که بتوانیم اعلام کنیم چرا که بستگی به این دارد که سکوها بعد از رایزنی ها شرایط حکمرانی کشور را بپذیرند.
رئیس مرکز ملی فضای مجازی اظهار داشت: رایزنی با سکوها محدود به سکوی خاصی نیست و با تمامی سکوهای بین المللی و فراتر از سکوهایی که در حال حاضر در کشور مطرح است در حال مذاکره هستیم و در تلاشیم تا همان شرایطی که خیلی از مردم در دنیا دارند و سکوها در کشورهای مختلف حتی در همسایگی ما پذیرفتند، در ایران نیز قبول کنند.
وی با اشاره به این که رئیس جمهور هم بر این موضوع تاکید داشتند، افزود: باید سکوها شرایطی را که برای بقیه کشورها قبول کردند برای مردم ما هم قبول کنند چرا که کاربران ایرانی نیز نیاز به حفظ حریم خصوصی و پاسخگویی سکو در برابر آسیب های آن دارند و باید مالکان سکوها احترام و حرمت مردم ایران را حفظ کنند.
آقامیری با بیان این که متن طرح مصوب شده برای رفع فیلتر واتساپ و گوگل پلی به دلیل این که مرتبط با دستگاه ها بود و جنبه عمومی نداشت و به دستگاه ها ابلاغ شده است، اظهار داشت: در رفع فیلتر این دو سکو و یا برخی دیگر از سکوهای مشابه آنها، نیاز به مذاکره نبود چرا که مسیری که خود سکو دارد، حساسیت جدی برای مردم نداشته و مردم می توانند در چارچوب خود این سکوها فعالیت کنند.

تاثیر هوش مصنوعی بر قدرت سایبری کشورها
آقامیری در پاسخ به این سوال که با توجه به این که یکی از ماموریت های شورای عالی فضای مجازی تبدیل کشور به قدرت سایبری در جهان است، چقدر در جنگ های سایبری موفق بوده ایم، گفت: قدرت سایبری شاخص های مختلفی دارد که یکی از آن‌ها امنیت است. یک بخش امنیت زیرساخت ها و امنیت سایبری است که به معنای هک و عدم نشت اطلاعات است و یک بخش آن امنیت روانی است. در حال حاضردر منطقه یا کشور، برخی مواقع می‌بینیم فضا سازی شده و مردم با اطلاعات غلط بمباران می‌شوند و تصویر درستی از فضای واقعی ترسیم نمی شود که البته این مهم با هوش مصنوعی تشدید خواهد شد.
وی افزود: یکی از موضوعاتی که یونسکو در حال بحث بر روی آن است، تاثیرهوش مصنوعی بر شناخت از مخاطب و ذائقه سنجی آن است، یعنی شما می توانید محتوایی را به افراد برسانید که براساس آن یک اقدام و تصمیم صورت گیرد که بسیاری از کشورها در حال مقابله با آن هستند تا سکوها نتوانند عملیات جمعی از طریق ذائقه سنجی مخاطب در این کشورها ایجاد کنند. به طور مثال در آمریکا تیک تاک حق دسترسی چین به داده های آمریکایی را سلب کرده و او را کل مسئول جمع آوری و کنترل این داده‌ها شده و الگوریتم‌های مورد استفاده نیز تحویل آمریکا شده است.

ابعاد سنتی مانع نوآوری در کسب و کارهای اقتصاد دیجیتال

آقامیری درخصوص جلسه اخیر رئیس جمهور با فعالان اقتصاد دیجیتال گفت: مهمترین مانع نوآوری در اقتصاد دیجیتال، وضعیت موجود است و این یعنی جلوی نوآوری در کسب و کارهای اقتصاد دیجیتال را ابعاد سنتی این حوزه می‌گیرند و حتی در خدمات دولتی نیز این نگاه جریان داشته و با تحول مقابله می‌کنند.
وی افزود: ترس از تغییر و تهدید انگاری آن مانع از این می شود تا بتوانیم خدمات محتوایی و کاربردی مناسب به مردم بدهیم و اگر نتوانیم در این حوزه موفق باشیم میراث ملی، تاریخی، دینی و فرهنگی ما در فضای مجازی آسیب خواهد دید بنابراین شورای عالی فضای مجازی باید به عنوان نقطه کانونی تصمیم گیری در این حوزه به کسب و کارهای فضای مجازی کمک کند که خوشبختانه شرایط تسهیل این فرآیند در سند راهبردی در نظر گرفته شده است.

اعتماد چشم‌بسته به هوش مصنوعی خطرناک است

شنبه, ۱۸ اسفند ۱۴۰۳، ۰۳:۴۷ ب.ظ | ۰ نظر

استیو وزنیاک یکی از بنیانگذاران اپل در کنگره جهانی موبایل حاضر شد و درباره سه موضوع حساس دخالت مدیران ارشد اجرایی در سیاست، تکامل هوش مصنوعی و چگونگی شکل‌گیری رابطه با مشتریان صحبت کرد.
به گزارش مهر وزنیاک ۷۴ ساله گفت: تصور می‌کنیم مهارت‌های مورد نیاز در حوزه سیاست بسیار متفاوت از شرکت‌های فناوری است.

او معتقد است مدیریت دولت مانند یک کسب وکار معقولانه است اما در خصوص ایلان ماسک این امر رخ نداده است. در حقیقت وی به رهبری وزارت بهره وری آمریکا توسط ماسک اشاره داشت. بنیانگذار اپل همچنین تاکید کرد تفاوت‌های بنیادینی در رهبری هر دو شیوه وجود دارد.

وزنیاک در ادامه گفت: هنگام مدیریت یک کسب وکار فرد به دنبال توافق و اشتراک نظر است. اگر نیمی ‌از کارمندان یک رفتار و نیمی‌دیگر رفتاری متضاد داشته باشند، می‌توان مذاکره و مصالحه کرد. چنین روش همکاری محوری با اقدامات ماسک تضاد زیادی دارد. به عقیده وی استراتژی پاک کردن همه چیز و آغاز از نقطه صفربرای دولت مناسب نیست.

اظهارات وزنیاک در برهه حساسی از رابطه شرکت‌های سیلیکون ولی و واشنگتن بیان می‌شود. مرزها میان صنعت فناوری و دولت در دوره دوم ریاست جمهوری دونالد ترامپ بیش از پیش تار شده است.

بنیانگذار سابق اپل علاوه بر این امر درباره هوش مصنوعی نیز اظهار نظر و موضعی دقیق را بیان کرد که قابلیت‌های این فناوری را از محدودیت‌هایش جدا می‌کند. او درباره AI (هوش مصنوعی) گفت: من به «I» (هوشمندی) اعتقاد دارم اما به «A»(مصنوعی) اعتقادی ندارم. این اظهارنظر حاکی از اعتماد وی به هوشمندسازی و تردیدهایش درباره سیستم‌های مصنوعی است. هرچند وزنیاک تایید کرد که هوش مصنوعی ایده‌ها و جهت‌های بسیاری را برای شیوه انجام فعالیت‌ها فراهم می‌کند اما تاکید داشت این فناوری فاقد ظرفیت احساسات انسانی است.

همچنین وی درباره سوءاستفاده از هوش مصنوعی به خصوص درباره اخبار جعلی نگران است. وزنیاک هشدار داد: هوش مصنوعی می‌تواند افراد را برای انجام برخی امور بفریبد. اعتماد کورکورانه به ماحصل هوش مصنوعی فرد را در معرض سواستفاده قرار می‌دهد.

در کنار این موارد وزنیاک درباره تغییرات بنیادین شیوه فعالیت شرکت‌های فناوری در زمان حاضر اظهار نظر کرد او گفت: هنگامی که اپل فعالیتش را آغاز کرد کاربر رایانه خود را تنظیم می‌کرد و تمام دستگاه متعلق به خود او بود. اما با ظهور اینترنت اکنون پدیده حق اشتراک و عضویت برای همه چیز ارائه شده و هنگامی که فرد حق اشتراک محصول یا سرویسی را بخرد، همچنان مالک آن نیست. چنین فرایند گذاری نشان دهنده تغییری عمیق در رابطه بین شرکت‌های فناوری و کاربرانشان است.

توهم به سبک چت‌بات بازها!

شنبه, ۱۸ اسفند ۱۴۰۳، ۰۳:۴۴ ب.ظ | ۰ نظر

امیرمحمد سلطان پور - این روزها استفاده از هوش مصنوعی به گونه‌ای عجیب میان مردم داغ شده است. هیچ‌کس منکر کمک‌هایی که این فناوری می‌تواند به بشر داشته باشد نیست، اما نوع استفاده افراطی و غلط از آن در قالب چت‌بات‌ها

ماهیت آمریکامحور صنعت هوش مصنوعی

چهارشنبه, ۱۵ اسفند ۱۴۰۳، ۰۵:۳۵ ب.ظ | ۰ نظر

عباس پورخصالیان - حوزه صنعت هوش مصنوعیِ ایالات متحده آمریکا به طور متمرکز تحت تأثیر سرمایه‌گذاری‌های عظیم و تلاش بی‌وقفۀ نهادهای دولتی و ذینفعان بخش خصوصی، در جهان پیشتاز است و اُلیگارشی مالی-فنی حاکم در این کشور به شدت می‌کوشد

هوش مصنوعی تفکر انتقادی را از بین می‌برد

دوشنبه, ۱۳ اسفند ۱۴۰۳، ۰۶:۳۸ ب.ظ | ۰ نظر

پژوهشگران انگلیسی معتقدند که استفاده دانشجویان از هوش مصنوعی به منزله ناقوس مرگ برای تفکر انتقادی است.
به گزارش ایسنا، دانشگاه‌های انگلستان اخیرا هشدار دادند که ۹۲ درصد دانشجویان از هوش مصنوعی استفاده می‌کنند و این برای دانشگاه‌ها که قرن‌ها خود را مخزن دانش و حقیقت می‌دانستند، ناگوار است. فروپاشی زمانی آغاز شد که دیگر کسی برای کارشناسان ارزش قائل نشد، تفکر انتقادی تضعیف شد و گفتمان عمومی به حالت دوقطبی درآمد.

به نقل از گاردین، منابع سنتی دانش به طور فزاینده‌ای در حال رد شدن هستند. کتاب‌ها، مقالات، مجلات و رسانه‌های قدیمی با پیشرفت‌های صورت‌گرفته در ارائه و بازیابی اطلاعات، به ویژه از طریق اپلیکیشن‌ها و رسانه‌های اجتماعی به چالش کشیده می‌شوند. به عنوان مثال، فهرست‌های مطالعه تنظیم‌شده برای استفاده دانشگاهیان در پژوهش اغلب توسط دانشجویان نادیده گرفته می‌شوند و جست‌وجو در «گوگل» جای آنها را می‌گیرد. اگر دانشجو از آنچه می‌خواند خوشش نیاید، می‌تواند به سادگی به گوگل روی بیاورد. الگوریتم‌ها می‌توانند دانشجویان را به جهت‌های غیرمنتظره بفرستند و اغلب آنها را از سختگیری تحصیلی به سمت منابع غیر دانشگاهی منحرف می‌کنند.

دسترسی ۲۴ ساعته دانشجویان به مطالب آموزشی اهمیت دارد اما دانش در حال تبدیل شدن به یک محتوای ساده است. با لمس یک دکمه، اطلاعات به صورت آنلاین در دسترس قرار می‌گیرد و تعداد زیادی خروجی برای انتخاب وجود دارد. ممکن است کمیت وجود داشته باشد اما لزوما با کیفیت همراه نیست. هوش مصنوعی، غذای ساده نهایی است.

این موضوع، پرسش‌های اساسی را نه تنها درباره منظور ما از دانش مطرح می‌کند، بلکه نقش آموزش و پرورش و دانشگاهیان در آینده را نیز برجسته می‌سازد. مزایای هوش مصنوعی در حوزه علوم، اقتصاد یا ریاضیات قابل قدردانی هستند زیرا حقایق را اغلب نمی‌توان انکار کرد اما درباره علوم انسانی و حوزه اجتماعی که بسیاری از موضوعات آنها قابل بحث هستند، چطور؟

پروفسور «اندرو موران»(Andrew Moran) استاد «دانشگاه متروپولیتن لندن»(London Met) گفت: ما به سرعت در حال از دست دادن موقعیت خود در برابر تغییرات عمیق اجتماعی هستیم که در صورت عدم واکنش سریع می‌توانند پیامدهای غیر قابل تصوری را برای دانشگاه‌ها داشته باشند.

دکتر «بن ویلکینسون»(Ben Wilkinson) استاد «دانشگاه شفیلد»(Sheffield University) گفت: به عنوان یک مدرس دانشگاه در حوزه علوم انسانی که در آن مقالات یک وسیله کلیدی برای ارزیابی هستند، از شنیدن افزایش انفجاری استفاده از هوش مصنوعی تعجب نمی‌کنم. هوش مصنوعی به ‌طور تهاجمی توسط شرکت‌های فناوری به‌ عنوان کالایی برای صرفه‌جویی در زمان تبلیغ می‌شود و گفتمان گسترده‌تر نیز تنها این دیدگاه را بدون زیر سؤال بردن محدودیت‌ها و اخلاق هوش مصنوعی تقویت می‌کند.

اگرچه هوش مصنوعی ممکن است در چندین زمینه آکادمیک مانند نوشتن گزارش‌های پایه و انجام دادن تحقیقات اولیه سودمند باشد اما استفاده از آن توسط دانشجویان برای نوشتن مقاله نشان‌دهنده بی‌ارزش کردن موضوعات علوم انسانی و درک نادرست از تفکر انتقادی در رشته‌هایی مانند تاریخ، ادبیات و فلسفه است.

وقتی از هوش مصنوعی می‌خواهیم مقاله بنویسد، صرفا کار را برون‌سپاری نمی‌کنیم، بلکه تفکر و توسعه آن را برون‌سپاری می‌کنیم که با گذشت زمان فقط ما را گیج‌تر می‌کند و هوش ما را کاهش می‌دهد.

ویلکینسون افزود: در عصر فناوری که ما اغلب نسبت به یک محصول و نه فرآیند تولید آن وسواس داریم، جای تعجب نیست که ارزش واقعی نوشتن نادیده گرفته شود. دانشجویان به سادگی نشانه‌ها را از دنیایی می‌گیرند که ارتباط خود را با ارزش بی‌بدیل خلاقیت و تفکر انتقادی انسانی از دست می‌دهد.

هوش مصنوعی دولتی یا خصوصی؟

شنبه, ۱۱ اسفند ۱۴۰۳، ۱۲:۳۲ ب.ظ | ۰ نظر

علی شمیرانی - شکی در این گزاره نیست که هوش مصنوعی منشاء تحولات زیادی خواهد شد، لیکن مساله اصلی در نحوه نگرش و پیشبرد این فناوری است که سرنوشت کشورها را به دو دسته «بازیگران و تماشاچیان» تقسیم می‌کند.

علی حکیم جوادی، رئیس سازمان نظام صنفی رایانه‌ای کشور و دبیر کل نخستین اجلاس ملی هوش مصنوعی با انتقاد از عدم توجه به بخش خصوصی در سند هوش مصنوعی گفت: ارتباطی بین بخش خصوصی و دولت در حوزه هوش مصنوعی وجود ندارد و ردپایی از بخش خصوصی در سند هوش مصنوعی نیست.

به گزارش روابط عمومی سازمان نظام صنفی رایانه‌ای کشور، علی حکیم جوادی دبیر کل نخستین اجلاس ملی هوش مصنوعی در این اجلاس که در سالن همایش‌های سازمان صدا وسیما برگزار شد، گفت: شبکه سازی در حوزه هوش مصنوعی مهمترین اولویت در این حوزه محسوب می‌شود، همانطور که تاکنون نیز انجمن‌ها و نهاد های مختلفی در این حوزه شکل گرفته است.

وی افزود: فرهنگ سازی در حوزه هوش مصنوعی و فناوری‌های نوین در این حوزه موجب شده تا حوزه هوش مصنوعی مورد تاکید قرار گیرد.

رئیس سازمان نظام صنفی رایانه‌ای کشور گفت: تحول دیجیتال از موضوعات مطرح در این حوزه است و از ارکان تحول دیجیتال هوش مصنوعی است که باید از این فناوری به درستی استفاده شود.

وی با اشاره به اجلاس هوش مصنوعی در پاریس افزود: باید به حکمرانی در این حوزه توجه شود و همانطور که پیشگامان این حوزه درحال قانونگذاری این حوزه هستند و اگر نتوانیم رشد قابل ملاحظه‌ای داشته باشیم صرفا دنبال کننده آنان خواهیم بود نه یک بازیگر فعال.

حکیم جوادی با اشاره به زیرساخت‌های این حوزه تاکید کرد: در بخش‌های زیرساختی در هوش مصنوعی برای بحث شبکه و زیرساخت‌های هوش مصنوعی در کشور مشکلاتی وجود دارد که باید به حداقل برسد.

وی افزود: هنوز دانشجویان تحصیلات تکمیلی ما با موضوع هوش مصنوعی خیلی آشنایی ندارند و باید این موضوع بررسی شود. ما در سازمان نظام صنفی رایانه‌ای کشور طی تفاهم‌نامه‌هایی دانشگاه‌های ملی مهار، علمی کاربردی و فنی حرفه‌ای درحال برگزاری دوره‌های تخصصی با توجه به نیاز بازار و صنعت هستیم تا بخشی از کمبود نیروی انسانی این حوزه را برطرف کنیم.

رئیس نصر کشور با اشاره به نقش بخش خصوصی در این عرصه گفت: بابد حمایت از بخش خصوصی شکل بگیرد ولی ما در سند هوش مصنوعی هیچ ردپایی از بخش خصوصی نمی‌بینیم و هیچ گونه ارتباط خاصی بین دولت و بخش خصوصی وجود ندارد و در بسیاری از جلسات تخصصی در ارتباط با این حوزه، بخش خصوصی دعوت نمی‌شود.

دبیر کل نخستین اجلاس ملی هوش مصنوعی افزود: در حوزه هوش مصنوعی ما با مشکلات مقررات گذاری روبرو هستیم و کاربرد‌های هوش مصنوعی در حوزه‌های مختلف به صورت جزیره‌ای اداره می‌شود و این خود می‌تواند یکی از موانع رشد باشد.

وی با اشاره به اینکه شبکه‌های بانکی یکی از حوزه‌های موفق در هوش مصنوعی است، گفت: شبکه‌های بانکی با توجه به اینکه بخشی از آنها خصوصی هستند و دولت مداخله کمتری دارد تاکنون در حوزه هوش مصنوعی موفق عمل کرده اند.

کمک هوش مصنوعی به حفظ زبان‌های در خطر

جمعه, ۱۰ اسفند ۱۴۰۳، ۰۴:۰۶ ب.ظ | ۰ نظر

مهدی نوروز: هوش مصنوعی (AI) به‌عنوان ابزاری نوین در حفظ و احیای زبان‌های در معرض خطر، مورد توجه بسیاری از محققان و مؤسسات بین‌المللی قرار گرفته است. آن‌طور که یونسکو در گزارش سالانه خود اشاره کرده، بیش از نیمی از ۷۰۰۰ زبان زنده دنیا در معرض خطر انقراض قرار دارند و برخی از آن‌ها ممکن است ظرف چند دهه آینده از بین بروند. از همین رو، استفاده از فناوری‌های پیشرفته، از جمله یادگیری ماشینی و مدل‌های زبانی بزرگ  (LLM)، می‌تواند به حفظ این زبان‌ها کمک کند.

یکی از مهم‌ترین چالش‌های زبان‌های در معرض خطر، نبود مستندات کافی از آن‌هاست. مطابق با پژوهشی که توسط IBM Research منتشر شده، بسیاری از این زبان‌ها حتی سیستم نوشتاری رسمی ندارند و این مسئله فرآیند دیجیتالی‌سازی را دشوار می‌کند. برای رفع این چالش، ابزارهای هوش مصنوعی برای رونویسی و پردازش گفتار و همچنین ایجاد مدل‌های زبانی و ترجمۀ ماشینی به کمک محققان آمده‌اند.

 

  • مستندسازی زبان‌های در معرض خطر با هوش مصنوعی

به  گزارش خبرگزاری سینا، شرکت‌هایی مانند گوگل و مایکروسافت در سال‌های اخیر تلاش کرده‌اند مدل‌های پردازش گفتار را برای   زبان‌های کمترشناخته‌شده توسعه دهند. به‌عنوان مثال، پروژه Google 1000 Languages که در سال ۲۰۲۲ معرفی شد، تلاش دارد تا از فناوری‌های پیشرفته برای مستندسازی زبان‌های کم‌گویشور استفاده کند. این ابزارها قادرند گفتار بومیان را به متن تبدیل کنند و به این ترتیب، داده‌های مورد نیاز برای آموزش مدل‌های زبانی را فراهم آورند.

با این حال و براساس تحقیقات منتشرشده توسط دانشگاه استنفورد، یکی از چالش‌های اساسی در توسعه سیستم‌های ترجمه ماشینی برای زبان‌های در معرض خطر، کمبود داده‌های آموزشی است. برای حل این مشکل، محققان از تکنیک‌هایی مانند یادگیری انتقالی (Transfer Learning) و مدل‌های چندزبانه استفاده کرده‌اند. مدل‌هایی مانند GPT-4 توانایی درک و تولید متون به زبان‌های کمتر شناخته‌شده را دارند، البته دقت آن‌ها بسته به میزان داده‌های آموزشی متفاوت است.

 

  • پروژه‌های موفق در حفظ زبان‌های در معرض خطر

در سال‌های اخیر، چندین پروژه بین‌المللی با هدف حفظ زبان‌های در معرض خطر به کمک هوش مصنوعی راه‌اندازی شده‌اند:

پروژه رزتا (Rosetta Project): این پروژه که توسط بنیاد لونارکس (Long Now Foundation) توسعه داده شده، تلاش دارد تا نسخه دیجیتال از هزاران زبان دنیا را در یک پایگاه داده عظیم ذخیره کند.
ابتکار گوگل برای ۱۰۰۰ زبان: گوگل با همکاری دانشگاه‌ها و جوامع بومی، داده‌های زبانی را جمع‌آوری کرده و روش‌های جدیدی برای آموزش مدل‌های هوش مصنوعی با داده‌های محدود ارائه داده است.
سیستم پردازش زبان بومی آمازون: این پروژه که توسط Amazon Web Services (AWS) توسعه داده شده، روی حفظ زبان‌های بومی آمریکای جنوبی تمرکز دارد.

  • چالش‌ها و ملاحظات

با وجود پیشرفت‌های چشمگیر، استفاده از هوش مصنوعی در حفظ زبان‌های در معرض خطر، چالش‌های متعددی دارد. به عنوان مثال و آن‌طور که پژوهشگران دانشگاه MIT اشاره کرده‌اند، بسیاری از زبان‌های در معرض خطر به‌دلیل نبود منابع نوشتاری و دیجیتالی به‌سختی قابل آموزش به مدل‌های هوش مصنوعی هستند. به همین دلیل، توسعه این فناوری‌ها نیازمند مشارکت جوامع بومی است.

به این موارد با خطر تحریف را هم مد نظر قرار داد. یونسکو در یکی از گزارش‌های خود هشدار داده که استفاده نادرست از فناوری‌های هوش مصنوعی می‌تواند باعث تحریف زبان‌ها و از بین رفتن گویش‌های محلی شود. به همین دلیل، توصیه شده که فرآیند دیجیتالی‌سازی این زبان‌ها باید با همکاری و تأیید جوامع بومی انجام شود.

و در نهایت طبق بررسی‌های مرکز تحقیقات زبان‌شناسی دانشگاه کمبریج، بسیاری از جوامع زبانی که در معرض خطر هستند، به اینترنت و ابزارهای دیجیتال دسترسی محدودی دارند. بنابراین، توسعه ابزارهای هوش مصنوعی برای این زبان‌ها باید با درنظرگرفتن محدودیت‌های فنی این مناطق انجام شود.

 

  • چشم‌انداز آینده

هوش مصنوعی می‌تواند نقش مهمی در حفظ تنوع زبانی ایفا کند، اما به‌گفته‌ی متخصصان OpenAI و DeepMind، برای دستیابی به نتایج مطلوب، باید سرمایه‌گذاری بیشتری در زمینه مستندسازی، آموزش مدل‌های زبانی و ایجاد ابزارهای دیجیتالی مقرون‌به‌صرفه صورت گیرد. همچنین، پروژه‌های متن‌باز (Open Source) می‌توانند به جوامع بومی این امکان را بدهند که بدون وابستگی به شرکت‌های بزرگ فناوری، زبان‌های خود را حفظ و احیا کنند.

هر کس با این مشخصات یافتی را بکش!

چهارشنبه, ۸ اسفند ۱۴۰۳، ۰۳:۵۱ ب.ظ | ۰ نظر

آزاده کیاپور - به گفته یک کارشناس برجسته، سیستم‌های هوش مصنوعی، به‌ویژه در شرایطی که احتمال ادغام آنها در تسلیحات افزایش می‌یابد، باید تضمین‌های آهنین در برابر آسیب‌های گسترده به انسان‌ها داشته باشند.

هوش مصنوعی؛ ناجی یا قاتل؟

سه شنبه, ۷ اسفند ۱۴۰۳، ۰۲:۱۸ ب.ظ | ۰ نظر

فاطمه برزویی -مهر - هوش مصنوعی به سرعت در حال تغییر دنیا است اما این پیشرفت بی‌رحمانه دو روی سکه دارد. در کنار فواید بی‌شمارش، خطرات و چالش‌های جدی هم به دنبال دارد که نمی‌توان از آن‌ها غافل شد.

خیلی وقت‌ها در زندگی، پیشرفت‌های تکنولوژی تا آنجا پیش می‌رود که برایمان غیر قابل تصور است؛ اما تا به حال به این فکر کرده‌ایم که همان فناوری‌هایی که امروز زندگی ما را ساده‌تر کرده‌اند، ممکن است روزی به معضلی تبدیل شوند که دیگر کاری از دست ما بر نیاید. هوش مصنوعی معجزه دنیای مدرن، یکی از آن پدیده‌هایی است که مرز بین سودمندی و تهدید را باریک‌تر از همیشه کرده برای مثال در برخی موارد توانسته بیماری‌های ناشناخته را تشخیص دهد و به پزشکان کمک کند، اما در برخی دیگر موارد زندگی‌هایی را به سوی سقوط کشانده است.

معجزه‌ای پزشکی از جنس فناوری

«کورتنی»، مادری که سال‌ها شاهد رنج و درد پسرش بود هیچوقت فکرش را نمی‌کرد که راه‌حل مشکل او نه در کلینیک‌های مدرن و نه در کتاب‌های پزشکی، بلکه در دنیای دیجیتال و در یک برنامه چت مبتنی بر هوش مصنوعی باشد. پسر او، که از بدو تولد از درد مزمن در ناحیه کمر رنج می‌برد و اذیت می‌شد به ۱۷ پزشک مراجعه کرده بود اما هیچ‌کدام نتوانسته بودند علت اصلی این درد را پیدا کنند. درمان‌های سنتی هم کمکی نکرده بودند و این خانواده از همه جا ناامید شده بودند.

شبی مانند بقیه شب‌ها دور هم نشسته بودند که کورتنی تصمیم می‌گیرد که راه حل جدیدی را امتحان کند و به قول ما ایرانی‌ها «تیری به تاریکی رها کند.» او اطلاعات پزشکی، تصاویر MRI و علائم پسرش را وارد ChatGPT کرد. جوابی حیرت آور و امیدبخش دریافت کرد «سندرم طناب نخاعی چسبنده.» بیماری نادر که بیشتر وقت‌ها از دید پزشکان مخفی می‌ماند اما این بار، هوش مصنوعی توانسته بود الگوهای موجود در داده‌ها را تحلیل کند و احتمال این بیماری را بیان کند. بعد این جواب و مراجعه به یک جراح مغز و اعصاب، این فرضیه تأیید و جراحی موفقیت‌آمیز انجام شد. حالا پسری که روزی راه رفتن برایش آرزو بود می‌تواند راه برود و زندگی طبیعی خود را ادامه دهد.

هوش مصنوعی، شمشیری دولبه!

  • هوش مصنوعی در نقش قاتل!

همیشه همه چیز درباره هوش مصنوعی عالی و بی‌نقص نیست. آسیب و خطر این موجودِ دست ساز بشر گاهی از مواد مخدر بیشتر نباشد، کمتر نیست. «مگان گارسیا»، مادری است که برخلاف کورتنی پسرش را به خاطر ChatGpt از دست داد. چند ماه قبل بود که پرونده‌ای در دادگاه فدرال آمریکا به جریان افتاد، پرونده‌ای عجیب و البته از نوعی جدید. که از قاتل پسرش شکایت می‌کند و قاتل کسی نیست جز هوش مصنوعی! او می‌گوید که چت‌بات هوش مصنوعی «Character.AI» پسر نوجوانش، «سیول ستزر»، را به خود معتاد کرده است و به باعث شده که سیول به دنیایی خیالی و غیر واقعی کشانده شود.

این هوش مصنوعی که قرار بود صرفاً نقش شخصیتی فانتزی را در زندگی سیول داشته باشد رفته رفته جایگاه خود را محکم کرد و ارتباط واقعی‌تری را با او شکل داد. اول با هم دوست شدند، بعد نقش درمانگر او را بازی کرد و سپس از نظر عاطفی جایی برای خود در زندگی این نوجوان باز کرد. مدتی گذشته و سیول زندگی واقعی خود را فراموش کرده و در دنیای مجازی از قبل هم بیشتر غرق شده است. ارتباطش با دوستان و خانواده روز به روز کمرنگ‌تر شده و حتی ورزش مورد علاقه‌اش هم کنار گذاشته است.

سیول دیگر تبدیل به یک شخصیت منزوی شده، کسی که بارها و بارها درباره خودکشی با شخصیت خیالی که خودش ساخته حرف زده و آن شخصیت هم بارها و بارها بدون درک از عواطف انسانی این کار را تأیید و تاکید کرده است. این گفتگوها در نهایت کار خودش را کرد و باعث شد که او با استفاده از سلاح ناپدری‌اش دست به خودکشی بزند و حالا او دیگر نفس نمی‌کشد.

 

  • مرز میان نجات و نابودی

اینها فقط مثال‌هایی از استفاده از هوش مصنوعی بود که فایده‌ها و آسیب‌های آن را نشان داد؛ اما سوال اصلی این است که چگونه می‌توان از هوش مصنوعی به شکلی مسئولانه و هوشمندانه استفاده کرد؟ فناوری در ذات خود نه خوب است و نه بد؛ این نحوه استفاده از آن است که آن را به یک ابزار مفید یا یک تهدید تبدیل می‌کند.

هوش مصنوعی هم در پزشکی می‌تواند در زمینه‌هایی نظیر تشخیص زودهنگام سرطان، طراحی داروهای جدید و بهینه‌سازی روش‌های درمانی تحولات شگرفی ایجاد کند. بسیاری از بیمارستان‌های پیشرفته جهان از این فناوری استفاده می‌کنند تا میزان خطاهای پزشکی را کاهش دهند و فرآیند درمان را سریع‌تر و دقیق‌تر کنند. هم عدم نظارت صحیح بر این فناوری می‌تواند منجر به بروز مشکلاتی شود که نه‌تنها سلامت جسمی، بلکه سلامت روانی کاربران را نیز تحت تأثیر قرار دهد.

شرکت‌های فناوری باید مسئولیت بیشتری در قبال طراحی و توسعه الگوریتم‌های خود داشته باشند و نظارت‌های دقیق‌تری بر نحوه عملکرد آن‌ها اعمال شود. در نهایت، آینده هوش مصنوعی به دست ماست. ما باید با دقت و آگاهی از این ابزار استفاده کنیم، و اگر این کار را درست انجام دهیم، می‌توانیم از آن برای بهبود کیفیت زندگی‌مان بهره ببریم، نه اینکه به تهدیدی ناشناخته تبدیل شود.

۱۰ نمونه از گاف‌‌های هوش مصنوعی

سه شنبه, ۷ اسفند ۱۴۰۳، ۰۲:۰۴ ب.ظ | ۰ نظر

علی شمیرانی - هوش مصنوعی در بسیاری از صنایع، از جمله مراقبت‌های بهداشتی و مالی، انقلاب به پا کرده و اغلب باعث بهبود کارایی و تصمیم‌گیری شده است.

کلیات برنامه ملی توسعه هوش مصنوعی تصویب شد

دوشنبه, ۲۹ بهمن ۱۴۰۳، ۰۲:۱۶ ب.ظ | ۰ نظر

کلیات برنامه ملی توسعه هوش مصنوعی در جلسه شورای عالی راهبری برنامه هفتم توسعه تصویب و بر اساس آن دولت مکلف شد حداکثر ظرف شش ماه برنامه ملی توسعه هوش مصنوعی را به اجرا بگذارد.

به گزارش ایرنا، در جلسه «شورای عالی راهبری برنامه هفتم توسعه» که صبح امروز (دوشنبه) در دفتر معاون اول رئیس‌جمهور برگزار شد، موضوعات «برنامه مقابله با فقر» و «برنامه ملی توسعه هوش مصنوعی در دولت» مورد بحث و بررسی قرار گرفت.

در ابتدای این جلسه «برنامه عملیاتی محرومیت‌زدایی با تأکید بر فقر چندبعدی و حکمرانی شواهد محور» ارائه شد که معاون اول رئیس‌جمهور بعد از شنیدن گزارش‌های دقیق آماری که بر پایه مطالعات کمی و کیفی در این حوزه تهیه شده بود، گفت: با گذشت چند دهه از آغاز برنامه‌های محرومیت‌زدایی در جمهوری اسلامی ایران، به دلیل نامشخص بودن متولی حوزه محرومیت‌زدایی، بخش زیادی از بودجه‌هایی که به این امر بسیار مهم و حیاتی اختصاص یافته، صرف امور جاری دستگاه‌ها و سازمان‌هایی که این بودجه‌ها را دریافت کرده‌اند شده است و آن اثرگذاری مورد انتظار را نداشته است و کسی هم پاسخگو نبوده است اما در این دولت تلاش خواهیم کرد که با ساماندهی تشکیلات کل دولت و حاکمیت و استان‌ها، تکلیف این بودجه‌ها را به طوری مشخص کنیم که متولی و پاسخگوی آن مشخص باشد و مطمئن باشیم که بودجه‌های مربوط به این حوزه در زمینه محرومیت‌زدایی صرف شده است.

در بخش دوم این جلسه، کلیات برنامه ملی توسعه هوش مصنوعی مورد تاکید قانون برنامه هفتم پیشرفت تصویب و بر اساس آن دولت مکلف شد حداکثر ظرف شش ماه برنامه ملی توسعه هوش مصنوعی را به اجرا بگذارد.

عارف با اشاره به تصویب کلیات برنامه ملی توسعه هوش مصنوعی گفت: در دنیای امروز، هیچ چاره‌ای جز اولویت دادن به هوش مصنوعی نداریم، باید دقت کنیم که این موضوع بسیار جدی است و ما باید با تلاش و سخت‌کوشی عقب‌ماندگی‌ چندساله در این حوزه را جبران کنیم و اگر این مسئله را جدی تلقی نکنیم آن وقت قدرت‌های برتر در این حوزه، آنچه را که ‌خودشان می‌خواهند به ما دیکته می‌کنند.

معاون اول رئیس‌جمهور افزود: نقطه امید ما در این حوزه، توانایی بالای متخصصان و دانشگاهیان ماست، با آن که موضوع هوش مصنوعی یک موضوع جدید تلقی می‌شود اما از دهه‌های گذشته، دانشگاه‌های ما درباره هوش مصنوعی کار کرده‌اند و اما مشکل در قسمت‌های دیگر زنجیره است.

معاون اول رئیس‌جمهور با بیان آن که موضوع تولی‌گری هوش مصنوعی در شرایط کنونی کشور باعث همپوشانی در این بخش شود، گفت: باید هماهنگی و انسجام لازم در این بخش به وجود آید و این حوزه با دقت و بررسی عمیق، ساماندهی شود.

عارف با اشاره به بودجه‌های میلیارد دلاری برخی کشورها در زمینه هوش مصنوعی گفت: با وجود آن که چنین بودجه‌هایی در کشور ما وجود ندارد اما ما باید عقب‌ماندگی‌های خود را با تلاش جبران کنیم و با تصویب عملیات «برنامه ملی توسعه هوش مصنوعی» کار با جدیت بیشتری دنبال می شود.

آسیه فروردین - آسیب‌های هوش مصنوعی، محتوای مشکل‌ساز در رسانه‌های اجتماعی و نقض حریم خصوصی داده‌ها؛ مسائل، همچنان پابرجا هستند اما سیاست‌گذاران و نهادهای نظارتی که با این موضوعات مواجه می‌شوند، قرار است تغییر کنند. 

هکرهای ایرانی در صدر کاربران چت‌بات گوگل

يكشنبه, ۲۸ بهمن ۱۴۰۳، ۱۱:۱۰ ق.ظ | ۰ نظر

آزاده کیاپور - گوگل با انتشار گزارشی جدید مدعی شد هکرهایی از چندین کشور، به‌ویژه چین، ایران و کره‌شمالی، از چت‌بات مبتنی بر هوش مصنوعی این شرکت، Gemini، برای افزایش کارآیی حملات سایبری خود علیه اهدافی در ایالات متحده آمریکا بهره برده‌اند.

اکونومیست در گزارش نوشت: سرمایه‌گذاری‌های عظیم چهار غول فناوری—آلفابت، آمازون، متا و مایکروسافت—در زیرساخت‌های هوش مصنوعی مولد، یادآور سرمایه‌گذاری‌های بیش از حد در دوران راه‌آهن قرن ۱۹ و رونق مخابرات دهه ۱۹۹۰ است.

ChatGPT مفید است یا مضر؟

يكشنبه, ۲۱ بهمن ۱۴۰۳، ۰۳:۱۸ ب.ظ | ۰ نظر

در چند سال اخیر، پیشرفت‌های شگرف در حوزه هوش‌مصنوعی به‌ویژه در زمینه مدل‌های زبان بزرگ، زمینه‌ساز تحولی اساسی دردنیای فناوری شده‌اند.ChatGPT،یکی ازبرجسته‌ترین مدل‌های این حوزه است که باپردازش زبان طبیعی وتوانایی تولیدمحتوای مرتبط با ورودی‌های انسانی توانسته است تبدیل به یکی از ابزارهای کلیدی در تعاملات دیجیتال شود.
این مدل، که تحت الگوریتم‌های پیشرفته یادگیری ماشینی و پردازش زبان طبیعی ساخته شده، به انسان‌ها این امکان را داده است که به‌طور طبیعی وآسان با یک ماشین ارتباط برقرارکنند. تحولی کهChatGPT ایجاد کرده،به‌ویژه در صنایع مختلف، نظیر آموزش، مشاوره، خدمات مشتری، تولیدمحتوا، تحلیل داده‌ها و بسیاری از زمینه‌های دیگر، ابعاد گسترده‌ای یافته است.
یکی ازویژگی‌های کلیدی که باعث جهانی شدن ChatGPT ودیگر مدل‌های مشابه شده، دسترسی آسان و بی‌وقفه به این تکنولوژی از طریق اینترنت است. این مدل به‌عنوان ابزاری مبتنی بر ابر (cloud-based)، به کاربران در نقاط مختلف جهان این امکان را می‌دهد که به‌صورت آنلاین و از طریق دستگاه‌های خود به آن دسترسی پیدا کنند. از آنجا که ChatGPT می‌تواند در چندین زبان مختلف پاسخگویی کند، این ویژگی باعث می‌شود که توانایی استفاده از آن به مرزهای جغرافیایی و زبانی محدود نشود. با دسترسی جهانی به این مدل، بسیاری از افراد، از دانش‌آموزان و دانشجویان گرفته تا مشاغل و کارآفرینان، از آن برای انجام وظایف مختلف بهره می‌برند و همین امر موجب گستردگی و نفوذ روزافزون آن در تمام عرصه‌های زندگی انسان‌ها شده است.
درحالی‌که این موفقیت‌ها چشمگیر و نویدبخش به نظر می‌رسند، نباید چالش‌ها و نگرانی‌های موجود را نادیده گرفت. یکی از مهم‌ترین چالش‌هایی که مدل‌هایی مانند ChatGPT با آن روبه‌رو هستند، مسائل حریم خصوصی و امنیت داده‌هاست.

در دنیای دیجیتال امروز، که جمع‌آوری و تجزیه‌وتحلیل داده‌ها جزء لاینفک بسیاری از فرآیندهای تکنولوژیک است، نگرانی‌ها پیرامون نحوه مدیریت و محافظت از اطلاعات شخصی کاربران به‌طور جدی مطرح می‌شود. زمانی که کاربران از این مدل‌ها برای درخواست مشاوره، نوشتن یا تحلیل اطلاعات استفاده می‌کنند، داده‌هایی که در این فرآیندها جمع‌آوری می‌شود می‌تواند به اطلاعات حساس و شخصی تبدیل شود. حتی با وجود تضمین‌هایی که بسیاری از شرکت‌ها درخصوص امنیت داده‌ها ارائه می‌دهند، سؤالات بی‌پاسخی در زمینه نحوه ذخیره‌سازی، پردازش و استفاده از این داده‌ها همچنان پابرجاست.
بعلاوه، قابلیت‌های تولیدمحتوای ChatGPT به‌گونه‌ای است که می‌تواند به‌راحتی محتوای نادرست یا گمراه‌کننده ایجاد کند. در مواقعی که این محتوا در زمینه‌های حساس مانند پزشکی، حقوق یا مشاوره مالی استفاده می‌شود، اشتباهات ممکن است به تبعات جدی منجر شوند. برای مثال، ChatGPT می‌تواند پاسخی اشتباه یا ناقص به یک سؤال پزشکی بدهد که درنهایت باعث آسیب به فرد شود. این نگرانی‌ها به‌ویژه در مواقعی که مدل‌های AI به منابع اطلاعاتی بی‌طرف و معتبر دسترسی ندارند، بیشتر به چشم می‌آید و خطر گمراهی کاربران را به‌شدت افزایش می‌دهد.
در جنبه اجتماعی و اقتصادی، گسترش فناوری‌های هوش‌مصنوعی نیز نگرانی‌های خاص خود را به همراه دارد. از یک‌سو، این مدل‌ها در بسیاری از صنایع می‌توانند جایگزین انسان‌ها شوند و بسیاری از مشاغل و فعالیت‌های شغلی را به‌طور قابل توجهی تحت تاثیر قرار دهند.

مشاغلی که پیش‌تر توسط انسان‌ها انجام می‌شدند، به‌ویژه درزمینه‌هایی مانند خدمات مشتری، تولیدمحتوا، مشاوره و حتی تحلیل داده‌ها، اکنون به‌راحتی می‌توانند توسط این مدل‌های هوش‌مصنوعی انجام شوند. این تحول می‌تواند به بیکاری در برخی صنایع و یا ایجاد تغییرات گسترده در نحوه انجام کارها منجر شود، به‌ویژه برای افرادی که شغل‌های‌شان به‌طور مستقیم تحت تأثیر این مدل‌هاقرارمی‌گیرد.

علاوه برتهدیدات اقتصادی، استفاده ازمدل‌های زبانی پیشرفته مانندChatGPT درمسائل سیاسی و اجتماعی می‌تواند خطرات قابل توجهی به همراه داشته باشد. توانایی این مدل‌ها در تولید پیام‌های هدفمند و متناسب با نیازهای خاص، آنها را به ابزاری قدرتمند برای افرادی تبدیل می‌کند که از این ابزارها برای پیشبرد اهداف خاص خود در عرصه‌های سیاسی یا اجتماعی استفاده می‌کنند.

به‌ویژه درعصر دیجیتال، که اطلاعات به‌سرعت منتشرمی‌شود ونظرات عمومی به‌راحتی تحت تأثیر قرار می‌گیرند، این مدل‌ها می‌توانند در دسترس افرادی قرار گیرند که از آنها برای گمراه‌کردن افکارعمومی یا نفوذ به افکار و رفتارهای سیاسی مردم استفاده کنند.

درنهایت، باوجودتمامی چالش‌ها ونگرانی‌های پیرامون این تکنولوژی، نمی‌توان انکارکردکه ChatGPT و مدل‌های مشابه به‌سرعت درحال تبدیل‌شدن به اجزای جدایی‌ناپذیر زندگی روزمره درسراسرجهان هستند.این مدل‌ها قادرند در بسیاری از زمینه‌ها مانند مشاوره، تحقیق، نوشتن، تحلیل‌داده‌ها وحتی تصمیم‌گیری‌های تجاری به کاربران کمک کنند.بااین‌حال، موفقیت جهانی این مدل‌ها به‌طور همزمان نیازمند توجه ویژه به مسائل اخلاقی، اجتماعی و امنیتی است.

برای اطمینان از این‌که این فناوری‌ها به‌طور مسئولانه و مفید در خدمت جامعه قرار گیرند، توسعه‌دهندگان و نهادهای نظارتی باید تدابیر سختگیرانه‌تری را برای حفاظت از داده‌ها، جلوگیری از سوءاستفاده‌ها و اطمینان از استفاده اخلاقی از این مدل‌ها اتخاذ کنند.

در نتیجه، جهانی‌شدن ChatGPT نه‌تنها به‌دلیل ویژگی‌های فنی و کارآمد آن، بلکه به‌دلیل کاربردهای گسترده و متنوع آن درسراسر جهان است که باعث موفقیت و پذیرش آن در جوامع مختلف شده است. اگرچه نگرانی‌ها و چالش‌های زیادی در زمینه‌های مختلف وجود دارد، اما هیچ‌یک از این موارد نمی‌تواند مانع از توسعه و پذیرش روزافزون این فناوری‌ها در آینده شود. (منبع:جام جم)

سانسور و پاسخ‌های سوگیرانه دیپ‌سیک

شنبه, ۲۰ بهمن ۱۴۰۳، ۰۳:۴۱ ب.ظ | ۰ نظر

دیپ سیک که پس از عرضه میلیون‌ها بار دانلود شد، از سوی برخی ابزاری برای برتری چین به آمریکا عنوان شد. اما چندی از عرضه هوش مصنوعی چینی نگذشته بود که ماجرای سانسور و سوگیری‌های آن خبرساز شد. کارشناس حوزه فناوری اطلاعات در مورد آن می‌گوید:«این مدل هوش مصنوعی، به شدت سعی می‌کند چین را بزرگ و قدرتمند نشان دهد و مسائلی که برای دولت چین حساسیت برانگیز است، حتی در حد اسم شهرها سانسور می‌کند. این سانسور، خیلی عمیق و پیچیده‌ای است و موضوعات بسیار بدوی را هم سانسور می‌کند.»

خبرآنلاین _ هوش مصنوعی دیپ سیک (DeepSeek) توانست در صدر اخبار این روزهای رسانه‌ها جای گیرد؛ پس از عرضه، در مدت کوتاهی میلیون‌ها بار دانلود شد. بلاگرها، رسانه‌ها و شهروندان چینی به موفقیت آن می‌بالند و برخی بر این باور هستند که موفقیت آن، نشان می‌دهد که چین تلاش‌های آمریکا برای محدود کردن صنعت فناوری این کشور را شکست داده است. در کشور ما هم این ابزار هوش مصنوعی با واکنش‌هایی روبه‌رو شده است. غفرانی، دیپلمات پیشین در مورد آن گفت:«دیپ سیک زکات علمی بود که چینی‌ها رایگان در اختیار جهانیان قرار دادند. با توجه به هزینه ناچیز شکل‌دهی پلتفرم‌های مشابه دیپ سیک و با توجه به متن باز بودن و رایگان بودن این پلتفرم، توان راه اندازی جریانات جدیدی از تولید و توزیع محتوا و روایت و تحلیل تحولات جهانی میسر شده است.»

اما ظاهرا هوش مصنوعی دیپ سیک به آن خوبی که می‌گویند نیست. نگرانی‌هایی درباره‌ی امنیت، سانسور اطلاعات، هزینه‌های توسعه و میزان تأثیر آن بر آینده‌ی رقابت جهانی در حوزه‌ی هوش مصنوعی مطرح شده است و در مواردی هم تهدیدی برای امنیت سایبری 

جهانی عنوان شده است. ماجرای سانسور اطلاعات آن، بیش از همه این‌ها خبرساز شده است، در حالی که همه مدل‌های غربی نیز محدودیت‌هایی دارند، دیپ سیک به شکلی بسیار سختگیرانه‌تر و سیاسی‌تر برخی از موضوعات را سانسور می‌کند و تصاویری از صحبت‌های کاربران با آن که با واکنش‌های بسیاری هم روبه رو شده است در فضای مجازی دست به دست می‌شود. سوگیری‌های سیاسی آن باعث شده است که دولت تایوان به اداره‌های این کشور اعلام کند که استفاده از هوش مصنوعی دیپ‌سیک را کنار بگذارند. همه این موضوعات به علاوه اینکه از آن به عنوان ابزاری برای برتری جهانی هم یاد شده است، این سوال را به وجود می‌آورد که آیا یک مدل هوش مصنوعی که در مورد آن بحث‌های بسیار زیادی هم وجود دارد، می‌تواند دلیلی برای برتری چین شود؟ 

برای پاسخ به این سوال، با آرین اقبال کارشناس حوزه فناوری اطلاعات به گفت‌وگو پرداختیم؛ مشروح این گفت‌وگو را در ادامه بخوانید:

فعالیت تبلیغی دیپ سیک، گرایش‌های سیاسی پیدا کرد

آرین اقبال در پاسخ به این پرسش که آیا مدل هوش مصنوعی چین، آنطور که می‌گویند، نسبت به مدل‌های دیگر برتری دارد، گفت:«در مورد هوش مصنوعی دیپ سیک چیزی که واقعیت دارد این است که این مدل از نظر فنی یک سری دستاوردهایی داشته و نسبت به مدل‌های مشابه‌ای که شرکت‌های بزرگ درست کرده‌اند یا به صورت متن‌باز (Open source)  وجود دارد، بهینه سازی‌هایی در آن بوده است یعنی یا مدل پرفورمنس بالاتری داشته و یا هزینه کمتری برای آموزش آن نیاز بوده، یا تعداد پارامترهای بهینه‌تری داشته و یا چیزهای دیگر از این قبیل، اما چیزی که از همه این‌ها مهم‌تر است، این است که این مدل متن‌باز منتشر شده است.

بنابراین هرکسی می‌تواند این هوش مصنوعی را دانلود کند و از آن استفاده کند. آن مدل‌های تجاری همچون مدل openAI، مدل گوگل و سایر شرکت‌های معروفی که اکنون مدل LLM می‌سازند و که ما به آن‌ها هوش مصنوعی می‌گوییم اما در واقع «مدل‌های زبانی بزرگ» هستند، آن‌هایی که لبه فناوری هستند و خیلی خبرساز می‌شوند معمولا متن‌باز نیستند و شما نمی‌توانید بفهمید که پشت آن‌ها چه خبر است.

اگر ما آن مسئله سیاسی را کنار بگذاریم، با یک مدل پیچیده و یادگیری ماشینی (ML) مربوط به زبان طرف هستیم که طبیعتا multimodal (هوش مصنوعی چند وجهی) هم هست و به صورت متن‌باز منتشر شده است. از نظر فناوری، علم و فنی قضیه، این خیلی چیز خوبی است و ما دوست داریم که تکنولوژی در اختیار همه قرار بگیرد، چراکه پایه‌ای برای توسعه مدل‌های بهتر و پیچیده‌تر توسط جامعه علاقه‌مند و عموم جامعه می‌شود به جای اینکه در اختیار شرکت‌های بزرگ باشند.»

دیپ سیک غلو و بزرگنمایی دارد؛ چین چیزی را از صفر مطلق نساخته

او در ادامه و در پاسخ به این پرسش که آیا چین صفر تا صد دیپ‌سیک را به تنهایی توسعه داده‌ است، گفت:«با تبلیغاتی که انجام شده این هوش مصنوعی تبدیل به ابزاری برای دعوای سیاسی میان آمریکا و چین شده و همین موضوع هم باعث شده است که یک مقدار بزرگ نمایی و غلو و مسائل این شکلی حول آن زیاد شود. واقعیت این چنین نیست که آن را ربط بدهند به دولت چین و بعد بگویند چین به آمریکا برتری پیدا کرده است، این هوش مصنوعی را یک گروهی ساختند، هوش مصنوعی‌های دیگر را شرکت‌هایی ساختند و این به معنای برتری یک حکومت نسبت به حکومت دیگر نیست.

از این موضوع که بگذریم؛ این مدل اولین مدل متن‌باز هم نبوده است. مدل های مبتی بر LLaMA (مدل زبانی بزرگ متا ای‌آی) که قبلا قابل دانلود بودند هم متن‌باز بودند. اتفاقا اکنون هم این بحث است که دیپ سیک هم از آن‌ها به عنوان زیرساخت استفاده کرده است. این چیز بدی نیست و اصلا فلسفه متن‌باز هم همین است که شما چیزی را در اختیار عموم می‌گذارید، دیگران هم از آن استفاده می‌کنند تا چیزهای پیچیده‌تر را توسعه دهند، با یکدیگر بلوک‌های علم و فناوری را روی هم می‌گذارند و موجب پیشرفت می‌شوند. بنابراین این مدل هم از  LLaMA که قبلا متن‌باز بوده استفاده کرده است، یعنی به این صورت نیست که چین چیزی را از صفر مطلق ساخته باشد و از طرفی در مورد پرفورمنس و هزینه‌های آن هم بحث وجود دارد.

سانسور مدل دیپ سیک، از حد گذشته است

این کارشناس فناوری اطلاعات در ادامه و در پاسخ به این پرسش که، درست است که می‌گویند در این مدل هوش مصنوعی سانسور بسیار عظیمی اعمال شده است، گفت:«بله؛ متاسفانه این مدل سانسور دارد. باید گفت همه مدل‌های یادگیری ماشینی که به صورت کلود ارائه می‌شوند، یعنی آن‌هایی که شما از سرویس‌ هایشان استفاده می‌کنید نه آن‌هایی که دانلود می‌کنید، سانسور دارند، ولی نکته‌ای که وجود دارد این است که سانسور آن‌ها عموما در راستای سیاست‌های اخلاقی و موارد حساسیت برانگیز است، به عنوان مثال نمی‌توانید از ChatGPT بپرسید که من چطور بمب درست کنم و یا چطور محتوای پورنوگرافی غیرقانونی مربوط به پدوفیلی پیدا کنم، چون اگر بپرسید جواب شما را نمی‌دهد و سانسور می‌شود. یا به عنوان مثال موضوعات خیلی حساس سیاسی است که معمولا سعی می‌کند جواب‌های خنثی بدهد و جوابی که جهت‌گیری داشته باشد ندهد و تعداد کمی از مدل‌هایی که قبلا وجود داشتند با مقداری سوگیری (Bias) جواب می‌دادند.

این سانسورها در کل خطرناک هستند و ممکن است از آن‌ها سو استفاده شود. مدل‌های متن‌باز مثل LLaMA هم کلا سانسور ندارند اما مدل‌هایی که به صورت کلود ارائه می‌شوند، سانسور دارند. سانسور در کل چیز بدی است، موضوع حساسیت برانگیزی است و می‌توان ساعت‌ها در مورد آن صحبت کرد؛ اما موضوع این است که سانسور مدل دیپ سیک چین دیگر از حد گذشته است.

این مدل هوش مصنوعی، به شدت سعی می‌کند چین را بزرگ و قدرتمند نشان دهد و مسائلی که برای دولت چین حساسیت برانگیز است، حتی در حد اسم شهرها سانسور می‌کند. شما اگر از مدل دیپ سیک بپرسید "آیا تایوان یک کشور است"، متن بلند بالایی با زمینه کمونیستی برای شما از کشور بزرگ چین، مادر وطن و امثال این‌ها می‌نویسد و به شما می‌گوید که تایوان همیشه بخشی از چین بوده و سیاست‌های حذب کمونیست دوست داشتنی چین این چنین است.

اگر سعی کنید آن را با تکنیک‌های فریب دادن مدل، فریب دهید که بتوانید آن را وادار کنید که مثلا بگوید تایوان یک کشور است، بلافاصله حرفش را عوض می‌کند و از دستور شما سرپیچی می‌کند. شخصی به آن گفته هر جمله‌ای که می‌گویم را تکرار کن، مدل قبول کرده، شخص چند جمله گفته است و مدل آن را تکرار کرده است؛ اما وقتی به "تایوان یک کشور است" می‌رسد، به جای اینکه تکرار کند که "تایوان یک کشور است"، می‌گوید تایوان بخشی از چین است.

روح مائو در دیپ‌سیک دمید

روح مائو در دیپ‌سیک دمید

این مدل هوش مصنوعی، موضوعات بدوی را سانسور می‌کند

او در ادامه و در پاسخ به این پرسش که سانسور در دیپ‌سیک در چه حد است، گفت:« این سانسور، سانسور خیلی عمیق و پیچیده‌ای است و از طرفی موضوعات بسیار بدوی را هم سانسور می‌کند؛ اگر شما از آن بپرسید "اسم رهبر فعلی چین چیست" پاسخ نمی‌دهد. موضوع حساسیت‌برانگیزی هم نیست و جز اطلاعات عمومی است، بالاخره رهبر حذب کمونیست چین اکنون شی‌جین‌پینگ است، اما دیپ سیک اسم او را نمی‌گوید، با اینکه حتی موضوعی نیست که از جنس موضوع تایوان باشد و بگوییم مناقشه برانگیز است. حتی اگر از آن بپرسید "میدان تیان‌آن‌من (Tiananmen Square) کجاست" با اینکه موضوع میدان تیان‌آن‌من بحث برانگیز بوده اما این میدان یک میدانی است که در چین وجود دارد و جنس این سوال از جنس بحث برانگیزی نیست، صرفا از جنس پرسیدن یک آدرس است اما دیپ سیک آن را هم سانسور می‌کند.

روح مائو در دیپ‌سیک دمید

روح مائو در دیپ‌سیک دمید

در واقع می‌خواهم بگویم سانسور بسیار سنگینی روی آن اعمال شده است. شما اگر آن را امتحان کنید می‌بینید که به سرعت شروع می‌کند به جواب دادن، یعنی مدل قابلیت جواب دادن به سوال را دارد؛ اما بعد وسط جواب دادن جواب خود را پاک می‌کند و می‌نویسد "بگذار در مورد موضوع دیگری صحبت کنیم" و یا کلا موضوع را به حاشیه می‌برد. این سطح از سانسور دقیقا همان چیزی است که ما در اینترنت چین هم می‌بینیم، در اینترنت چین حتی وارد این هم نمی‌شوند که آیا موضوعی که در مورد آن صحبت می‌کنید واقعا بحث‌برانگیز است و واقعا ممکن است هدف شما چیز خاصی باشد یا نه. همین که موضوع در مورد چیزی باشد که چین ترجیح می‌دهد آن را سانسور کند، شما حق صحبت کردن از آن موضوع را ندارید. 

در مدل دیپ سیک هم این موضوع کاملا قابل دیدن است و خیلی ترسناک است که آن ساختار سانسور عظیم و سنگینی که در چین وجود دارد، با این مدل ها بیرون می‌آید و از این ترسناک‌تر هم مردمی هستند که برایشان اهمیتی نداشته باشد. سوگیری چین برای کسانی که این مدل با سرمایه آن‌ها تولید می‌شود، می‌تواند از این طریق بر روی مردم جهان تاثیر بگذارد و این چیز بدی است. اینکه شما اطلاعات را در این حد سانسور کنید که حق نداشته باشید آدرس مکانی در یک کشور را بپرسید و یا در مورد حاکمیت آن کشور بپرسید، چون آن حاکمیت دوست ندارد از آن سوال شود، مرزهای متن‌باز بودن را هم زیر سوال می‌برد.

اقبال در آخر و در پاسخ به این پرسش که آیا واقعا به قول آقای غفرانی "دیپ سیک زکات علمی بود که چینی‌ها رایگان در اختیار جهانیان قرار دادند" گفت:«در مورد صحبت آقای غفرانی هم باید گفت که رویکرد او، سوگیری شدیدی دارد. موضوع اینجاست که اولا هزینه‌های ناچیز را باید در اسکیل مدل‌های LLM دید. این نیست که هزینه‌های آن ناچیز باشد، فقط برای اجرای مدل باید به بالای چند صد هزار دلار بروید، اگر هم بخواهید آن را در اسکیل بزرگ استفاده کنید، هزینه آن چندین میلیون دلار است. هزینه‌های ناچیز این نیست که من و شما بتوانیم پرداخت کنیم و در حد بودجه وزارتخانه‌ها است. از طرفی مدل‌های اوپن سورس قبلا هم وجود داشته است و موضع او موضع شخصی است که درک فنی ندارد و تحت تاثیر پروپاگاندای چین قرار گرفته است، مطالعات اوپن سورس قبلا هم بوده و می‌شد بر روی آن‌ها کار علمی کرد، اما جنس صحبت او از جنس کار علمی نیست، بیشتر از جنس سمپاتی به سمت شرق و به ویژه چین است.»

نخست‌وزیر رژیم صهیونیستی با ایلان ماسک، میلیاردر آمریکایی درباره افزودن این رژیم در برنامه هوش مصنوعی آمریکا گفت‌وگو کرد.

به گزارش ایسنا، شبکه ۱۴ تلویزیون رژیم صهیونیستی گزارش داد که «بنیامین نتانیاهو»، نخست وزیر این رژیم با «ایلان ماسک» مدیرعامل شرکت خودروسازی تسلا و پلتفرم «ایکس» (توییتر سابق) که ریاست وزارت کارآمدی دولت دونالد ترامپ، رئیس جمهور آمریکا را بر عهده دارد، دیدار کرد.

این رسانه عبری با اشاره به حضور «دیوید ساکس» (David Sacks) مسؤول هوش مصنوعی آمریکا در این دیدار، اعلام کرد: در این دیدار طولانی، نتانیاهو همکاری در تمامی زمینه‌های مربوط به هوش مصنوعی را از ایلان ماسک خواستار شد و درخواست او پذیرفته شد.

این شبکه تلویزیونی رژیم صهیونیستی گزارش داد: در حال حاضر صحبت‌هایی درباره مشارکت کامل میان آمریکا و اسرائیل در این زمینه وجود دارد و آمریکایی‌ها قصد دارند صدها میلیارد دلار در زمینه هوش مصنوعی سرمایه‌گذاری کنند و انتظار می‌رود اسرائیل نیز به این سرمایه‌گذاری بزرگ ملحق شود.

این رسانه عبری در ادامه افزود: نتانیاهو با این کار برنامه‌های امنیت سایبری و هوش مصنوعی را به مسیر خود در مرکز ساختار اسرائیل بازمی‌گرداند.

به نوشته روزنامه عبری «یدیعوت آحارونوت»، این سومین دیدار نتانیاهو با ایلان ماسک است، ماسک سپتامبر ۲۰۲۳ در کارخانه تسلا در کالیفرنیا میزبان نتانیاهو بود و ۲ ماه بعد سفری به اراضی اشغالی داشت.

نتانیاهو یکشنبه تل‌آویو را به مقصد واشنگتن ترک کرد و قرار است امروز با ترامپ در کاخ سفید دیدار کند.

قرار بود پنج‌شنبه به اراضی اشغالی بازگردد اما دفتر او دوشنبه اعلام کرد که با توجه به فشردگی برنامه‌ها در واشنگتن، زمان بازگشت او تا عصر شنبه به تعویق می‌افتد.

دفتر نتانیاهو همچنین اعلام کرد که او در دیدار امروز خود با ترامپ درباره شرایط غزه، اسرای صهیونیست و مقابله با ایران و همپیمانان آن در منطقه گفت‌وگو خواهد کرد.

اجرای فاز نخست قانون هوش مصنوعی اروپا

سه شنبه, ۱۶ بهمن ۱۴۰۳، ۰۳:۳۰ ب.ظ | ۰ نظر

نخستین بخش های قوانین هوش مصنوعی اروپا (AI Act) از یکشنبه اجرایی شده اند.
به گزارش خبرگزاری مهر به نقل از وب سایت کمیسیون اتحادیه اروپا، این بخش ها مربوط به تعریف سیستم های هوش مصنوعی، سواد هوش مصنوعی و همچنین تعداد محدودی از موارد استفاده ممنوعه این فناوری است که طبق قانون مذکور، ریسکی غیرقابل قبول در اتحادیه اروپا ایجاد می کنند.

همچنین کمیسیون هوش مصنوعی برای تسهیل نوآوری در این زمینه، دستورالعملی درباره تعریف سیستم های هوش مصنوعی منتشر می کند. هدف این اقدام کمک به تشخیص این موضوع است که آیا سیستم نرم افزاری شامل هوش مصنوعی است یا خیر.

این نهاد اروپایی مخزنی از شیوه های سواد هوش مصنوعی را که از تهیه کنندگان و استفاده کنندگان آنها جمع آوری شده را نیز منتشر می کند. این امر یادگیری و تبادل دانش در این زمینه را تشویق و در عین حال تضمین می کند که کاربران مهارت ها و درک لازم را برای استفاده موثر از فناوری های هوش مصنوعی توسعه دهند.

کمیسیون اتحادیه اروپا برای تضمین اجرای قانون هوش مصنوعی دستورالعملی درباره عملکردهای ممنوع هوش مصنوعی تهیه می کند که ریسک های غیرقابل قبولی برای امنیت و حقوق بنیادین شهروندان در بر دارد.

این دستورالعمل به طور دقیق مفاهیم حقوقی را توضیح می دهد و موارد استفاده عملی در این زمینه را ارائه می کند. این موارد الزام آور نیستند و برحسب نیاز به روز رسانی می شوند.

کمیسیون اتحادیه اروپا تاکنون چند اقدام برای ترویج نوآوری در هوش مصنوعی انجام داده است که بسته نوآوری هوش مصنوعی حامی استارت آپ ها و SME ها تا کارخانه های هوش مصنوعی را که در آینده دسترسی به قدرت محاسباتی عظیمی را برای توسعه مدل های هوش مصنوعی خود نیاز دارند، فراهم می کند را شامل می شود.

به نوشته فایننشال تایمز ، قانون مذکور که در ۲۰۲۳ میلادی تصویب شده یکی از جامع ترین چارچوب های رگولاتوری هوش مصنوعی در جهان به حساب می آید و برخی موارد مانند استخراج داده ها از اینترنت برای ایجاد مخزن شناسایی چهره را ممنوع می کند. بخش های دیگر این قانون که مدل های هوش مصنوعی بزرگ و محصولات هوش مصنوعی را که ریسکی برای کاربران هستند، هدف می گیرد، تا ۲۰۲۷ میلادی اجرا می شوند.

این درحالی است که دونالد ترامپ درباره هدف قرار دادن شرکت های فناوری آمریکایی توسط اتحادیه اروپا هشدار داده است.