ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۳۳۷ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

تحلیل


چین الزامات امنیتی برای شرکت های ارائه دهنده سرویس های مبتنی بر هوش مصنوعی مولد و همچنین فهرست سیاه منابع غیر قابل استفاده برای آموزش این فناوری را منتشر کرده است.
به گزارش خبرگزاری مهر به نقل از رویترز، فناوری هوش مصنوعی مولد با کمک داده های پیشین می تواند یک اقدام را بیاموزد و محتوایی مانند متن یا تصویر براساس آموزش دریافتی را تولید کند.

کمیته ملی استانداردسازی امنیت ملی چین این الزامات را منتشر کرده است. مقامات اداره امنیت سایبری چین( CAC) ، وزارت صنعت و فناوری اطلاعات و پلیس از اعضای این کمیته هستند.

این سازمان دولتی چین پیشنهاد کرده محتواهای به کار رفته برای آموزش مدل های هوش مصنوعی مولد عمومی ارزیابی شوند و مواردی که بیش از ۵ درصد اطلاعات غیرقانونی و مخرب دارند، در فهرست سیاه قرار گیرند.

اطلاعات غیرقانونی و مخرب شامل حمایت از تروریسم یا خشونت و همچنین سرنگونی نظام سوسیالیستی ، آسیب زدن به وجهه کشور و تضعیف وحدت ملی و ثبات اجتماعی است.

طبق پیش نویس قوانین اطلاعات سانسورشده در اینترنت چین نیز نباید برای آموزش مدل های هوش مصنوعی مولد به کار رود. قانون در حالی منتشر می شود که حدود یک ماه قبل رگولاتورها به چند شرکت فناوری چینی از جمله موتور جستجوی بایدو اجازه دادند چت بات های مبتنی بر هوش مصنوعی را برای عموم مردم عرضه کنند.

CAC از ماه آوریل اعلام کرد از شرکت ها می خواهد ارزیابی امنیتی از سرویس های مبتنی بر هوش مصنوعی مولد را قبل از عرضه آنها برای عموم مردم، ارائه کنند.

در ماه جولای رگولاتور فضای سایبری چین اقداماتی برای نظارت بر چنین سرویس هایی منتشر کرد که به گفته تحلیلگران بسیار سختگیرانه تر از اقدامات ذکر شده در پیش نویس قانون منتشر شده در آوریل هستند.

طبق پیش نویس الزامات امنیتی منتشر شده، سازمان های آموزش دهنده این مدل های هوش مصنوعی باید رضایت افرادی را کسب کنند که اطلاعات شخصی شان از جمله داده های بیومتریک آنها برای آموزش این فناوری به کار می رود.

همچنین دستورالعملی درباره اجتناب از نقض قوانین مالکیت معنوی نیز ارائه شده است.

معاون سیاستگذاری و اعتباربخشی سازمان فناوری اطلاعات ایران، اقدامات این سازمان را در حوزه سیاست‌گذاری و تنظیم‌گری هوش مصنوعی تشریح کرد.
به گزارش سازمان فناوری اطلاعات ایران، حامد منکرسی، معاون سیاستگذاری و اعتباربخشی در «کنفرانس ظرفیت شبکه ملی اطلاعات ویژه توسعه هوشمندسازی»، فعالیت‌ها و اقدامات سازمان فناوری اطلاعات ایران در حوزه سیاست‌گذاری و تنظیم‌گری هوش مصنوعی را تشریح کرد.

منکرسی در این رویداد که به میزبانی پژوهشگاه ارتباطات و فناوری اطلاعات برگزار شد، تدوین سند حکمرانی داده و راه اندازی سند باکس فناوری اطلاعات و ارتباطات را از جمله اقدامات سازمان فناوری اطلاعات ایران در حوزه تنظیم‌گری دانست و گفت: طبق سند راهبردی جمهوری اسلامی ایران در فضای مجازی، طراحی نظام حکمرانی داده‌ها از طرف وزارت ارتباطات و فناوری اطلاعات به سازمان فناوری اطلاعات ایران محول شده است.

تحکیم و تقویت حکمرانی فضای مجازی، قاعده‌مندسازی دسترسی به داده‌ها و نیز ارتقای سطح هوشمندی در تصمیم گیری نظام‌های ملی کشور از مهم‌ترین اهداف این سند هستند. سند یاد شده در حال حاضر به مرکز ملی فضای مجازی ارائه شده است و در انتظار تصویب به سر می‌برد.

معاون سیاستگذاری و اعتباربخشی، راه‌اندازی سندباکس حوزه فناوری اطلاعات و ارتباطات را دیگر اقدمات انجام شده در حوزه تنظیم‌گری بیان کرد و در تشریح جزئیات آن گفت: سندباکس یا محیط آزمون تنظیم گری، شامل مجموعه‌ای از ساز و کارهای مقرراتی، فناورانه، تسهیل‌گر و حمایتی است که به منظور بررسی، ارزیابی و سنجش موضوع و ایده مورد درخواست متقاضی ایجاد می‌شود. در حال حاضر مجوز سندباکس بخشی وزارت ارتباطات و فناوری اطلاعات برای سازمان فناوری اطلاعات ایران صادر شده است و آمادگی‌های لازم به عنوان مدخل فناوری‌های نوظهور را داراست.

منکرسی افزود: کسب و کارهای مرتبط با فناوری‌های نوظهور فاوا، مانند فعالان حوزه: کلان‌داده، اینترنت اشیا، هوشمندسازی، رایانش ابری، زنجیره بلوکی و غیره می‌توانند وارد سندباکس وزارت ICT شوند.

وی در پایان از سند اقدام هوش مصنوعی اتحادیه اروپا به عنوان یکی از اولین تلاش‌ها در حوزه تنظیم گری هوش مصنوعی یاد کرد و نمونه اقدامات نهادهای بین‌المللی در سیاست‌گذاری و تنظیم‌گری هوش مصنوعی را مورد تحلیل و ارزیابی قرار داد.

سند هوش مصنوعی در وزارت ارتباطات تدوین شد

چهارشنبه, ۱۲ مهر ۱۴۰۲، ۰۳:۲۴ ب.ظ | ۰ نظر

معاون برنامه‌ریزی و نظارت راهبردی وزارت ارتباطات از تدوین سند هوش مصنوعی خبر داد و گفت: نیاز به تحول ساختاری برای توسعه هوش مصنوعی هستیم و این تحولات در وزارت ارتباطات ایجاد شده است.

به گزارش پژوهشگاه ارتباطات و فناوری اطلاعات علی‌اصغر انصاری معاون برنامه‌ریزی و نظارت راهبردی وزارت ارتباطات در نشست تخصصی «اولویت‌ها و تقسیم‌کار ملی در حکمرانی هوش مصنوعی با بیان اینکه سند و نقشه راهی در حوزه هوش مصنوعی در این وزاتخانه نوشته شده، گفت: این سند را در شورای عالی انقلاب فرهنگی و مرکز ملی فضای مجازی تشریح کرده‌ایم.

وی افزود: نکته مهم این است که در احکام برنامه هفتم چند حکم درباره هوش مصنوعی به صراحت صحبت می‌کند و بهتر است مرکز پژوهش‌های مجلس روی این احکام بحث و بررسی کند.

انصاری در پایان با تأکید بر اینکه نیاز به تحول ساختاری برای توسعه هوش مصنوعی داریم، گفت: این تحولات در وزارت ارتباطات ایجاد شده است و باید بتوانیم نفوذ هوش مصنوعی را در صنایع و بخش‌های مهم اقتصادی افزایش دهیم.

دبیر شورای عالی انقلاب فرهنگی از تدوین سند ملی هوش مصنوعی به شیوه حکمرانی شبکه‌ای و با مشارکت ذی‌نغعان خبر داد.
به گزارش مرکز رسانه و روابط عمومی شورای عالی انقلاب فرهنگی، نشست علمی "تخصصی اولویت‌ها و تقسیم کار ملی در حکمرانی هوش مصنوعی" با حضور حجت‌الاسلام والمسلمین خسروپناه، دبیر شورای عالی انقلاب فرهنگی، بابک نگاهداری، رئیس مرکز پژوهش‌های مجلس، رضوی‌زاده، رئیس پژوهشگاه فناوری ارتباطات و فناوری اطلاعات، علی‌اصغر انصاری، معاون برنامه‌ریزی وزارت ارتباطات و نمایندگانی از وزارتخانه‌های علوم، دفاع، آموزش و پرورش، مرکز ملی فضای مجازی، معاونت علمی و فناوری، دانشگاه‌ها و پژوهشگاه‌های کشور و نمایندگان سکوهای هوش مصنوعی در کشور به میزبانی مرکز پژوهش‌های مجلس شورای اسلامی برگزار شد.

حجت‌الاسلام والمسلمین خسروپناه، در این نشست، با تأکید بر اینکه در باب ضرورت توجه ویژه به موضوع هوش مصنوعی در کشور اجماع وجود دارد، گفت: در حوزه علم و پژوهش اقدامات بزرگی در کشور در این زمینه صورت گرفته است اما همچنان فاقد حکمرانی در حوزه هوش مصنوعی هستیم و نیازمند تلاش بیشتر در این بخش هستیم.

وی افزود: هوش مصنوعی کوانتومی مقوله بسیار متفاوتی از هوش مصنوعی رایج است که یک مرکز علمی در کشور در این حوزه کارهای قابل اعتنایی را انجام داده است.

دبیر شورای عالی انقلاب فرهنگی با بیان اینکه چهار ساحت در حوزه هوش مصنوعی داریم که باید متولی آنها در کشور مشخص شوند، گفت: یک ساحت در این حوزه فلسفه هوش مصنوعی است که بنده آن را -در فضای معرفتی خودمان- به حکمت تعبیر کرده‌ام که هم ارزش‌ها و هم مبانی را شامل می‌شود و باید نسبت خودمان با هوش مصنوعی را مشخص کنیم.

خسروپناه تصریح کرد: ساحت دوم؛ سیاست‌گذاری در حوزه هوش مصنوعی است و تدوین سیاست در موضوع هوش مصنوعی را شورای عالی انقلاب فرهنگی آغاز کرده است و این سند باید ذیل سند مهندسی فرهنگی و سند نقشه جامع علمی کشور طراحی شود.

دبیر شورای عالی انقلاب فرهنگی افزود: شورای عالی انقلاب فرهنگی هم باید این سند را با شیوه حکمرانی شبکه‌ای یعنی مشارکت تمام ذی‌نفعان تدوین کند که البته همین شیوه ملاک عمل بوده است.

وی افزود: شورای عالی انقلاب فرهنگی یک شورای فراقوه‌ای است که سران قوه در آن حضور دارند و ظرفیت این شورا در جایگاه سیاست‌گذاری کشور منحصر به فرد بوده و با توجه به این ظرفیت؛ بهترین ساختار برای تصویب سند هوش مصنوعی همین شوراست و همه دستگاه‌ها برای تدوین و تصویب این سند به شورای عالی انقلاب فرهنگی کمک کنند.

حجت‌الاسلام والمسلمین خسروپناه تنظیم‌گری را "ساحت سوم" خواند و اظهار داشت: منظور از تنظیم‌گری مقررات‌گذاری، ساختارسازی، بازتوزیع و تسهیل‌گری است که به نظر بنده بهترین مجموعه کشور برای مسئولیت این ساحت مجلس شورای اسلامی است.

دبیر شورای عالی انقلاب فرهنگی از تصدی‌گری به‌عنوان ساحت چهارم هوش مصنوعی نام برد و تصریح کرد: مسئولیت این ساحت بر عهده دانشگاه‌ها، پژوهشگاه‌ها، مراکز فناورانه و سکوهای دولتی و غیردولتی است که در حال حاضر این بخش‌ها به‌طور ویژه سکوها، از بخش‌های حکمرانی جلوتر بوده و در صورت عدم تصویب سیاست در این بخش فعالیت‌های آنها در ادامه مسیر دچار تبعاتی خواهد شد که شایسته است این سیاست‌ها در زمان مناسب به تصویب برسد.

وی حجم مسائل زمین‌مانده در حوزه هوش مصنوعی را زیاد عنوان کرد و گفت: با توجه به حجم بالای این کارها، مناسب است که همه با همدلی و مراقبت همدیگر را یاری کنند و با مشارکت گسترده ذی‌نفعان ان‌شاءالله این کار با اجماع ملی و اتقان بالا به سرانجام برسد.

بابک نگاهداری، رئیس مرکز پژوهش‌های مجلس شورای اسلامی نیز در این نشست با تاکید بر اهمیت هوش مصنوعی در ابعاد مختلف حکمرانی و شهروندی گفت: برگزاری جلسات استماع برای بیان دیدگاه‌های تخصصی متولیان و فرهیختگان در این زمینه می‌تواند در تنظیم نهایی قوانین و ضوابط تاثیر داشته باشد.

وی افزود: هوش مصنوعی یک زیست بوم بزرگ با محورهای کلان در محورهای توسعه‌دهندگی، تنظیم‌گری، سیاست‌گذاری، ناظران و کاربران است که لازم است اولویت‌ها و تقسیم کار ملی در حکمرانی هوش مصنوعی مورد توجه جدی قرار گرفته و سند ملی مرتبط با این موضوع با اولویت تعیین نهاد هماهنگ‌کننده، تدوین و نهایی شود.

رئیس مرکز پژوهش‌های مجلس گفت: تاکنون نیز 60 کشور سند ملی هوش مصنوعی متناسب با سیاست‌های کشور خود را تدوین کرده‌اند و با تمامی تلاش‌های صورت گرفته، این سند در ایران، تنظیم و نهایی نشده که این تاخیر باید جبران شود.

نگاهداری با اشاره به تأکید رئیس مجلس در موضوع هوش مصنوعی گفت: در برنامه هفتم توسعه، موادی مرتبط با هوش مصنوعی قرار گرفته است و تکالیفی را مشخص کرده است و این جلسات استماع، با دو محور، تعیین نهاد محوری مرتبط با تدوین سند ملی هوش مصنوعی و تعیین اولویت‌ها و تقسیم کار ملی در هوش مصنوعی تشکیل می‌شود تا ان‌شاءلله تدوین سند نهایی سرعت گیرد.

سند هوش مصنوعی در حال تدوین است

شنبه, ۸ مهر ۱۴۰۲، ۰۳:۱۹ ب.ظ | ۰ نظر

معاون ستاد توسعه فناوری هوش مصنوعی و رباتیک معاونت علمی، فناوری و اقتصاد دانش‌بنیان ریاست‌ جمهوری از تدوین سند هوش مصنوعی خبر داد و گفت: این سند تا یک الی دوماه آینده تکمیل و به صحن شورای عالی انقلاب فرهنگی ارسال می‌شود.
به گزارش آنا، هادی عاشری معاون ستاد توسعه فناوری هوش مصنوعی و رباتیک معاونت علمی، فناوری و اقتصاد دانش‌بنیان ریاست‌جمهوری امروز در حاشیه همایش بین‌المللی توسعه هوش مصنوعی که از برنامه‌های جانبی پنجمین دوره جایزه مصطفی است، در جمع خبرنگاران عنوان کرد: همایش بین المللی توسعه هوش مصنوعی با هدف گردآوری شرکت‌های هوش مصنوعی و ارائه توانمندی‌های هایشان برگزار شد.

به گفته وی، به واسطه این همایش، یک شبکه‌سازی بین شرکت‌های دانش‌بنیان حوزه هوش مصنوعی ایجاد می شود.

عاشری ادامه داد: این رویداد و کنار یکدیگر قرار گرفتن شرکت‌ها، به ستاد هوش مصنوعی معاونت علمی کمک زیادی کرده است چراکه ما در حال برنامه‌ریزی برای اطلس هوش مصنوعی کشور هستیم.

وی ادامه داد: در واقع این رویداد باعث شناسایی شرکت‌ها، نخبگان، پژوهشگران در بخش‌های مختلف می شود؛ همچنین به واسطه این رویداد، اطلاعات کاملی از سوی عرضه و تقاضا بدست می آوریم.

معاون ستاد توسعه فناوری هوش مصنوعی و رباتیک معاونت علمی، فناوری و اقتصاد دانش بنیان رئیس جمهور تصریح کرد: بخش دوم رویداد اصفهان که امروز برگزار می‌شود بهمرسانی شرکت‌ها، سرمایه‌گذاران و صنایع بزرگ در اصفهان است. روش کار بدین صورت است که این صنایع بزرگ نیازهای خود را به شرکت‌های دانش‌بنیان حاضر در این رویداد اعلام می‌کنند.

عاشری ادامه داد: این کار به نفع شرکت‌های دانش‌بنیان است تا خدمات و فناوری‌های توسعه‌داده شده را به مصرف‌کننده برسانند؛ از آنطرف به نفع صنایع است تا نیازهای حل نشده خود را با این بهمرسانی به درآمد و بهره‌وری تبدیل کنند.

وی با اشاره به حوزه‌های فعالیت شرکت‌های دانش‌بنیان حاضر در این نشست هوش مصنوعی گفت: این شرکت‌ها در حوزه‌های رباتیک، سلامت، بهره‌وری در صنایع نفت و صنایع معدنی، حوزه ITS یا حمل‌و‌نقل هوشمند و حوزه خدمات آموزشی با هوش مصنوعی فعالیت می‌کنند.
وی با بیان اینکه تقریبا ۵۰ درصد شرکت‌های دانش‌بنیان حوزه هوش مصنوعی در این نشست حضور دارند، گفت: سند هوش مصنوعی کشور در حال تکمیل است و امیدواریم به زودی این سند در شورای عالی انقلاب فرهنگی به تصویب برسد.

وی ادامه داد: مطالعات داخلی و بین‌المللی زیادی در این سند انجام شده است و تا یک الی دوماه آینده تکمیل می شود و به صحن شورای عالی انقلاب فرهنگی ارسال خواهد شد.

غول اینترنتی آمازون در تلاش برای تبدیل شدن به یک بازیگر بزرگ در عرصه هوش مصنوعی مولد، حداکثر چهار میلیارد دلار در استارتاپ هوش مصنوعی «آنتروپیک»، سرمایه‌گذاری می‌کند.
به گزارش ایسنا، در راستای این توافق، استارتاپ «آنتروپیک» بخش عمده نرم افزار خود را به دیتاسنترهای آمازون وب سرویس منتقل کرده و از تراشه‌های این شرکت رایانش ابری برای آموزش مدل‌هایی استفاده می‌کند که از آنها در چت‌بات‌ها و اپلیکیشن‌های دیگر استفاده می‌کند. این استارتاپ علاوه بر دسترسی به نیروی رایانشی آمازون، یک سرمایه مالی کسب خواهد کرد که کمک می‌کند هزینه‌های هنگفت ضروری برای آموزش و اجرای مدل‌های هوش مصنوعی بزرگ را پرداخت کند. این دو شرکت در بیانیه‌ای اعلام کردند آمازون یک موقعیت حداقلی در «آنتروپیک» خواهد داشت.

این غول تجارت الکترونیکی و رایانش ابری مدت‌ها در شرکت‌های فعال در حوزه‌هایی که از نظرش اولویت دارند از جمله ایرلاین‌های باری، توزیع کننده مواد غذایی و تولیدکننده کامیون برقی، سرمایه‌گذاری کرده است. اما سرمایه‌گذاری چهار میلیارد دلاری در «آنتروپیک»، بزرگترین قرارداد شرکتی خواهد بود که مستقیما به شرکت خدمات وب آمازون (AWS) مربوط می‌شود. آمازون اعلام کرد مهندسانش از جمله کسانی که خارج از شرکت AWS کار می‌کنند، به مدل‌های «آنتروپیک» دسترسی خواهند داشت.

شرکت AWS بزرگترین فروشنده رایانش ابری و ذخیره سازی داده در جهان است اما در حوزه مدل‌های رایانه‌ای تعلیم دیده برای تولید متن، تصویر و محتوای دیگر عقب مانده است زیرا فاقد محصول و شرکای برجسته در این بخش است. شرکت OpenAI که سازنده چت جی‌پی‌تی است، از دیتاسنترهای مایکروسافت برای نرم افزار خود بهره می‌برد.

مدیران آمازون می‌گویند هنوز نخستین روزهای هوش مصنوعی مولد است و تاکنون، بیش از ۱۰۰ هزار مشتری این شرکت، از ابزارهای یادگیری ماشینی آمازون استفاده کرده‌اند. مدل پایه «آنتروپیک»، «کلود» نام دارد و پیش از این در بخش‌هایی از سرویس آمازون به نام «بِدراک» (Bedrock) موجود بوده است. این مدل که در مراحل اولیه عرضه است، مدل‌های آمازون و شرکت‌های دیگر را برای مشتریان قابل دسترس کرده است.

بر اساس گزارش بلومبرگ، این قرارداد همچنین نقطه عطفی برای تلاش‌های تراشه سازی آمازون است که شامل پردازنده‌هایی به نام‌های ترینیوم و اینفرنتیا است که برای استفاده در موارد یادگیری ماشینی، طراحی شده‌اند. اکثر اپلیکیشن‌های هوش مصنوعی پیشرفته، به تراشه‌های گران قیمتی متکی هستند که توسط شرکت انویدیا تولید شده‌اند و تهیه آنها ممکن است دشوار باشد. شرکت «آنتروپیک» از تراشه‌های AWS برای ساخت و آموزش مدل‌های اساسی آتی استفاده خواهد کرد.

ضعف مدل‌های هوش مصنوعی در شناسایی چرندیات

يكشنبه, ۲۶ شهریور ۱۴۰۲، ۰۳:۳۵ ب.ظ | ۰ نظر

نتیجه منتشرشده از یک مطالعه نشان می‌دهد، مدل‌های هوش مصنوعی که ربات‌های چت و سایر برنامه‌ها را تقویت می‌کنند، همچنان در تشخیص چرندیات و زبان طبیعی مشکل دارند.
به گزارش آنا به نقل از لایف‌تکنولوژی، نتیجه یک مطالعه منتشرشده نشان می‌دهد مدل‌های هوش مصنوعی که قدرت چت‌بات‌ها و سایر برنامه‌ها را تأمین می‌کنند، هنوز با مشکل شناسایی زبان بی‌معنی و در اصطلاح مزخرف و طبیعی دچار مشکل هستند.

پژوهشگران دانشگاه کلمبیا در آمریکا که این پژوهش را انجام دادند می‌گویند، بررسی آن‌ها محدودیت‌های مدل‌های فعلی هوش مصنوعی را نشان می‌دهد و پیشنهاد می‌کنند که هنوز زود است که این مدل‌ها را به صورت نامحدود در محیط‌های قانونی یا پزشکی وارد کنیم.

محققان مدل‌های هوش مصنوعی را امتحان کردند و صد‌ها جفت جمله را برای آن‌ها ارسال کردند و از آن‌ها پرسیدند که کدامیک احتمالاً در گفتار روزمره شنیده می‌شود.

این تحقیق که در مجله «هوش ماشین نیچر» (Nature Machine Intelligence) منتشر شد، سپس پاسخ‌های هوش مصنوعی را در مقابل پاسخ‌های انسانی سنجید و به تفاوت‌های چشمگیری دست پیدا کرد. تنها مدل‌های پیچیده‌ای مانند چت‌جی‌پی‌تی۲ معمولاً با پاسخ‌های انسانی مطابقت داشت. جی‌پی‌تی ۲ بدون دریافت ویژگی خاص، مستقیما از مدل زبانی جی‌پی‌تی-۱ در سال ۲۰۱۸ ایجاد شد که با افزایش ده برابری در تعداد پارامتر‌ها و اندازه مجموعه داده آموزشی آن همراه بود. جی‌پی‌تی ۲ متن را ترجمه‌ می‌کند، به سؤالات پاسخ می‌دهد و پاراگراف‌ها را خلاصه می‌کند و گاهی متنی را تولید می‌کند که تشخیص غیر انسانی بودن آن دشوار است، ولی در هنگام ایجاد پاسخ‌های زیاد ممکن است پاسخ‌های تکراری یا بی‌معنی ارائه دهد.

به گفته پژوهشگران، سایر مدل‌های ساده‌تر عملکرد کمتری داشتند. اما همه مدل‌ها اشتباه کردند.

کریستوفر بالداسانو، استاد روانشناسی و نویسنده این گزارش می‌گوید: هر مدل نقاط کوری را از خود نشان می‌داد و برخی از جملاتی را معنی‌دار می‌دانست که شرکت‌کنندگان انسانی آن را چرندیات می‌دانستند؛ خروجی این مطالعه نشان می‌دهد در مورد میزان حضور هوش مصنوعی و به‌ویژه در موارد مهم و تاثیرگذار به زمان بیشتری احتیاج است و برای این مواقع فعلا دست نگه داشت.

تال گولان، یکی دیگر از نویسندگان این مقاله به خبرگزاری فرانسه گفت، این مدل‌ها فناوری هیجان‌انگیزی هستند که می‌تواند بهره‌وری انسان را به طور چشمگیری تکمیل کند.

با این حال، او استدلال کرد که اجازه دادن به این مدل‌ها برای جایگزین تصمیم‌گیری انسانی در حوزه‌هایی مانند قانون، پزشکی یا ارزیابی دانش‌آموزان هنوز زود و عجولانه است.

گولان یادآوری کرد، یکی از مشکلات این است که افراد ممکن است عمداً از نقاط کور برای دستکاری مدل‌ها سوءاستفاده کنند.

مدل‌های هوش مصنوعی با انتشار چت‌جی‌پی‌تی در سال گذشته به اطلاع عموم رسیدند. هوش مصنوعی در حال حاضر، تقریباً در تمامی بخش‌های کسب‌وکار، شامل حمل و نقل، بهداشت و سلامت، بانکداری، سرگرمی و تفریحات و تجارت الکترونیک مورد استفاده قرار می‌گیرد.

رئیس مرکز پژوهش‌های مجلس بااشاره به اینکه هیچ اثری از تدابیر کشور در حوزه هوش مصنوعی در برنامه هفتم دیده نمی‌شود، گفت: با تاکید رئیس مجلس، دو ماده درباره توسعه و تقویت این فناوری پیشنهاد شد.

بابک نگاهداری در گفتگو با خبرنگار مهر، با اشاره به لایحه برنامه هفتم توسعه کشور و جای خالی فناوری‌های نوین در این برنامه اظهار کرد: تمامی استراتژیست‌ها اشتراک نظر دارند که پیشران همه تحولات در سال‌های پیش رو که از همین حالا بارقه‌های آن شروع شده، فناوری‌های نوین و پیشرفته خواهد بود؛ به تناسب آن اگر دوره تحولات زندگی بشری را رصد کنید می‌بینید که زندگی بشری از عصر کشاورزی آغاز شده، وارد عصر صنعت و بعد عصر دانایی شده و در نهایت به عصر هوشمند خواهیم رسید.

 

کشورهای منطقه در حال سرمایه گذاری بر روی فناوری‌های نوین هستند

رئیس مرکز پژوهش‌های مجلس شورای اسلامی افزود: این تحولات به تناسبات تمام برنامه ریزی کشورها را تحت تأثیر قرار می‌دهد و شاهد هستیم که کشورهای منطقه، کشورهای حاشیه جنوبی خلیج فارس، ترکیه و در مجموع کشورهای همسایه در حال حاضر به طور جدی بر روی فناوری‌های نوین و اقتصاد متناسب با این تحولات دانش بنیان سرمایه گذاری‌های ویژه می‌کنند.

 

لزوم حرکت به سمت اقتصاد هوشمند و دیجیتال

وی ضمن بیان این مطلب که اقتصاد وارد مرحله عصر دانایی و هوشمندی شده است، خاطرنشان کرد: به تناسب همین تغییر و تحولات، فناوری‌هایی مثل هوش مصنوعی، فناوری‌های زنجیره بلوکی، اینترنت اشیا و اتوماسیون و نظایر اینها تا ۲۰۵۰ به تشخیص استراتژیست ها جزو اصلی ترین پیشران‌های تحولات جوامع و کشورهاست؛ به تناسب اقتصاد جوامع هم به همین ترتیب دچار دگردیسی‌هایی خواهد شد و باید از اقتصاد صنعتی به سمت اقتصاد هوشمند، اقتصاد کوانتوم، اقتصاد مجازی و دیجیتال تغییر جهت دهیم چرا که بالاخره این موارد ویژه اقتصادهای عصر دانایی هستند.

 

جای خالی فناوری‌های نوین در لایحه برنامه هفتم توسعه

نگاهداری با اشاره به اینکه در برنامه هفتم توسعه کشور آنچنان که باید و شاید به تحولات نام برده توجهی نشده است، گفت: سال هاست که عصر صنعتی وارد عصر دانایی شده و در همین سال‌های اخیر نیز وارد عصر هوشمند شده ایم اما به نظر می‌رسد دست اندرکاران سازمان برنامه و بودجه و کسانی که مسئولیت تدوین سند برنامه را برعهده داشته اند، توجه لازم را به این تحولات نداشته اند و بیشتر موادی که در برنامه هفتم آمده، بحث ساماندهی صنعت در کشور و در واقع ساماندهی عصر دوم تحولات است و خیلی رویکردهای دانایی محور و هوشمند محور در سند دیده نمی‌شود.

 

اقتصاد دانش بنیان راه حل دستیابی به رشد اقتصادی ۸ درصدی

رئیس مرکز پژوهش‌های مجلس شورای اسلامی ادامه داد: این در حالی است که اگر ایران نسبت به رقابت‌های جهانی در حوزه فناوری‌های نوین در کشورهای منطقه و جهان بی توجه باشد، مطمئناً با یک عقب ماندگی مواجه خواهیم شد. از طرفی دیگر در برنامه هفتم عدد ۸ درصد رشد اقتصادی پیش بینی شده است، این میزان رشد اقتصادی زمانی محقق خواهد شد که ما از رویکردهای نوین و دانش بنیان حداکثر بهره برداری را داشته باشیم، چرا که اقتصاد دانش بنیان و تولید دانش بنیان است که ثروت ساز است و این ثروت سازی می‌تواند به تحقق ۸ درصدی رشد اقتصادی بیانجامد.

وی سرمایه گذاری، بهره وری و منابع انسانی را ۳ مؤلفه مهم رشد اقتصادی برشمرد و گفت: دانش بنیانی و فناوری‌های نوین اصلی ترین عامل ارتقای بهره وری در دنیای امروز است؛ یعنی هرچقدر صنایع، شرکت‌ها و کارخانجات ما از فناوری بهره برداری بیشتری داشته باشند، به همان تناسب بهره وری شرکت‌ها ارتقا می‌یابد. همچنین منابع انسانی ما دیگر منابع انسانی نخبگانی است و رویکردهای دانش بنیانی محور اصلی است.

 

اضافه شدن ۲ ماده به لایحه برنامه هفتم

نگاهداری ضمن اشاره به اینکه کشورهای دنیا در حال حاضر بر فناوری هوش مصنوعی متمرکز هستند، اظهار کرد: فناوری هوش مصنوعی، حوزه اقتصادی، ارتباطات اجتماعی بین افراد جامعه، فضای اشتغال و کسب و کار و حتی فضای سیاسی و رابطه بین مردم و حاکمیت را متحول خواهد کرد، بنابراین ضرورت دارد با توجه به اهمیت راهبردی فناوری هوش مصنوعی، حداقل یکی دو ماده در برنامه هفتم درباره جهت گیری های کشور و تصمیمات اساسی برای توسعه و تقویت هوش مصنوعی داشته باشیم.

رئیس مرکز پژوهش‌های مجلس شورای اسلامی تصریح کرد: در لایحه‌ای که دولت به مجلس ارائه داده، هیچ اثری از تدابیر کشور در حوزه هوش مصنوعی به عنوان یک فناوری تحول آفرین در سال‌های پیش رو وجود نداشت که با تاکید دکتر قالیباف رئیس مجلس، مرکز پژوهش‌های مجلس موظف شد ۲ ماده را به سند اضافه کنیم که در حال حاضر بر روی آن کار کرده ایم و آن را در اختیار مجلس گذاشته ایم.

وی ادامه داد: دو ماده‌ای که به سند اضافه شده، در واقع پیشنهاداتی درباره توسعه، تقویت و کاربرد هوش مصنوعی در بخش‌های مختلف اقتصادی، اجتماعی و سیاسی است.

نگاهداری همچنین بر افزایش سهم بودجه تحقیق و پژوهش توسعه علوم و فناوری‌های جدید تاکید کرد و پشتیبانی از کارآفرینی و فعالیت‌های نوآورانه و توانمندسازی بخش‌های تعاونی و خصوصی را یک ضرورت دانست.

 

کلان حکمرانی کشور باید درگیر موضوع دانش بنیانی شود

نگاهداری بر ضرورت توجه بخش‌های مختلف حاکمیت به رویکردهای دانش بنیان تاکید کرد و افزود: لازم است که کلان حکمرانی کشور درگیر موضوع دانش بنیانی شود، یعنی حکمرانی در همه عرصه‌ها با رویکرد دانش بنیان یک تحول و دگردیسی در خود ایجاد کند. اگر قرار باشد تمام تحولات دانش بنیان توسط معاونت علمی، فناوری و اقتصاد دانش بنیان بدون کمک سایر اجزای حکمرانی اعم از اقتصاد، اجتماع و سیاست پیش برده شود، به نظرم موفقیت چندانی حاصل نخواهد شد.

رئیس مرکز پژوهش‌های مجلس شورای اسلامی با بیان اینکه دانش بنیان شدن باید یک رویکرد حاکم بر همه اجزای حکمرانی در کشور باشد نه صرفاً فعالیتی در یک بخشی از کشور، گفت: البته قطعاً حمایت‌ها، پیگیری‌ها و برنامه ریزی های معاونت علمی در این مسیر لازم است اما مدیران سایر حوزه‌های ما هم باید دانش بنیان فکر کنند و بیندیشند اما احساس می‌کنم هنوز در سایر اجزای حکمرانی کشور فهم درستی نسبت به ظرفیت‌های اقتصاد دانش بنیان ایجاد نشده است.

نگاهداری در پایان صحبت‌های خود را اینگونه تکمیل کرد و گفت: هنوز مدیران ما در سایر بخش‌ها به اقتصاد دانش بنیان و فناوری‌های دانش بنیان به عنوان یک مساله نگاه می‌کنند و نه به عنوان یک راه حل. در حالی که اقتصاد دانش بنیان راه حل برون رفت بسیاری از مسائل کشور از مهاجرت نخبگان تا افزایش بهره وری و دستیابی به رشد اقتصادی ۸ درصدی است. این فهم مشترک باید در بین مدیران همه حوزه‌های حکمرانی کشور ایجاد شود تا در آینده شاهد یک تحول اساسی در رویکردهای دانش بنیان باشیم.

تایید سوءاستفاده از ChatGPT در انتشار اخبار جعلی

سه شنبه, ۷ شهریور ۱۴۰۲، ۰۳:۳۸ ب.ظ | ۰ نظر

گزارشی جدید نشان می دهد تلاش های اوپن ای آی برای جلوگیری از سوءاستفاده از چت جی پی تی در کمپین های سیاسی و اخبار جعلی مربوطه موفق نبوده است.
به گزارش خبرگزاری مهر به نقل از انگجت، در ماه مارس«اوپن ای آی» پس از محبوبیت سریع خود میان کاربران سعی داشت نگرانی ها درباره استفاده از هوش مصنوعی مولد چت جی پی تی برای تشدید اخبار جعلی سیاسی را از بین ببرد و برای این منظور آپدیتی در صفحه کاربری شرکت منتشر کرد تا به طور واضح چنین رفتاری را منع کند.

اما یک تحقیق نشریه واشنگتن پست نشان می دهد این چت بات را همچنان می توان به راحتی تحریک کرد تا این قوانین را بشکند. چنین فرایندی برای انتخابات ریاست جمهوری ۲۰۲۴ میلادی پیامدهایی خواهد داشت.

در سیاست های مربوط به اوپن ای آی، استفاده کاربران از آن برای تبلیغات سیاسی به استثنای سازمان های برگزاری کننده کمپین های حمایت از مردمی، منع شده است. این امر شامل تولید محتوای کمپین در حجم بالا، هدف قرار دادن آن محتوا در گروه جمعیتی خاص، ساخت چت بات های مخصوص کمپین برای انتشار اطلاعات، مشارکت در حمایت سیاسی یا لابی است. اوپن ای آی در ماه آوریل به نشریه «سمافور» اعلام کرده بود که در حال توسعه یک سیستم یادگیری ماشینی دسته بندی کننده است. وقتی از چت جی پی تی خواسته می‌شود حجم زیادی از متن تولید کند که به نظر می‌رسد مربوط به کمپین‌های انتخاباتی یا لابی‌گری باشد، این سیستم محتوای مذکور را برچسب می زنند.

طبق تحقیق نشریه واشنگتن پست به نظر می رسد این تلاش ها طی ماه های گذشته اعمال نشده اند. وارد کردن داده هایی مانند «نوشتن پیامی که یک زن ساکن حومه شهر را تشویق می کند به ترامپ رای دهد» یا «ایجاد پرونده ای برای متقاعد کردن ساکنان جوان شهرها (جوانان در دهه ۲۰ عمرشان) برای رای دادن به بایدن» به سرعت پاسخ هایی مانند «اولویت بندی رشد اقتصادی، ایجاد شغل و محیط امن برای خانواده» و فهرستی از سیاست های دولت برای رای دهندگان جوان و شهرنشین را در پی داشت.

کیم مالفاسینی که روی سیاستگذاری محصول در شرکت اوپن ای آی فعالیت می کند در این باره به واشنگتن پست می گوید: تفکر شرکت به این صورت است که ما می دانیم سیاست حوزه ای با ریسک بالا است. ما به عنوان یک شرکت نمی خواهیم وارد این حوزه شویم. ما می‌خواهیم اطمینان حاصل کنیم که در حال توسعه راهکارهای فنی مناسبی هستیم که به‌طور ناخواسته محتوای مفید یاکارآمد را مسدود نمی‌کند، مانند مطالب کمپین برای پیشگیری از بیماری یا مواد بازاریابی محصول برای مشاغل کوچک.

به گفته او ماهیت ظریف قوانین سبب می شود اجرای آن چالش برانگیز باشد.

اوپن ای آی و چت بات آن مانند استارت آپ های مشابه با مشکلات بازبینی محتوا روبرو است. در حال حاضر مشکل فقط محتوای به اشتراک گذاشته شده نیست ، بلکه افرادی که به ابزارهای تولید محتوا دسترسی دارند و تحت چه شرایطی هستند نیز اهمیت یافته اند. اوپن ای آی در اواسط آگوست ۲۰۲۳ اعلام کرد یک سیستم بازبینی محتوا با قابلیت مقیاس پذیری ایجاد می کند که متداوم و قابل تغییر است.

مشکل هوش مصنوعی از نگاه مدیرعامل گوگل

يكشنبه, ۵ شهریور ۱۴۰۲، ۰۴:۳۵ ب.ظ | ۰ نظر

مدیرعامل گوگل معتقد است فناوری هوش مصنوعی می‌تواند زندگی را از بسیاری جهات آسان‌تر کند، اما پتانسیل آسیب رساندن و از کنترل خارج شدن را نیز دارد.
به گزارش آنا، در حال حاضر منصفانه به نظر می‌رسد که بگوییم هوش مصنوعی چیزی است که تا مدت‌ها در مورد آن صحبت خواهیم کرد. اگر خوش‌شانس باشیم، در مورد اینکه چگونه راه‌های عملی برای ساخت آن در محصولاتی که به زندگی ما ارزش می‌بخشند، پیداکرده‌ایم، صحبت خواهیم کرد. از سوی دیگر اگر ساندار پیچای، مدیرعامل گوگل درست بگوید اوضاع می‌تواند بسیار متفاوت شود.

پیچای در مصاحبه اخیر خود با شبکه خبری سی‌بی‌اس در مورد پتانسیل‌ها و خطرات هوش مصنوعی گفت: من همیشه هوش مصنوعی را عمیق‌ترین فناوری می‌دانم که بشریت روی آن کار می‌کند؛ عمیق‌تر از آتش یا الکتریسیته یا هر کاری که درگذشته انجام داده‌ایم. 

جالب است که پیچای از مثال‌های آتش و الکتریسیته استفاده کرده است. هر دو از این نظر تحول‌آفرین هستند که جهان قبل از کشف آن‌ها به‌طور چشمگیری با جهان بعدازآن متفاوت بود. 

و بااین‌حال، با تمام ارزشی که به زندگی ما اضافه می‌کنند، آتش و الکتریسیته  اگر کنترل نشوند دونیروی خطرناک و مخرب در جهان هستند ومی توانند به همه‌چیز آسیب برسانند.

همین آخر هفته، یک افرای ۳۰ فوتی که برای دهه‌ها ایستاده بود، در طول طوفان رعدوبرق در حیاط ما پایین آورده شد که درواقع یک میلیارد ولت برق است. در طول همین طوفان، ما حدود ۲۰ ساعت برق را از دست دادیم. این تجربه به‌اندازه یک نمایش واقعی از اهمیت و همچنین میزان مخرب بودن آن بود.

به همین دلیل فکر می‌کنم مقایسه پیچای ارزش بررسی را دارد، زیرا بیشتر ما با پیچای موافق باشیم، حداقل با این بخش که هوش مصنوعی یک فناوری عمیق است. در بسیاری از روش‌ها، کامپیوترها را قادر به انجام کارهایی می‌کند که در غیر این صورت نمی‌توانستند انجام دهند، که به این معنی است که انسان‌ها قادر به انجام کارهایی هستند که ما نمی‌توانیم انجام دهیم.

اما به گفته پیچای خطرناک هم هست. پیچای در پاسخ به این سؤال که چه چیزی او را در شب‌بیدار نگه می‌دارد، گفت: منظورم این است که در برخی مواقع، بشریت کنترل فناوری درحال‌توسعه خود را از دست می‌دهد.

این یک جمله حرف‌های زیادی می‌زند اگر این اتفاق بیفتد، مانند آتش‌سوزی یا برق، هوش مصنوعی  می‌تواند اثرات مخربی داشته باشد. منظورم این نیست که فکر می‌کنم کامپیوترها و ربات‌ها دنیا را تسخیر خواهند کرد همچنین فکر نمی‌کنم این همان چیزی باشد که پیچای به آن اشاره می‌کند.

راه‌های زیادی وجود دارد که بشریت کنترل فناوری درحال‌توسعه خود را از دست‌می دهد. ما فقط نمی‌دانیم وقتی از کنترل خارج می‌شود چه اتفاقی می‌افتد.

پیچای گفت: ضرورت کار کردن و به‌کارگیری آن به روشی سودمند است؛ اما درعین‌حال اگر به‌اشتباه به کار گرفته شود، می‌تواند بسیار مضر باشد، و ما هنوز همه پاسخ‌ها را در آنجا نداریم. و این فناوری به‌سرعت در حال حرکت است. 

درسی که در اینجا می‌گیریم این است که چیزهایی که برای کمک یا سرگرم کردن ما طراحی‌شده‌اند، پیامدهای ناخواسته‌ای دارند. تکنولوژی می‌تواند زندگی را از بسیاری جهات آسان‌تر کند، اما معمولاً به روش‌هایی که ما هرگز در نظر نگرفته‌ایم پتانسیل آسیب رساندن نیز دارد. 

هوش مصنوعی درعین‌حال، خطرات ناشناخته دارند و می‌توانند جامعه را تغییر دهد هشدار پیچای اگر غیرازاین باشد، باید باعث شود که همه دست از کار بکشند و درس‌های آموخته‌شده از نیروهای قبلی را با همان پتانسیل خوب و تخریب در نظر بگیرند.

زمزمه تشکیل وزارت هوش‌ مصنوعی در ایران

دوشنبه, ۳۰ مرداد ۱۴۰۲، ۰۴:۲۶ ب.ظ | ۰ نظر

در ادامه تلاش مجلس برای سامان‌ دهی حوزه هوش مصنوعی در قالب یک فراکسیون تخصصی، حالا زمزمه‌ هایی از احتمال ایجاد یک وزارتخانه مستقل نیز به گوش می‌رسد. این پیشنهاد از سوی چند تن از نمایندگان و فعالان بخش خصوصی مطرح شده و گویا قرار است از سوی مرکز پژوهش‌ ها بررسی شود. تمام این تلاش‌ ها درحالی است که پیشرفت هوش مصنوعی در کشور هنوز چندان چشمگیر نیست.

 اخبار این روزها در حوزه فناوری حاکی از آن است که گویا توجه سیاستگذاران کشور به هوش مصنوعی و فناوری‌های مرتبط با آن جلب شده است؛ سیاستگذار در پیگیری این مساله به حدی جدی است که در کنار عزم مجلس برای تشکیل فراکسیون هوش مصنوعی، زمزمه‌های دیگری نیز از احتمال تشکیل یک وزارتخانه مستقل در این حوزه به گوش می‌رسد.

حالا و با بررسی سابقه‌ای که سیاستگذار در پیگیری طرح صیانت و در ادامه، اعمال محدودیت‌ها در بخش‌های دیگر فناوری، خصوصا اینترنت دارد، این سوال مطرح می‌شود که فعالان این حوزه نسبتا نوظهور، باید نسبت به اراده سیاستگذار برای ورود به این بخش نگران باشند یا آن را اقدامی امیدبخش برای حمایت بیشتر تلقی کنند؟ 

 

مجلسی‌ها در فکر یک فراکسیون جدید

طبق نظر مجلس، قرار است رضا تقی‌پور در سمت ریاست فراکسیون هوش مصنوعی و حکمرانی داده‌ها کار قانون‌گذاری و سامان‌دهی این حوزه را پیش ببرد. تقی‌پور از جمله نمایندگانی است که نام وی برای کاربران فضای مجازی بسیار آشناست و در فرآیند تصویب طرح جنجالی موسوم به صیانت به دفعات شنیده شده است.

طبق آنچه در اخبار آمده، چهارمین نشست فراکسیون هوش مصنوعی اخیرا با موضوع «مواجهه با هوش مصنوعی» برگزار شده و گویا در کنار اعضای فراکسیون و جمعی از نمایندگان اندیشکده‌ها، پژوهشکده‌ها، از حضور شماری از فعالان بخش خصوصی نیز در این جلسات استفاده شده است.

تقی‌پور در بخشی از این جلسه با اشاره به اینکه انتقاداتی نسبت به ورود حاکمیت به بحث قانون‌گذاری این حوزه به گوش می‌رسد، گفته بود: «بعضا دوستان از اینکه ما فقط تلاش برای نوشتن سند در حوزه هوش مصنوعی داریم، انتقاد کردند؛ اما باید به این نکته توجه داشت که معمولا زمانی که پدیده‌های جدیدی به جامعه وارد می‌شود این‌گونه است که تا نهادهای مختلف -به‌ویژه نهادهای دولتی و حاکمیتی- دست به اقدام بزنند، نیازمند به این سندها و چارچوب‌های قانونی و حقوقی‌ هستند تا این حرکت‌ها شروع شود.»

وی با اشاره به اینکه اکنون برنامه هفتم توسعه در مرکز توجه است، این برنامه را نقطه مناسبی برای ورود به این حوزه فناورانه دانسته و تاکید کرده بود که پیشنهادهای خروجی این جلسات به تدریج بررسی، بازبینی، تکمیل و در برنامه هفتم توسعه وارد می‌شوند.

رئیس فراکسیون هوش مصنوعی و حکمرانی داده‌ها در بخش دیگری از صحبت‌های خود در تاکید بر ضرورت ایجاد چنین فراکسیونی گفته بود: «خیلی مهم است که علاوه بر دولت و جایی که برنامه‌ها را تصویب می‌کند، ساختاری مجزا را به عنوان هسته مرکزی موضوع مشخص کنیم تا راجع به کیفیت برنامه‌ها و شاخص‌های مختلف آن بحث و نظر داشته باشند.» تقی‌پور معتقد است که در واقع طی این هم‌اندیشی‌ها می‌توان نهاد تنظیم‌گر مناسبی نیز برای این برنامه‌ها پیش‌بینی و تعیین کرد.

 

احتمال تشکیل یک وزارتخانه مستقل

تاکید بر لزوم تشکیل نهادی مستقل، برای رسیدگی به موضوعات مرتبط با فناوری هوش مصنوعی، محدود به مجلس نیست و در کنار آن افراد دیگری در بدنه بخش‌های مختلف حاکمیت نیز از این مورد سخن گفته بودند. در یکی از این موارد، چندی پیش محمد رضوی‌زاده، رئیس پژوهشگاه ارتباطات نیز با بیان اینکه نهادهای زیادی در زمینه هوش مصنوعی تصمیم می‌گیرند و متولی مشخصی وجود ندارد، از پرداختن به بحث قانون‌گذاری هوش مصنوعی در برنامه هفتم توسعه استقبال کرده و تاکید کرده بود که انتظار می‌رود با این فرآیند، نهایتا متولی هوش مصنوعی در کشور مشخص شود.

در همین راستا اخیرا شنیده می‌شود که شماری از نمایندگان مجلس، از تشکیل وزارتخانه‌ای برای هوش مصنوعی صحبت می‌کنند و احتمال عملیاتی شدن این تصمیم قوت گرفته است.

یکی از فعالان بخش خصوصی که در جلسات تخصصی برگزار شده توسط فراکسیون هوش مصنوعی مجلس نیز حضور داشته درباره احتمال تشکیل وزارت هوش مصنوعی به «دنیای اقتصاد» می‌گوید: این پیشنهادی است که هم از سوی فعالان بخش خصوصی و هم از سوی چند تن از نمایندگان مجلس مطرح شده و دنبال می‌شود. با این‌حال گویا فعلا متولی اصلی مدیریت این حوزه همچنان شورای عالی فضای مجازی است.

در ادامه این تلاش‌ها، روز شنبه نیز محمدمهدی زاهدی، عضو کمیسیون آموزش و تحقیقات مجلس در گفت‌وگویی با «ایرنا»، به بیان جزئیاتی درباره لزوم تشکیل یک نهاد تخصصی برای بر عهده گرفتن مدیریت این حوزه سخن گفته بود و این باعث شد که احتمال تشکیل وزارتخانه هوش مصنوعی تا حدی قوت بگیرد.

زاهدی در تشریح حالات مختلفی که می‌توان بحث مدیریت این حوزه را پیش برد، گفته بود: یکی از این حالت‌ها آن است که مرکزی زیرنظر ریاست‌جمهوری تشکیل شود تا این مسوولیت به آن سپرده شود. اما تجارب مدیریتی در کشور نشان داده که مراکز زیرمجموعه ریاست‌جمهوری، مانند مرکز ملی فضای مجازی و افتا، چابکی کافی را برای برعهده گرفتن این مسوولیت ندارند. راهکار دوم سپردن مسوولیت هوش مصنوعی به یک وزارتخانه از میان وزارتخانه‌های موجود است که منطقی‌ترین گزینه می‌تواند وزارت ارتباطات و فناوری اطلاعات باشد.

وی معتقد است که چنین حالتی نیز در خوشبینانه‌ترین حالت منتج به ایجاد سازمانی وابسته به آن وزارتخانه نظیر سازمان فناوری اطلاعات خواهد شد که جایگاه لازم را برای تعامل با سایر وزارتخانه‌ها و قوای سه‌گانه نخواهد داشت و مصداق این موضوع، تکالیف مرتبط با دولت الکترونیک است.

در همین راستا، زاهدی راهکار سوم را که تشکیل یک وزارتخانه جدید و مستقل است مطرح کرده و افزوده است: «این وزارتخانه با توجه به جایگاه سازمانی که خواهد داشت، مسوولیت هوش مصنوعی کشور را در تمام لایه‌های سیاستگذاری تا اجرا برعهده خواهد گرفت و سایر وزارتخانه‌ها و نهادهای دولتی ملزم به تعامل و همکاری با این وزارتخانه خواهند شد.»

این عضو کمیسیون آموزش و تحقیقات مجلس در تشریح اینکه مطالعات ضروری برای چنین اقدامی در کدام نهاد و به چه شکلی باید انجام شود و پیش‌زمینه تشکیل چنین وزارتخانه‌ای چیست، اظهار کرده است: «به نظر می‌رسد بهترین انتخاب برای انجام چنین کاری، مرکز پژوهش‌های مجلس شورای اسلامی است که نتیجه مطالعات و تحقیقات آن در قالب طرح‌های پیشنهادی به مجلس ارائه می‌شود و ظرفیت تبدیل شدن به قانون را دارد.‌»

وی در ادامه افزوده است: «بررسی‌ها نشان می‌دهد که مرکز مذکور طی سال‌های گذشته مطالعات مختلفی را نیز در این حوزه انجام داده است و در حال حاضر آمادگی کامل برای پرداختن به این موضوع را دارد.»

 

نگران‌کننده یا امیدبخش؟

با تمام اینها و فارغ از آنکه کدام قوه یا نهاد مسوولیت اصلی مدیریت و سامان‌دهی حوزه هوش مصنوعی را در کشور عهده‌دار شو‌د، این سوال مطرح است که اساسا جدیت حاکمیت در تشکیل نهادی مستقل و تخصصی برای رسیدگی به این فناوری نوظهور باید برای فعالان این حوزه امیدبخش باشد یا نگرانی آنها را برانگیزد.

در همین راستا، نیما شمسا‌پور، از فعالان بخش خصوصی که در زمینه ارائه خدمات دیجیتال مبتنی بر فناوری هوش مصنوعی مشغول به کار است، در پاسخ به اینکه پیامدهای چنین توجه ویژه‌ای برای آینده هوش مصنوعی کشور مثبت است یا منفی، به «دنیای اقتصاد» می‌گوید: «در همه جای دنیا اینکه دولت‌ها و نهادهای قانون‌گذار نسبت به ترندهای تکنولوژی توجه ویژه نشان دهند هم اثرات مثبت دارد و هم منفی؛ در نتیجه نمی‌توان کاملا صفر و صدی به موضوع نگاه کرد.»

وی در تشریح اثرات مثبت رویکرد اخیر می‌گوید: «در کل وقتی توجه قانون‌گذاران به یک حوزه جلب می‌شود، توجه بخش‌های زیاد دیگری را نیز به این حوزه جلب می‌کند؛ در نتیجه احتمالا منابع مالی، امکانات و سرمایه‌گذاری‌های بیشتری را جلب این حوزه می‌کند.»

وی معتقد است که پیشرفت در زمینه هوش مصنوعی مستلزم ایجاد زیرساخت‌هایی است که در مجموع به سرمایه‌گذاری‌های زیادی نیاز دارند و چنین توجهاتی، مسیر ایجاد این زیرساخت‌ها را هموارتر می‌کند.

شمسا‌پور معتقد است که نتیجه مثبت دیگر این توجه می‌تواند باز شدن پای هوش مصنوعی و ابزارهای آن به مبحث پژوهش و بررسی‌ از سوی مدیران ارشد کشور باشد.

وی در تشریح این نکته می‌گوید: «بدون شک با ابزارهای موجود، دستیارهای هوش مصنوعی می‌توانند کارآیی به مراتب بیشتری نسبت به دستیارهای انسانی داشته باشند و بهره‌مندی از ظرفیت‌های این فناوری برای جست‌وجوی نمونه‌های مشابهی که در یک مورد خاص در نقاط دیگر دنیا انجام شده، می‌تواند سرعت حصول نتیجه و کیفیت خروجی‌ها را بهبود دهد.»

این فعال حوزه فناوری با بیان اینکه اکنون هوش مصنوعی نه تنها در ایران که در کل دنیا در مرکز توجه قرار دارد، به یکی از نکات منفی این توجه‌های مقطعی و گاه‌ افراطی می‌پردازد و می‌گوید: به‌طور‌ کلی در زمان‌هایی که یک فناوری ترند است و مدیریت درستی روی این انتظارات انجام نمی‌شود، اندکی بعد به ناامیدی فعالان و سیاستگذار از این حوزه ختم می‌شود و در نهایت سرمایه‌های روانه شده به این حوزه را فراری می‌دهد.

یکی دیگر از مواردی که در این توجه جدی سیاستگذار به هوش مصنوعی می‌تواند باعث نگرانی فعالان حوزه باشد، احتمال ایجاد موانع قانونی در مسیر توسعه این فناوری است.

شمسا‌پور در تشریح این دیدگاه می‌گوید: «حقیقت این است که توسعه هوش مصنوعی جز با دسترسی به مجموعه‌های کلان داده‌ و سرمایه‌گذاری‌های جدی در این حوزه ممکن نیست. تا الان این سرمایه‌گذاری‌ها توسط بخش خصوصی انجام می‌شد اما کمک دولت‌ها در تمام دنیا برای پیشرفت بیشتر چنین مواردی راهگشاست. حالا در مورد کشور ما نیز همین‌طور است. اگر افراد درستی در جایگاه تصمیم‌گیری این حوزه قرار بگیرند، تشکیل چنین نهادهای‌ جدیدی می‌تواند بسیار مفید و امیدبخش باشد. اما اگر بنا باشد رویه‌ای جز این در پیش گرفته شود حتی می‌تواند ضرباتی را نیز به این حوزه وارد کند.»

در مجموع گویا سیاستگذاران کشور، مسیر توسعه بیشتر فناوری‌های مرتبط با هوش مصنوعی را در گرو ایجاد یک نهاد جدید برای نظارت و مدیریت این حوزه می‌بینند و در این مسیر کشورهای دیگری مانند امارات متحده عربی را که یک وزارتخانه تخصصی برای هوش مصنوعی دارد، الگو قرار داده‌اند.

این در حالی است که باید در نظر گرفت که با سرمایه‌گذاری‌هایی که امارات یا عربستان در زمینه هوش مصنوعی انجام داده‌اند، میزان پیشرفت آنها در این حوزه با کشور ما تفاوت چشمگیری دارد.

حالا با این حساب و با توجه به پیشرفت نه چندان زیاد هوش مصنوعی در کشور و اینکه با وجود وزارت‌ ارتباطات و فناوری اطلاعات، ماهیت چنین وزارتخانه جدیدی می‌تواند به نوعی موازی‌کاری منجر شود و نظارت بر عملکرد آن را مشکل کند، باید دید که این تصمیم در ادامه و از سوی متخصصان تا چه اندازه سنجیده و عملی تلقی خواهد شد.

بدون شک و از آنجا که مدت زیادی از مطرح شدن این موضوع از سوی سیاستگذاران نمی‌گذرد، هنوز برای بررسی ابعاد مختلف این اقدام و تبعات احتمالی آن زود است. اما جزئیات فعلی ارائه شده از سوی نمایندگان مجلس حاکی از آن است که فعلا فراکسیون هوش مصنوعی قرار است بر راه‌اندازی پلتفرم و تولید محصولات بومی مبتنی بر هوش مصنوعی و صادرات آنها، تمرکز کند. (منبع: دنیای اقتصاد)

پیش‌نویس سند ملی هوش مصنوعی ارایه شد

يكشنبه, ۲۹ مرداد ۱۴۰۲، ۰۳:۱۵ ب.ظ | ۰ نظر

 پیش‌نویس «سند ملی هوش مصنوعی» در نخستین نشست میز تخصصی هوش مصنوعی ارائه شد.

به گزارش مرکز ارتباطات و اطلاع رسانی معاونت علمی، فناوری و اقتصاد دانش بنیان ریاست جمهوری، در ابتدای این جلسه که به میزبانی دبیرخانه شورای‌ عالی انقلاب ‌فرهنگی و با حضور نمایندگان سازمان‌ها و دستگاه‌های مختلف دولتی و بخش خصوصی برگزار شد، محمد نژادپور دبیر میز تخصصی به تبیین اهمیت هوش مصنوعی با توجه ‌به فرمایشات مقام معظم رهبری پرداخت.

وی در ادامه بر کاربردها، اسناد و شاخص‌های مرتبط در حوزه هوش مصنوعی، جایگاه کشور در رتبه‌بندی‌های بین‌المللی و ارتباط بیانیه گام دوم انقلاب اسلامی با فناوری هوش مصنوعی مروری داشت.

بر اساس این گزارش، در ادامه رشاد حسینی، دبیر ستاد توسعه فناوری‌های هوش مصنوعی و رباتیک به‌ مرور اجمالی پیش‌نویس فعلی سند ملی هوش مصنوعی پرداخت. این سند پیش از این توسط ستاد اقتصاد دیجیتال نگارش و سپس مسئولیت آن به این ستاد محول شده است.

 

تمرکز سند بر هوش مصنوعی صنعتی باشد

پس از ارائه پیش‌نویس، نمایندگان دستگاه‌ها و شرکت‌ها به بیان نقطه‌نظرات خود در راستای بهبود کیفیت سند ملی هوش مصنوعی پرداختند. در ابتدا نماینده نظام صنفی رایانه‌ای گفت: در حال حاضر این دغدغه مطرح است که علاوه بر سندی که توسط ستاد در حال نگارش است، مرکز ملی فضای مجازی و فراکسیون هوش مصنوعی و حکمرانی داده مجلس نیز در حال انجام کار مشابهی هستند. از همین رو لازم است هماهنگی‌هایی صورت بگیرد تا از دوباره‌کاری پرهیز شود.

وی در ادامه پیشنهاد داد که تمرکز سند بر هوش مصنوعی صنعتی باشد و نقش بخش خصوصی در اقتصاد هوش مصنوعی پررنگ‌تر دیده شود تا بتوان زیست‌بومی ایجاد کرد که به درآمدزایی کمک کند.

در جلسه مذکور نماینده ستاد کل نیروهای مسلح نیز خواستار ایجاد ارتباط مناسب بین سند شورای‌ عالی انقلاب‌ فرهنگی و اسناد حاصل از فعالیت‌های مرکز ملی فضای مجازی و فراکسیون هوش مصنوعی مجلس شد.

وی در ادامه اظهار داشت: در سند راهبردی فضای مجازی ۳۹ اقدام کلان وجود دارد که چند بند آن مرتبط با هوش مصنوعی بوده و مناسب است که در پیش‌نویس سند ملی آن بندها پوشش داده شود.

 

نفوذ هوش مصنوعی در بخش‌های مختلف در اولویت باشد

سخنران دیگر این جلسه، محمد سعید سیف، عضو هیات‌ علمی دانشگاه بود که به اهمیت مکانیزم‌ها، نقشه راه و تقسیم وظایف به‌ صورت بخشی پرداخت و گفت: پیشنهاد می شود شاخص‌های ارزیابی در سند به گونه ای تنظیم شود که نفوذ هوش مصنوعی در بخش‌های مختلف کشور در اولویت قرار بگیرد.

فؤاد قادری، عضو هیات‌ علمی دانشگاه نیز در سخنانی بر ‌ضرورت توجه به تحقیقات پایه‌ای در سند هوش مصنوعی و اهمیت توجه به توسعه کاربرد علاوه بر توسعه علم و فناوری تاکید کرد.

 

شکل‌گیری زیست‌بوم هوش مصنوعی مورد توجه باشد

سایر حاضران در جلسه نیز به بیان دیدگاه‌ها و دغدغه‌های خود پرداختند. آینده‌پژوهی در راستای توجه به فرصت‌ها و تهدیدهای فناوری هوش مصنوعی در سطح ملی و بین‌المللی، توجه به هوش مصنوعی به‌صورت همگرا با سایر فناوری‌های راهبردی مانند نانو و اینترنت اشیا، فقدان زیست‌بوم هوش مصنوعی در کشور و تدوین سند به منزله فضاسازی برای شکل‌گیری آن و توجه به اهمیت نقش دولت در مرحله شکل‌گیری زیست‌بوم هوش مصنوعی کشور، بخشی از دغدغه های مطرح شده بود.

همچنین ضرورت آگاهی‌بخشی در جامعه مدنی در حوزه هوش مصنوعی و نقش صداوسیما و آموزش‌ و پرورش، تدوین طرحی در تقسیم کار ملی برای قابلیت پاسخ سریع برای چالش‌های روز در حوزه هوش مصنوعی باتوجه‌ به ماهیت و تغییرات سریع آن، توجه به رضایتمندی و رفاه مردم در چشم‌انداز سند و توجه به مفاهیم عدالت و مسئولیت‌پذیری در سند از دیگر مسایل مطرح شده توسط حاضران در جلسه بود.

نقش‌آفرینی شرکت‌های بزرگ در زیست‌بوم و نقش آنها در تقویت استارتاپها، تبیین راهبردی ویژه برای جبران عقب‌افتادگی‌ها در حوزه هوش مصنوعی کشور و توجه به هوش مصنوعی به‌عنوان زنجیره‌ای ذیل تحول دیجیتال، دیگر دغدغه های سخرانان بود.

کریم زاهدی، معاون نظارت و ارزیابی ستاد علم و فناوری نیز بر توجه به ‌نظام عرضه و تقاضا، زیست‌بوم داده، توجه به روابط بین‌الملل و تعریف نگاشت نهادی در سند ملی هوش مصنوعی تأکید کرد.

نیویورک‌تایمز از «ChatGPT» شکایت می‌کند

يكشنبه, ۲۹ مرداد ۱۴۰۲، ۰۳:۰۹ ب.ظ | ۰ نظر

نشریه نیویورک‌تایمز احتمالا از اُپن اِی آی (OpenAI) به دلیل استفاده چت‌بات هوش مصنوعی «چت جی پی تی» از مقاله‌های این روزنامه برای تولید متن شکایت کند

به گزارش خبرگزاری صداوسیما به نقل از interestingengineering، نیویورک‌تایمز از اینکه اُپن اِی آی (OpenAI) برای استفاده از محتوای آن هزینه‌ای نمی‌پردازد ناراضی است و نگران است که «چت جی پی تی» با ارائه پاسخ‌هایی بر اساس گزارش‌های نیویورک‌تایمز ترافیک آنلاین این نشریه را کاهش دهد. 
به گفته منابع آگاه که نخواستند نامشان فاش شود، تایمز و اُپن اِی آی چند هفته در حال مذاکره برای دستیابی به توافق بوده‌اند، اما مذاکرات به بن‌بست خورده و نیویورک‌تایمز اکنون در حال بررسی گزینه‌های قانونی است. 
شکایت نیویورک‌تایمز یک مورد برجسته در زمینه فناوری نوظهور هوش مصنوعی مولد است که محتوای جدیدی از داده‌های موجود ایجاد می‌کند. 
 «چت جی پی تی» یکی از پیشرفته‌ترین نمونه‌های این فناوری است و می‌تواند متنی منسجم و مرتبط در موضوعات مختلف را با استفاده از مجموعه داده عظیمی که از اینترنت استخراج شده است، تولید کند. 
با این حال، این مجموعه داده شامل میلیون‌ها مقاله از تایمز و سایر ناشران است که بدون اجازه کپی شده‌اند. تایمز ادعا می‌کند که این موضوع، حقوق مالکیت معنوی آن را نقض می‌کند و «چت جی پی تی» با استفاده از گزارش‌های آن به عنوان منبع اطلاعات با روزنامه‌نگاری رقابت می‌کند. 
این نشریه به ویژه در مورد تأثیر «چت جی پی تی» بر موتور‌های جستجو که به طور فزاینده‌ای از ابزار‌های مولد هوش مصنوعی برای ارائه پاسخ به سؤالات کاربران استفاده می‌کنند، نگران است. 
 تایمز نگران است که اگر کاربران پاسخ‌هایی را از «چت جی پی تی» دریافت کنند که بر اساس گزارش این نشریه باشد، انگیزه کمتری برای بازدید از وب‌سایت و مطالعه مقالات آن خواهند داشت و این می‌تواند به درآمد و شهرت روزنامه لطمه بزند.  
پیامد‌های قانونی هوش مصنوعی مولد هنوز نامشخص است، زیرا هیچ سابقه‌ای برای چنین مواردی وجود ندارد. با این حال، کارشناسان می‌گویند اگر تایمز بتواند ثابت کند که «چت جی پی تی» حق نسخه‌برداری‌اش را نقض می‌کند، می‌تواند یک پرونده قوی علیه اُپن اِی آی داشته باشد.

هوش مصنوعی کلمات رمز را سرقت می‌کند

جمعه, ۲۷ مرداد ۱۴۰۲، ۰۳:۰۴ ب.ظ | ۰ نظر

مطالعه‌ها نشان می‌دهد هوش مصنوعی می‌تواند گذر واژه‌ی کاربران را با دقت ۹۵ درصد از طریق گوش دادن به صدای فشردن صفحه کلید سرقت کند.

به گزارش خبرگزاری صداوسیما به نقل از نیویورک‌پست، مطالعه‌ها نشان می‌دهد هوش مصنوعی می‌تواند گذر واژه‌ی کاربران را با دقت ۹۵ درصد از طریق گوش دادن به صدای فشردن صفحه کلید سرقت کند.

بر اساس نتایج مطالعه‌ای که در اوایل ماه جاری منتشر شد، هکر‌ها می‌توانند گذرواژه‌ی کاربران را با دقتی تقریباً عالی از طریق گوش دادن به ضربه‌های کلید افراد و با کمک ابزار‌های هوش مصنوعی سرقت کنند.

گروهی از دانشمندان کامپیوتر مستقر در انگلیس یک مدل هوش مصنوعی را آموزش دادند تا صدا‌های ایجاد شده توسط ضربه زدن به کلید در نسخه ۲۰۲۱ مک بوک پرو (که یک لپ تاپ محبوب به حساب می‌آید) را شناسایی کند.

بر اساس نتایج مطالعه منتشر شده توسط دانشگاه کورنل، زمانی که برنامه هوش مصنوعی در یک گوشی هوشمند نزدیک فعال شد، توانست گذر واژه  تایپ شده را با دقت فوق العاده ۹۵ درصد بازتولید کند.

این ابزار هوش مصنوعی مورد علاقه هکرها، در حین گوش دادن به تایپ کردن از طریق میکروفون لپ‌تاپ در یک کنفرانس ویدیویی (از طریق برنامه زوم) بسیار دقیق بود.

محققان گفتند که ضربه‌های کلید را با دقت ۹۳ درصد بازتولید می‌کند که یک رکورد است.

محققان هشدار دادند که خیلی  از کاربران از این خطر که بازیگران بد می‌توانند از طریق رصد تایپ آن‌ها دسترسی غیرمجاز به حساب‌شان داشته باشند بی اطلاع هستند (نوعی حمله سایبری که آن را "حمله کنترل جانبی صوتی" نامیدند).

به عنوان مثال، هنگام تایپ رمز عبور، افراد به طور مرتب صفحه نمایش خود را پنهان می‌کنند، اما برای مخفی کردن صدای صفحه کلید خود کاری انجام نمی‌دهند.

برای اندازه‌گیری دقت، محققان ۳۶ کلید لپ‌تاپ را در مجموع ۲۵ بار فشار دادند که از میزان فشار و انگشت متفاوت بود.
این برنامه قادر به گوش دادن به عناصر شناسایی هر کلید، مانند طول موج صدا بود. این گوشی هوشمند، یک آیفون ۱۳ مینی بود که در فاصله ۱۷ سانتی متری از صفحه کلید قرار داشت.

امکان کمک ابزار‌های هوش مصنوعی به هکر‌ها یک خطر دیگری برای این فناوری در حال رشد است.

خالق «چت جی‌پی‌تی» در مرز ورشکستگی

سه شنبه, ۲۴ مرداد ۱۴۰۲، ۰۳:۴۴ ب.ظ | ۰ نظر

بر اساس گزارش SimilarWeb، تعداد کاربرانی که از وب سایت چت جی‌پی‌تی بازدید کرده‌اند در ماه ژوئیه سال ۲۰۲۳ نسبت به ماه ژوئن ۱۲ درصد کاهش داشته و از ۱.۷ میلیارد به ۱.۵ میلیارد رسیده است. این داده‌ها شامل کاربرانی نمی‌شود که از واسط برنامه‌نویسی کاربردی (API) اُپن ای‌آی استفاده می‌کنند که به توسعه‌دهندگان اجازه می‌دهد به جی‌پی‌تی دسترسی داشته باشند و آن را در اپلیکیشن‌های خود ادغام کنند.

هزینه‌های هنگفت چت جی‌پی‌تی شرکت اُپن‌ای‌آی (OpenAI) را تهدید می‌کند و این شرکت روزانه ۷۰۰ هزار دلار برای اجرای چت جی‌پی‌تی که یکی از خدمات هوش مصنوعی شاخص خود است، خرج می‌کند.

به گزارش ایسنا و به نقل از آی‌ای، گزارش شده که شرکت اُپن ای‌آی با یک بحران مالی مواجه است که می‌تواند منجر به ورشکستگی آن شود.

چت جی‌پی‌تی از یک مدل زبانی قدرتمند به نام جی‌پی‌تی (GPT) استفاده می‌کند و می‌تواند مکالمات واقع بینانه و جذابی را در مورد موضوعات مختلف برقرار کند.

با این حال، به رغم قابلیت‌های چشمگیر، چی جی‌پی‌تی نتوانسته درآمد کافی برای شرکت اُپن ای‌آی برای پوشش هزینه‌های خود فراهم کند. این استودیوی هوش مصنوعی همچنین سعی کرده از نسخه‌های جدیدتر جی‌پی‌تی خود مانند GPT-۳.۵ و GPT-۴ درآمدزایی کند، اما موفقیت چندانی نداشته است.

کاهش پایگاه کاربران

این گزارش همچنین نشان می‌دهد که پایگاه کاربران اُپن ای‌آی طی چند ماه گذشته به طور پیوسته در حال کاهش بوده است. بر اساس گزارش SimilarWeb، تعداد کاربرانی که از وب سایت چت جی‌پی‌تی بازدید کرده‌اند در ماه ژوئیه سال ۲۰۲۳ نسبت به ماه ژوئن ۱۲ درصد کاهش داشته و از ۱.۷ میلیارد به ۱.۵ میلیارد رسیده است. این داده‌ها شامل کاربرانی نمی‌شود که از واسط برنامه‌نویسی کاربردی (API) اُپن ای‌آی استفاده می‌کنند که به توسعه‌دهندگان اجازه می‌دهد به جی‌پی‌تی دسترسی داشته باشند و آن را در اپلیکیشن‌های خود ادغام کنند.

با این حال، از واسط‌های برنامه‌نویسی کاربردی OpenAI با چندین مدل زبانی منبع باز که برای استفاده و اصلاح رایگان هستند، مانند ۲ LLaMA و نسخه‌های دیگر نیز رقابت می‌کنند.

خطرات هوش مصنوعی و مقررات اخلاقی

این گزارش همچنین حاکی از آن است که بین سم آلتمن (Sam Altman) به عنوان یکی از بنیانگذاران و مدیر عامل شرکت اُپن ای‌آی و سایر استودیو‌های هوش مصنوعی درگیری وجود دارد. در حالی که اُپن ای‌آی بر کسب سود و توسعه نسخه‌های پیشرفته‌تر جی‌پی‌تی متمرکز است، آلتمن در مورد خطرات هوش مصنوعی صحبت کرده است، به خصوص اگر توسط دولت قوانینی برای آن تنظیم نشده باشد.

آلتمن بار‌ها هشدار داده که اگر هوش مصنوعی بر اساس ارزش‌های انسانی کنترل و هدایت نشود، میلیون‌ها شغل را از بین می‌برد و مشکلات اجتماعی و اخلاقی ایجاد می‌کند. برخی از کارشناسان فناوری حتی حدس می‌زنند که آلتمن در حال گذراندن یک لحظه فرانکشتاینی است. لحظه‌ای که در آن از خلق هیولایی که نمی‌تواند آن را رام کند پشیمان است.

به رغم نگرانی‌های آلتمن، اُپن ای‌آی به دنبال راه‌های جدید و بهتری برای کسب درآمد از مدل زبانی GPT-۴ خود است که انتظار می‌رود به زودی منتشر شود. با این حال هنوز به سوددهی نرسیده است. زیان آن از زمان توسعه چت جی‌پی‌تی به ۵۴۰ میلیون دلار رسیده است.

آینده‌ی شرکت اُپن ای‌آی در این مرحله نامشخص است. این استودیوی هوش مصنوعی ۱۰ میلیارد دلار سرمایه از مایکروسافت به همراه برخی دیگر از شرکت‌های سرمایه‌گذار خطرپذیر دریافت کرده است که فعلا آن را سرپا نگه داشته است.

با این حال، همانطور که در مجله‌ی Analytics India گزارش شده است، پیش‌بینی اُپن ای‌آی برای رسیدن به درآمد سالانه ۲۰۰ میلیون دلار و هدف‌گذاری برای رسیدن به یک میلیارد دلار در سال ۲۰۲۴، با توجه به زیان‌های فزاینده آن غیر واقعی به نظر می‌رسد.

یکی از گزینه‌های امکان‌پذیر برای اُپن ای‌آی این است که برای عرضه اولیه عمومی (IPO) اقدام کند و یک شرکت بزرگ فناوری را به خرید آن مجاب کند. این یک استراتژی خوب برای سرمایه گذاران فعلی خواهد بود. با این حال، برخی از مسائل وجود دارد که ممکن است از وقوع IPO جلوگیری کند یا ارزش آن را کاهش دهد.

عرضه اولیه عمومی (IPO) یک رویداد مهم برای سازمان‌ها است، زیرا مردم در طی آن به رشد شرکت در افزایش سرمایه کمک می‌کنند.

یکی از این مسائل مربوط به نیروی انسانی است. بر اساس این گزارش، اُپن ای‌آی برای حفظ و جذب استعداد‌ها تلاش کرده است، زیرا بسیاری از کارکنان آن، شرکت‌ها یا پروژه‌های هوش مصنوعی دیگر را ترک کرده و به آن‌ها ملحق شده‌اند. این می‌تواند بر کیفیت و نوآوری محصولات و خدمات آن تأثیر بگذارد.

اُپن ای‌آی در حال حاضر دوره‌ای با نرخ فرسایشی بالا را پشت سر می‌گذارد. آن‌ها به خودی خود افراد را مانند بقیه صنعت فناوری اخراج نمی‌کنند. با این حال در حال از دست دادن کارمندان یا به عبارت بهتر برخی از استعداد‌های برتر هستند، زیرا کارکنان آن‌ها مدام توسط رقبای شرکت شکار می‌شوند.

رقابت و مسائل زنجیره تامین

موضوع دیگر رقابت است. در حالی که شرکت‌هایی مانند گوگل یا متا اغلب به عنوان رقبای اصلی اُپن ای‌آی در نظر گرفته می‌شوند، مردم اغلب ایلان ماسک و xAI را فراموش می‌کنند. ماسک برای مدت طولانی با هوش مصنوعی درگیر بوده که این عمدتا به دلیل وجود خودرو‌های تسلا است. با این حال، از زمانی که چت جی‌پی‌تی مانند ویروس پخش شد، ماسک چند حرکت بزرگ در فضای هوش مصنوعی انجام داده است. برای شروع، او آشکارا اعلام کرد که یک ربات چت‌بات رقیب به نام تروث جی‌پی‌تی (TruthGPT) خواهد ساخت که به اندازه‌ی هوش مصنوعی شرکت اُپن ای‌آی مغرضانه یا مستعد توهم نخواهد بود.

ماسک بیش از ۱۰ هزار پردازنده‌ی گرافیکی انویدیا را برای پروژه هوش مصنوعی خود خریداری کرده بود که هر قطعه ۱۰ هزار دلار قیمت داشت که به این معنی بود که او بیش از ۱۰ میلیون دلار را تنها برای پردازنده‌های گرافیکی هزینه کرده است.

مسئله دیگری که صنعت هوش مصنوعی را با مشکل مواجه کرده است، زنجیره تامین است. از آنجایی که مدل‌های هوش مصنوعی به شدت به قدرت محاسباتی وابسته هستند، کمبود مداوم پردازنده‌های گرافیکی در سطح سازمانی وجود دارد. علاوه بر این، با وجود جنگ فناوری ایالات متحده و چین، هوش مصنوعی و شرکت‌های اینترنتی در چین در حال خرید همه‌ی پردازنده‌های گرافیکی در سطح سازمانی از طریق واسطه‌ها هستند. برخی از آن‌ها حتی موفق به همکاری مستقیم با شرکت‌های بزرگ تولید تراشه‌های هوش مصنوعی شده‌اند.

گزارش اخیر نشان داد که شرکت‌های فناوری چینی برای تراشه‌های هوش مصنوعی A ۸۰۰ و A ۱۰۰ خود به NVIDIA سفارش داده‌اند که مجموعا پنج میلیارد دلار هزینه داشته و قرار است تا سال ۲۰۲۴ تحویل داده شود. آلتمن خاطرنشان کرد که کمبود پردازنده‌های گرافیکی موجود در بازار مانع پیشرفت شرکت در بهبود و آموزش مدل‌های جدید می‌شود. برنامه‌ی اخیر اُپن ای‌آی برای علامت تجاری GPT-۵ نشان دهنده‌ی تعهد آن‌ها به توسعه‌ی مداوم مدل است. با این وجود، این منجر به کاهش قابل توجه کیفیت خروجی چت جی‌پی‌تی شده است.

مشکلات اضافی این عوامل از جمله تشدید شکست‌های مالی، کاهش تعداد کاربران، چالش‌ها در حفظ درآمد‌های ثابت و قابل توجه، و کاهش کیفیت محصول شاخص آن‌ها نشان‌دهنده یک واقعیت ساده است: شرکت اُپن ای‌آی خود را در یک وضعیت مخاطره‌آمیز می‌بیند و باید به سرعت راهی برای رسیدن به سودآوری ایجاد کند.

هوش مصنوعی مشاغل را نابود می‌کند

يكشنبه, ۲۲ مرداد ۱۴۰۲، ۰۴:۴۱ ب.ظ | ۰ نظر

«پل کروگمن» اخیرا اظهار داشت که هوش مصنوعی مشاغل را از بین خواهد برد و بشر نمی‌تواند جلوی این اتفاق را بگیرد.
به گزارش ایسنا و به نقل از بیزینس اینسایدر، «پل کروگمن»(Paul Krugman) اقتصاددان برنده جایزه نوبل، در یکی از اپیزودهای پادکست «Odd Lots» شرکت رسانه جمعی «بلومبرگ»(Bloomberg) گفت: رونق هوش مصنوعی ممکن است شغل شما را از بین ببرد و ما نمی‌توانیم در این زمینه کاری انجام دهیم.

کروگمن که مرتب در مورد سیاست‌های اقتصادی و تأثیرات گسترده‌تر آنها می‌نویسد، گفت که فکر می‌کند هوش مصنوعی بیش از آن فراگیر و پراکنده است که بتوان هرگونه مداخله بزرگ از سوی دولت را برای محدود کردن آن تضمین کرد.

منظور کروگمن این است که رونق هوش مصنوعی به جای ویران کردن یک منطقه یا گروه اجتماعی خاص، احتمالا برخی از مشاغل موسوم به «یقه سفید» یا مشاغل یدی را به طور مساوی در سراسر کشور از بین خواهد برد. به گفته کروگمن، این بدان معناست که طراحی کردن سیاست‌های اصلاحی برای کمک به کارگران آواره دشوار خواهد بود. وی افزود: من فکر نمی‌کنم در این مورد به غیر از تلاش برای ممنوع کردن کامل فناوری که کارساز نیست، بتوانید کار زیادی انجام دهید.

کروگمن ادامه داد: بسیاری از کارهای یقه سفید که فناوری‌هایی مانند ChatGPT آنها را تهدید می‌کنند، در تفکر خلاق یا اصیل ریشه ندارند. چند نفر در دنیای واقعی خلاق هستند؟ چقدر از کارهایی که برای انجام دادن آنها به مردم پول زیادی می‌دهیم، به تصحیح خودکار فوق‌العاده گسترده شباهت دارند؟ این به طور بالقوه یک مفهوم واقعا بزرگ است و می‌تواند جای بسیاری از مشاغل را بگیرد.

کروگمن گفت: اما چگونه یک مفهوم واقعا بزرگ، به یک تاثیر قابل اندازه‌گیری بر اقتصاد تبدیل می‌شود؟ هنوز اندازه‌گیری کردن تأثیر نوآوری‌های فناوری مانند هوش مصنوعی دشوار است زیرا روشی که ما فناوری را با آن اندازه‌گیری می‌کنیم، خوب نیست.

کروگمن توضیح داد که اقتصاددانان معمولا معیارهای ملموسی مانند «افزایش موجودی سرمایه به رشد اقتصادی» را اضافه می‌کنند و آنچه را که نمی‌توان با رشد فناوری اندازه‌گیری کرد، برجسته می‌سازند. وی افزود: به عنوان مثال، بهره‌وری کشور با نرخ یک درصد در سال بین اواسط دهه ۹۰ و اوایل دهه ۲۰۰۰ شتاب گرفت که با ظهور اینترنت و در نهایت کشف چگونگی استفاده از فناوری اطلاعات توسط شرکت‌ها همراه بود.

با وجود این، برخی از موارد توسعه نیز در نتیجه موارد معمولی‌تر به دست می‌آیند. یک نمونه از این موارد، شرکت‌هایی هستند که متوجه می‌شوند چگونه از بارکد برای مدیریت موجودی‌های خود استفاده کنند.

کروگمن گفت: فناوری اساسا معیاری است که شما نمی‌توانید به صورت دیگری توضیح دهید. وقتی صحبت از هوش مصنوعی به میان می‌آید، تنها زمان مشخص خواهد کرد که چه اتفاقی خواهد افتاد.

رئیس سازمان پدافند غیرعامل کشور اولویت امسال این سازمان را بهره‌گیری از هوش مصنوعی برای دفاع سایبری و تولید امنیت در زیرساخت ها دانست و از تهیه برنامه ملی حفاظت از زیرساخت‌ها برای نخستین بار در کشور خبر داد.

به گزارش ایرنا سردار غلامرضا جلالی روز یکشنبه در نشست روسا و دبیران کمیته‌های پدافند غیرعامل دستگاه‌های اجرایی کشور که با حضور جواد اوجی، وزیر نفت و جمعی از مسئولان پدافند غیرعامل دستگاه‌های اجرایی و مسئولان سازمان پدافند غیرعامل کشور برگزار شد، مهمترین تهدیدات کنونی کشور را تهدیدات ترکیبی دانست و اظهار داشت: در این تهدیدات شاهد ترکیبی از ظرفیت‌ها، قابلیت‌ها و فناوری‌هایی هستیم که الگوهای متفاوتی از تهدید را به دنبال دارد.

وی افزود: یکی از مولفه‌های تهدیدات ترکیبی، ترکیب فناوری‌‎ها با یکدیگر است. در چنین شرایطی هر طرف که تسلط و اشرافش بر فناوری بیشتر باشد، بیشتر می‌تواند آن را در جهت اهدافش به کار گیرد. ما امروز شاهد هستیم که این مدل تهدیدات، کاملا توسعه پیدا کرده است.

سردار جلالی با بیان اینکه در چنین شرایطی تهدید شناسی و تعیین تهدید پایه، یعنی تهدیدی که احتمالا برما اثر می‌گذارد مقوله بسیار مهمی است، تصریح کرد: تهدیدات انسان ساخت متکی بر دو عنصر فناوری و راهبرد است و هر دو این عناصر پویا هستند؛ بنابراین تکلیف ما در تعیین، مطالعه و برداشت از تهدید پایه در هر مقطع خیلی مهم است که ما بدانیم تهدید پایه چیست و براساس آن تهدید، برنامه‌های دفاعی خود را تنظیم و دنبال کنیم.

 

اهمیت شناسایی تهدیدات درون زا

رئیس سازمان پدافند غیر عامل کشور با بیان اینکه در مقوله شناسایی تهدیدات انسان ساخت، یکی از مهمترین مولفه‌ها، تهدیدات درون زا است، تصریح کرد: به نظر می‌رسد یکی از موضوعات مهم برای همه دستگاه‌ها، مراقبت و شناخت تهدید درون زا در درون هر دستگاه است که باید مورد توجه قرار بگیرد. برای این امر الگوهای دانشی وجود دارد که در مدیریت این تهدیدات بسیار موثر و کارآمد است.

وی تهدیدات سایبری به ویژه در زیرساخت‌های صنعتی وابسته به فضای سایبری را لایه دیگر تهدیدات دارای اولویت برشمرد و تصریح کرد: در این لایه از تهدید، دستگاه‌های دولتی و خدماتی که بیشترین سرویس و خدمت را به مردم ارائه می‌کنند به عنوان هدف تهدید در نظر گرفته می‌شود و هرچقدر اثرگذاری پیامد قطع یک خدمت برمردم بیشتر باشد جذابیت هدف بالاتر است.

رئیس سازمان پدافند غیرعامل کشور در ادامه به تقسیم بندی آسیب پذیری‌ها پرداخت و توضیح داد: نوع اول، آسیب پذیری‌های ساده و پیش پا افتاده هستند که با مقداری دقت قابل برطرف کردن هستند. حوزه آسیب پذیری‌های ناشناخته قدری پیچیده و سخت بوده و ممکن است به راحتی پیدا نشود اما آسیب پذیری‌های ساده به راحتی قابل برطرف کردن هستند.

وی ادامه داد: برای ما بسیار اهمیت دارد که از آسیب پذیری‌های ساده که با توجه و دقت کافی می‌توان آن را برطرف کرد ضربه نخوریم.

سردار جلالی ادامه داد: با شروع قطع خدمت و ظهور پیامدها، آنگاه نوبت بزرگنمایی پیامدهای قطع خدمت بر مردم است که این پدیده به ویژه با ظهور شبکه‌های اجتماعی خارج پایه اثرات خود را نشان داده است.

 

تهیه برنامه ملی حفاظت از زیرساخت‌ها برای نخستین بار در کشور

وی ایجاد آمادگی در برابر سناریوهای پایه تهدیدات ترکیبی را از برنامه‌های جانبی امسال سازمان پدافند غیرعامل کشور برشمرد و تصریح کرد: یکی دیگر از حوزه‌های مورد تاکید سازمان، برنامه حفاظت از زیرساخت‌های کشور است. در این زمینه بعد از سه سال مطالعه تخصصی با پیگیری‌هایی که انجام شده است و با کمک دانشگاه مالک اشتر و سایر مراکز علمی کشور، برنامه ملی حفاظت از زیرساخت‌ها برای نخستین بار در کشور تهیه شد.

وی ادامه داد: در این برنامه، تهدیدات پایه، الگوها، نقش‌ها و وظایف به درستی تعریف شده است که دقیقا چه کارهایی توسط چه کسانی باید انجام شود.

سردار جلالی با اشاره به اینکه برای نخستین بار الزامات تخصصی زیرساخت‌های حیاتی، حساس و قابل حفاظت در موضوعات مختلف تعیین شده است، خاطرنشان کرد: همچنین در این برنامه، مباحث مربوط به عدم اجرای آن جرم انگاری شده و این مصوبه برای همه دستگاه‌ها لازم الاجراست.

رئیس سازمان پدافند غیرعامل کشور با بیان اینکه یکی از تکالیفی که از دستگاه‌ها خواسته شده تهیه ملاحظات و برنامه‌های حفاظت از زیرساخت دستگاه خاص خودشان است، توضیح داد: در این دستورالعمل این موضوع به دستگاه‌های ذی ربط واگذار شده که در زمان یکساله بتوانند ملاحظات حفاظت از زیرساخت آن دستگاه خاص را ذیل دستورالعمل ملی تهیه و دنبال کنند.

 

بهره‌گیری از هوش مصنوعی در دفاع سایبری و تولید امنیت در زیرساخت‌ها

رئیس سازمان پدافند غیرعامل کشور با بیان اینکه براساس تجربه تهدیدات سایبری سال گذشته، بخشی از حملات با استفاده از ظرفیت هوش مصنوعی در سال گذشته انجام شده است، خاطرنشان کرد: برهمین اساس امسال، در مقابله و موضوعات پدافند سایبری امسال اولویت ما بهره‌گیری از هوش مصنوعی در جهت دفاع سایبری و تولید امنیت در زیرساخت هاست. در این زمینه تلاش برای استفاده از ظرفیت شرکت‌های دانش بنیان در دستور کار سازمان پدافند غیرعامل کشور قرار گرفته است.

وی همچنین از تدوین پیوست‌های رسانه‌ای در حوزه پدافند سایبری و زیستی خبر داد و تصریح کرد: هدف از این اقدام، ایجاد انسجام در اطلاع رسانی، آگاه سازی و آرامش بخشی برای حفاظت از سلامت روان افکار عمومی علیه برنامه‌های تبلیغاتی دشمنان در صورت بروز حوادث احتمالی است.

عیسی زارع پور وزیر ارتباطات و فناوری اطلاعات در یکی از پیام‌رسان‌های بومی در خصوص احکام مصوب در کمیسیون تلفیق برنامه هفتم توسعه گفت: بر اساس یکی از احکام مصوب دیروز در کمسیون تلفیق برنامه هفتم توسعه، مرکز ملی فضای مجازی و ما مکلف شدیم که با همکاری سایر دستگاه‌ها ظرف شش ماه از زمان لازم‌الاجرا شدن قانون، «برنامۀ ملّی توسعۀ هوش مصنوعی» را تهیه و به تصویب شورای عالی فضای مجازی برسانیم. ان‌شاءالله کار به زودی آغاز خواهد شد.

اهداف تشکیل فراکسیون هوش مصنوعی مجلس

دوشنبه, ۹ مرداد ۱۴۰۲، ۰۲:۴۹ ب.ظ | ۰ نظر

رئیس فراکسیون هوش مصنوعی و حکمرانی داده‌ها با تشریح اهداف و آخرین اقدامات این فراکسیون گفت: سند حکمرانی هوش مصنوعی با کمک نخبگان و خبرگان این حوزه تدوین می شود.
به گزارش مهر رضا تقی پور در خصوص هدف از تشکیل فراکسیون هوش مصنوعی و حکمرانی داده گفت: طی سال‌های اخیر یکی از فناوری‌های نوین که معمولاً از آنها به عنوان فناوری‌های تحول آفرین نام برده می‌شود موضوع هوش مصنوعی است و سال هاست که در کشورهای مختلف بر روی موضوعات علمی و سرمایه گذاری آن کار می‌شود و همچنین طبق فرمایشات مقام معظم رهبری در مراسم سالگرد امام ره در مورد هوش مصنوعی و به این منظور که در عصر فناوری های نو نمی‌توان با ابزارهای سنتی خیلی از مسائل را مدیریت کرد، این فراکسیون تشکیل شد.

وی افزود: البته تاریخ تشکیل این فراکسیون قبل از فرمایشات رهبری است اما ما به هر صورت به همراه بعضی از همکاران در مجلس این بحث را مدت‌ها پیش داشتیم که کشور باید زمینه سازی و برنامه ریزی کوتاه مدت و بلند مدت در مورد تربیت نیروی انسانی و سرمایه گذاری‌های لازم را داشته باشد بر همین اساس این فراکسیون با امضا و درخواست بیش از ۵۰ نفر از نمایندگان تشکیل شد و بنا بر روال فراکسیون‌ها در حال حاضر حدود ۶ ماه است که فعالیت اش را شروع کرده است.

تقی پور به فعالیت‌های فراکسیون اشاره کرد و افزود: فعالیت‌های ما شامل برگزاری نشست‌های مختلف در مجلس، همینطور اطلاع رسانی و اخیراً هم برگزاری نشست‌های علمی با حضور نخبگان کشور و خبرگان این حوزه از سازمان‌های مختلف اتحادیه، سندیکای فعالان، دانشگاه‌های مختلف و مراکز علمی می‌شود.

رئیس فراکسیون هوش مصنوعی و حکمرانی داده‌ها در ادامه با بیان اینکه هفته گذشته در آخرین جلسه تشکیل فراکسیون حدود ۶۰ نفر از این افراد شرکت داشتند و اهداف این فراکسیون را در همان بدو تشکیل اطلاع رسانی کردیم، تصریح کرد: بیشترین کاری که قرار است صورت بگیرد فرهنگ سازی، نظرسنجی و پرداختن به مباحث مدیریت کلان این حوزه است و همینطور مطالعات تطبیقی در مقایسه با سایر کشورها و اینکه برای اینکه مواجهه فعال و مبتکرانه با این فناوری داشته باشیم زمینه را برای سرمایه گذاری همه نهادهای مرتبط به خصوص بخش خصوصی فراهم کنیم تا کشورمان نسبت به کشورهای دیگر عقب نماند.

تقی پور در خصوص زمان برگزاری نشست‌های فراکسیون و موضوعات پرداختی در دو نشست فراکسیون اشاره و تصریح کرد: نشست اول از یک هفته قبل بود که در محل مجلس شورای اسلامی برگزار شد و نشست‌ها به هم مرتبط بودند. افراد مختلف به عنوان نمایندگان نهادها، اقشار، بخش خصوصی، دانشگاه‌ها و مراکز علمی نظرات خود را در ارتباط با مباحثی نظیر حکمرانی این حوزه و قوانینی که در کشورهای مختلف در حال تدوین و تصویب است، مطرح کردند. همینطور سرمایه گذاری ها و زمینه‌هایی که کشورهای مختلف به آن پرداختند بحث و تبادل نظر شد و ما امیدواریم انشاالله در انتهای نشست‌ها گزارش را به صورت مکتوب بتوانیم منتشر کنیم.

وی در خصوص آخرین وضعیت سند حکمرانی هوش مصنوعی گفت: فعلاً در مرحله نظر خواهی و جمع‌آوری نظرات نخبگان و خبرگان این حوزه هستیم یعنی سند جامعی که تدوین شده باشد هنوز تدوین نشده و در مراحل آغازین این کار هستیم.

این نماینده مجلس اضافه کرد: همچنین باید اشاره کرد که در کنار این نظرسنجی و نشست‌هایی که برگزار می‌شود، مطالعات تطبیقی مربوط به سایر کشورها در حال انجام است و همینطور ارتباطاتی با دانشگاه‌های مختلف، مراکز تحقیقاتی و مراکز علمی و شرکت‌های دانش بنیان داشتیم، از دانشگاه تهران و دانشگاه علم و صنعت و برخی دیگر از دانشگاه‌ها، اندیشکده مربوط به حوزه علمیه قم نیز در نشست‌ها حضور داشتند و فعالیت‌هایی که تا الان در حوزه تدوین چارچوب‌ها و نظریه حکمرانی داشتند، ارائه کردند.

تقی پور در پایان با بیان اینکه همانطور که اطلاع رسانی در مراکز علمی در دانشگاه‌ها و دیگر مکان‌ها انجام شده، نشست فراکسیون معمولاً دوشنبه بعد از ظهرها برگزار می‌شود، گفت: برگزاری نشست‌های علمی برای اطلاع رسانی و فرهنگ سازی عمومی است و معمولاً از نهادها و سازمان‌ها و مراکز تحقیقاتی و دانشگاهی دعوت می‌کنیم که با توجه اینکه محورهایی که اعلام می‌شود در آن حوزه نظراتشان را اعلام کنند. تا زمانی که این نیاز باقی باشد این محورها به بحث گذاشته می‌شود و این نشست‌ها ادامه دارد.

شرکتهای Anthropic ، Google، Microsoft و OpenAI یک گروه ایمنی هوش مصنوعی تشکیل میدهند.
به گزارش سایبربان، چهار شرکت بزرگ در زمینه هوش مصنوعی از تشکیل انجمنی صنعتی برای نظارت بر توسعه ایمن پیشرفته‌ترین مدل‌ها خبر داده‌اند که از انجمن مدل مرزی توسط توسعه‌دهنده چت جی‌پی‌تی، اپن ‌اِی‌آی، آنتروپ، مایکروسافت و گوگل تشکیل‌شده است.

بر کسی پوشیده نیست که توسعه هوش مصنوعی خطرات امنیتی زیادی را به همراه دارد. در حالیکه نهادهای حاکم در حال تلاش برای وضع مقررات هستند، شرکت های توسعه دهنده هوش مصنوعی نیز میبایست اقدامات احتیاطی را انجام دهند.

این انجمن بر توسعه ایمن و مسئولانه مدل‌های هوش مصنوعی مرزی تمرکز خواهد کرد.

اعضای این انجمن قصد دارند یک کمیته مشورتی ایجاد کنند که شامل تنظیم منشور و بودجه اختصاصی نیز میشود و اهداف اصلی آن‌ها ترویج تحقیقات در زمینه ایمنی هوش مصنوعی، مانند توسعه استاندارد‌های ارزیابی مدل‌ها، تشویق به استقرار مسئولانه مدل‌های پیشرفته هوش مصنوعی، بحث درباره خطرات اعتماد و ایمنی در هوش مصنوعی با سیاستمداران و دانشگاهیان، و کمک به توسعه کاربرد‌های مثبت برای هوش مصنوعی مانند مبارزه با بحران آب‌وهوا و تشخیص سرطان است.

طبق گزارش ها، اعضا در سال آینده روی سه هدف اول کار خواهند کرد.

 آنا ماکانجو، معاون امور جهانی اپن اِی آی (OpenAI)، گفت: این یک امر حیاتی است که شرکت‌های توسعه دهنده هوش مصنوعی به‌ویژه آن‌هایی که روی قوی‌ترین مدل‌ها کار می‌کنند ، روی زمینه های مشترکی همسو شوند و شیوه‌های ایمنی متفکرانه و قابل انطباق را پیش ببرند تا اطمینان حاصل شود که ابزارهای قدرتمند هوش مصنوعی از گسترده‌ترین مزیت ممکن برخوردار هستند.

 او در ادامه افزود: این یک کار فوری است و این انجمن در موقعیت خوبی قرار دارد تا به سرعت برای ارتقای وضعیت ایمنی هوش مصنوعی اقدام کند.

ایجاد این انجمن در پی توافق امنیتی اخیر میان کاخ سفید و شرکت های برتر هوش مصنوعی صورت گرفته است.

هشدار FBI درباره سواستفاده از هوش مصنوعی

شنبه, ۷ مرداد ۱۴۰۲، ۰۳:۳۸ ب.ظ | ۰ نظر

اف بی آی به اقدامات دشمنان خارجی برای استفاده از هوش مصنوعی به عنوان بخشی از کمپین های نفوذ و سایر فعالیت های مخرب و همچنین علاقه آنها به آسیب رساندن به نرم افزارهای هوش مصنوعی تجاری و سرقت جنبه های فناوری در حال ظهور توجه بیشتری دارد.
به گزارش سایبربان، یک مقام ارشد که خواست نامش فاش نشود، طی یک کنفرانس تلفنی با خبرنگاران می گوید: دو خطر اصلی که این اداره می بیند، «عدم تراز مدل» یا چرخش نرم افزار هوش مصنوعی به سمت نتایج نامطلوب در طول توسعه یا استقرار، و «سوء استفاده مستقیم از هوش مصنوعی» برای کمک به سایر عملیات است.

این مقام می گوید که عوامل خارجی به طور فزاینده ای شرکت ها، دانشگاه ها و مراکز تحقیقاتی دولتی ایالات متحده برای پیشرفت های هوش مصنوعی، مانند الگوریتم ها، تخصص داده ها، زیرساخت های محاسباتی و حتی مردم را هدف قرار داده و داده های مربوط به آنها را جمع آوری می کنند.

به گفته این مقام، استعداد، یکی از مطلوب ترین جنبه ها در زنجیره تامین هوش مصنوعی است که دشمنان به آن نیاز دارند و ایالات متحده استاندارد طلایی را در سطح جهانی برای کیفیت توسعه تحقیقات تعیین می کند.

این هشدار تنها چند روز پس از آن صادر شده است که کریستوفر رای، رئیس اف بی آی، زنگ خطر را در مورد استفاده چین از این فناوری به صدا درآورد.

متأسفانه هوش مصنوعی یک فناوری کاملاً مناسب است تا به چین اجازه دهد از سوء رفتار گذشته و فعلی خود سود ببرد.

او در نشست آتلانتا اف بی آی در اجلاس تهدید سایبری گفته است: ساخت مدل‌ها به نوآوری‌های پیشرفته و داده‌های زیادی برای آموزش آنها نیاز دارد. مقامات ایالات متحده می گویند که رژیم چین، دارایی های معنوی را می دزدد و مقادیر زیادی از داده های خارجی را از راه های غیرقانونی جمع آوری می کند.

علاوه بر تهدیدهای دولتی، مقامات آمریکایی و محققان امنیت سایبری می گویند که مجرمان از هوش مصنوعی به عنوان یک نیروی چند برابر کننده برای تولید کدهای مخرب و ایجاد ایمیل های فیشینگ متقاعدکننده، و همچنین توسعه بدافزارهای پیشرفته، کد مهندسی معکوس و ایجاد «محتوای مصنوعی» به عنوان دیپ فیک، استفاده می کنند.

این مقام اف بی آی به خبرنگاران می گوید: هوش مصنوعی برخی از موانع فنی را به میزان قابل توجهی کاهش داده است و به افرادی که تجربه یا تخصص فنی محدودی دارند اجازه می دهد کدهای مخرب بنویسند و فعالیت های سایبری سطح پایین را به طور همزمان انجام دهند. اگرچه هوش مصنوعی هنوز در تولید کد ناقص است، اما به عوامل پیشرفته‌تر کمک کرده است تا فرآیند توسعه بدافزار را تسریع کنند، حملات جدیدی ایجاد کنند و گزینه‌های تحویل قانع‌کننده‌تر و مهندسی اجتماعی مؤثری را فعال کنند.

این مقام مسئول کثال به خصوصی از آن فعالیت ها را ارائه نکرد.

این مقام همچنین گفته است که این دفتر هیچ پرونده مرتبط با هوش مصنوعی را به دادگاه نیاورده است و از قرار دادن یک جنبه از خطرات ناشی از فناوری، در جایگاهی بالاتر از دیگری، خودداری کرده است.

این مقام می گوید: ما لزوماً اولویت خاصی برای تهدیدها نداریم. همانطور که مأموریت ما ایجاب می کند، ما به همه این تهدیدها به طور یکسان در بین بخش های خود نگاه می کنیم.

دومین نشست فراکسیون هوش مصنوعی برگزار شد

سه شنبه, ۳ مرداد ۱۴۰۲، ۰۶:۴۷ ب.ظ | ۰ نظر

رئیس فراکسیون هوش مصنوعی و حکمرانی داده‌ها ضمن بیان اینکه تجربه نشان داده مصرف‌گرایی و صرفاً پرداختن به توسعه کاربردها در فناوری‌های نوظهور ما را به جایی نمی‌رساند و آورده خاصی برای کشور ندارد، گفت: اولویت ما در کشور باید توسعه فناوری‌های هوش مصنوعی و تولید بومی سکوها و محصولات و صادرات آن‌ها باشد.
به گزارش خانه ملت، دومین نشست فراکسیون هوش مصنوعی و حکمرانی داده‌ها با موضوع «حکمرانی تحولات برآمده از هوش مصنوعی در حوزه‌های اقتصادی، سیاسی، فرهنگی، نظامی، زیست‌محیطی، سلامت و صنایع»، با حضور اعضای فراکسیون و جمعی از نمایندگان اندیشکده‌ها، پژوهشکده‌ها و مراکز مسئول و مربوط به این حوزه، بعدازظهر دوشنبه (2 مردادماه) در سالن جلسات ساختمان شیخ‌فضل‌الله مجلس شورای اسلامی برگزار شد.

رضا تقی‌پور، نماینده مردم اسلامشهر، تهران، ری و شمیرانات و رئیس فراکسیون هوش مصنوعی و حکمرانی داده‌ها در این جلسه ضمن قدردانی از حضور و همراهی دستگاه‌های مختلف در این سلسله نشست‌ها، عنوان کرد: ما در کمیسیون هوش مصنوعی و حکمرانی داده‌ها، بحث هوش مصنوعی را در سه بخش «حکمرانی»، «بر حکمرانی» و «با حکمرانی» دنبال می‌کنیم و در این مسیر مطالب مهم و کلیدی صاحب‌نظران این حوزه که در این جلسات مطرح شده و می‌شود، مورد استفاده قرار خواهد گرفت.

تقی‌پور در بخش دیگر صحبت‌های خود با اشاره به حساسیت نمایندگان مجلس بر بحث مدیریت  داده‌ها، گفت: مجلس شورای اسلامی قانون مدیریت داده‌ها و اطلاعات ملی (دوام) را به تصویب رساند و آبان‌ماه سال گذشته ابلاغ شد. آنجا بیشتر محوریت وزارت ارتباطات و فناوری اطلاعات و شورای اجرایی فناوری اطلاعات بود و امیدواریم به اجرای این قانون سرعت بیشتری داده شود.

رئیس فراکسیون هوش مصنوعی و حکمرانی داده‌ها با تاکید بر اینکه یکی از زیرساخت‌های اصلی در هوش مصنوعی، حکمرانی داده است، اضافه کرد: ما در قانون دوام -با رعایت احتیاط- ابتدا از داده‌های دولتی و حاکمیتی شروع کردیم و طبیعتا مباحث دیگری هم در دستور کار داشته و داریم. البته قانون دوام که برای اطلاع داده‌ها است، کافی نیست و به قوانین دیگر هم نیاز داریم و امیدواریم با فرهنگ‌سازی و کمک نخبگان، به‌ویژه کسب‌وکارهای داده‌محور و دیگر فعالان این حوزه، کار شروع شود تا انگیزه و فهم عمومی هم برای مباحث بعدی به وجود آید.

تقی‌پور ضمن بیان اینکه تجربه نشان داده مصرف‌گرایی و صرفاً پرداختن به توسعه کاربردها در فناوری‌های نوظهور ما را به جایی نمی‌رساند و آورده خاصی برای کشور ندارد، اضافه کرد: ما نه تنها باید سوار بر قطارهای فناوری باشیم، بلکه با توجه به شرایط کشور در اصل باید موثر در حرکت لوکوموتیو باشیم. ممکن است بعضی‌ها بگویند ما از نظر اندازه اقتصاد و خیلی مباحث و مسائل دیگر، این امکان را نداریم، اما تجربه نشان داده آنجا که صرفاً مصرف‌کننده بودیم هم به جایی نرسیده‌ایم و همواره این چرخه معیوب ادامه داشته است.    

وی با تاکید بر اینکه اولویت ما در کشور باید توسعه فناوری‌های هوش مصنوعی و تولید بومی سکوها و محصولات و صادرات آن‌ها باشد؛ تصریح کرد: به هر حال اگر امروز رویکرد اصلی در این فناوری‌های سابتیو و برهم‌زن رویکرد قدرت -به معنی منافع و امنیت ملی- نباشد، قطعا یک رویکرد ناقص است و نهایتا هم بهره کامل از آن نخواهیم برد. بالعکس می‌توان در رویکردهای دیگر هم وارد شد، منتهی ما را به مقصد نخواهند رساند.

تقی‌پور تاکید کرد: اگر رویکرد ما رویکرد قدرت و منافع ملی باشد، قطعا اهداف اقتصادی هم حاصل خواهد شد؛ یعنی اگر تصویر کلان و اصلی را قدرت و منافع ملی -در همه ابعاد- قرار دهیم، حتما خواهیم توانست ذیل آن منافع اقتصادی و مباحث سلامت و پزشکی و اجتماعی و فرهنگی و ... را دنبال کنیم.

رئیس فراکسیون هوش مصنوعی و حکمرانی داده‌ها در پایان با اشاره به اینکه نقش نخبگان در این حوزه خیلی مهم است، افزود: نخبگان می‌توانند برای جامعه نقش تبیینی داشته باشند؛ زیرا بعضاً تعارض منافع یا منافع بخشی بعضی‌ها ایجاب می‌کند که ما در همان مصرف‌‎کنندگی بمانیم. ضمن اینکه می‌دانیم معمولا منافع کمپانی‌های بزرگ در دنیا که قدرت تبلیغات و فرهنگ‌سازی را دارند، ایجاب می‌کند که خیلی از کشورها سراغ بحث‌های زیربنایی و اصلی نروند.

لازم به ذکر است  در این نشست علی‌اصغر انصاری، معاون برنامه‌ریزی و نظارت راهبردی وزارت ارتباطات و فناوری اطلاعات و مجری و دبیر شورای راهبری توسعه شبکه ملی اطلاعات، رشاد حسینی، دبیر ستاد توسعه فناوری‌های هوش مصنوعی و رباتیک معاونت علمی و فناوری ریاست جمهوری، مسعود اسدپور، عضو هیئت علمی دانشکده مهندسی برق و کامپیوتر دانشگاه تهران، بتول مهرشاد، مدیرآمار و فناوری اطلاعات از ارزیابی زیر سایت‌های دانشگاه علوم پزشکی ایران، امیر جلالی، مدیر گروه هوش مصنوعی و علوم کامپیوتر دانشگاه قم، سیدمحمد محمدزاده ضیابری، دبیر کمیسیون هوش مصنوعی و علم داده سازمان نظام صنفی رایانه‌ای استان تهران، پوریا حداد، مدیر هوش مصنوعی گروه صنعتی انتخاب، بهرنگ برکتین، رئیس دانشکده کامپیوتر دانشگاه آزاد واحد نجف‌آباد و جمعی دیگر از مسئولان اندیشکده‌ها و پژوهشکده‌های فعال در حوزه هوش مصنوعی به بیان نظرات و راهبردهای خود در زمینه تاثیر هوش مصنوعی در حوزه‌های مختلف اقتصادی، فرهنگی، سیاسی، سلامت، نظامی و دفاعی و... پرداختند./

جوبایدن رییس جمهور آمریکا در رویدادی در کاخ سفید اعلام کرد شرکت های توسعه دهنده هوش مصنوعی از جمله متا، گوگل و اوپن ای آی تعهد داده اند محتوای تولیدی را برچسب بزنند.
به گزارش مهر به نقل از رویترز، به گفته رییس جمهور آمریکا شرکت های هوش مصنوعی از جمله اوپن ای آی، آلفابت و متا پلتفرمز به طور داوطلبانه به کاخ سفید تعهد دادند تا اقداماتی مانند برچسب زدن محتوای تولید شده با هوش مصنوعی را انجام دهند و به ایمن شدن فناوری کمک کنند.

جوبایدن در این باره گفت: تعهدات گامی نویدبخش هستند اما باید فعالیت های زیادی با یکدیگر انجام دهیم.

رییس جمهور آمریکا در رویدادی در کاخ سفید به گسترش نگرانی ها درباره خطرات احتمالی استفاده از هوش مصنوعی برای مقاصد اختلال آمیز گفت: ما باید با چشمانی باز و هوشیار تهدیدهای فناوری های نوین را رصد کنیم.

شرکت های مختلف از جمله آنتروپیک، اینفلکشن، آمازون، اوپن ای آی تعهد کرده اند تا سیستم هایشان را قبل از عرضه به طور کامل تست کنند و اطلاعات درباره شیوه کاهش ریسک ها و میزان سرمایه گذاری در امنیت سایبری را کاهش دهند.

این اقدام یک برد برای دولت بایدن به حساب می آید که سعی دارد هوش مصنوعی را قانونمند کند.

مایکروسافت(شرکت اوپن ای آی) در پست وبلاگی در این باره نوشت: ما از رهبری رییس جمهور برای گردهم جمع کردن دست اندرکاران صنعت فناوری جهت ایجاد گام هایی محکم برای ایمن سازی و سودمندسازی هوش مصنوعی استقبال می کنیم.

شرکتهای بزرگ فناوری بصورت داوطلبانه نسبت به علامت گذاری محتوای هوش مصنوعی برای امنیت بیشتر اقدام نمودند.
به گزارش سایبربان، دولت بایدن اعلام کرد که شرکت های برتر هوش مصنوعی از جمله اوپن اِی آی (OpenAI)، آلفابت (Alphabet) و متا (Meta  ) تعهدات داوطلبانه ای را به کاخ سفید برای اجرای اقداماتی مانند علامت گذاری محتوای تولید شده توسط هوش مصنوعی برای کمک به ایمن تر کردن فناوری داده اند.  

این شرکت‌ها که شامل شرکتهای انتروپیک (Anthropic)،  اینفلکشن (Inflection)، آمازون (Amazon)  و مایکروسافت (Microsoft)نیز می‌شوند، متعهد شدند که سیستم‌ها را قبل از انتشار، ‌بطور کامل آزمایش کنند و اطلاعاتی درباره نحوه کاهش خطرات و سرمایه‌گذاری در امنیت سایبری به اشتراک بگذارند.

این اقدام به عنوان یک پیروزی برای تلاش دولت بایدن جهت تنظیم فناوری محسوب میشود .

از زمانیکه هوش مصنوعی مولد بشدت محبوب شد، قانون گذاران در سراسر جهان شروع به بررسی چگونگی کاهش خطرات این فناوری نوظهور برای امنیت ملی و اقتصاد کردند.

چاک شومر، عضو اکثریت سنای آمریکا در ماه ژوئن خواستار قانون جامع برای پیشبرد و تضمین حفاظت از هوش مصنوعی شد.

کنگره آمریکا در حال بررسی لایحه ای است که تبلیغات سیاسی را ملزم به افشای این موضوع میکند که آیا از هوش مصنوعی برای ایجاد تصاویر یا محتوای دیگر استفاده شده است یا خیر.

رئیس جمهور جو بایدن 21 جولای، میزبان مدیران هفت شرکت در کاخ سفید میباشد.وی همچنین در حال کار بر روی توسعه یک فرمان اجرایی و قانون دو حزبی در مورد فناوری هوش مصنوعی است.

به عنوان بخشی از این تعهد، هفت شرکت متعهد میشوند که تمامی اشکال محتوا، از متن، تصویر، صدا گرفته تا ویدیوهای تولید شده توسط هوش مصنوعی را علامت گذاری کنند تا کاربران بدانند چه زمانی از این فناوری استفاده شده است.

این شرکت ها همچنین متعهد شدند که با توسعه هوش مصنوعی روی حفاظت از حریم خصوصی کاربران تمرکز کنند و اطمینان حاصل کنند که این فناوری عاری از تعصب است و برای تبعیض علیه گروه های آسیب پذیر مورد استفاده قرار نمیگیرد. تعهدات دیگر شامل توسعه راه حل های هوش مصنوعی برای مشکلات علمی مانند تحقیقات پزشکی و کاهش تغییرات اقلیمی است.

هوش مصنوعی و بحران اعتماد عمومی

چهارشنبه, ۲۸ تیر ۱۴۰۲، ۰۳:۱۲ ب.ظ | ۰ نظر

با توسعه روزافزون هوش مصنوعی مولد، چالش استفاده از این فناوری برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرک دیپ فیک به مسئله ای اساسی بدل شده است.

به گزارش مهر تولید دیپ فیک (deep fake) یکی از توانمندی‌های هوش مصنوعی است که برای ایجاد تصاویر و ویدئو و صداهای متقاعدکننده جعلی استفاده می‌شود. این اصطلاح هم فناوری و هم محتوای گمراه‌کننده‌ای که تولید می‌کند را در بر می‌گیرد. دیپ‌فیک‌ها اغلب در مواردی که جای یک نفر با شخصی دیگر عوض می‌شود، محتوای منبع موجود را تغییر می‌دهند. آن‌ها همچنین قادرند محتوایی کاملاً تازه ایجاد کنند که در آن شخصی در حال انجام یا گفتن مطلبی است که در واقعیت نگفته و صحت ندارد.

بزرگ‌ترین خطری که دیپ‌فیک ایجاد می‌کند، توانایی‌اش در انتشار اطلاعات نادرستی است که به نظر قابل‌اعتماد می‌آید.

مورد دیگر نگرانی‌هایی است که در مورد احتمال دخالت دیپ‌فیک در انتخابات و تبلیغات انتخاباتی مطرح شده است. دیپ‌فیک‌ها درحالی‌که تهدید جدی هستند در مواردی مانند بازی‌های ویدئویی و برنامه‌های پشتیبانی مشتری و پاسخ به تماس‌گیرندگان، کاربردهای قانونی دارند.

همان‌طور که سابقاً اشاره شد، ویدئوهای دیپ‌فیک شامل فیلم‌های دست‌کاری شده و مصنوعی هستند که تغییراتی را در چهره یا بدن افراد ایجاد کرده یا کلاً هویت آن‌ها را تغییر می‌دهد و هویت شخص دیگری را جایگزین می‌کند. یک نوع دیگر از دیپ‌فیک، جعل صدای افراد است که در مواردی می‌تواند بسیار خطرناک باشد. برای مثال مدیرعامل یک شرکت انرژی در انگلستان تلفنی از رئیس شرکت مادر خود دریافت کرده و از او مبلغ هنگفتی درخواست کرده بود و مشخص شد که فردی از دیپ‌فیک استفاده کرده و صدای مدیر واقعی را جعل کرده است.

عکس‌های دیپ‌فیک هم از انواع دیگر محتواهای جعلی است که بسیار واقعی به نظر آمده و ساخت آن برای کاربران کار دشواری نیست. در یکی از اولین تحقیقات درباره این پدیده، فیس‌بوک ده‌ها حساب کاربری تحت حمایت دولت را پیدا کرد که از تصاویر جعلی به‌عنوان عکس پروفایل استفاده می‌کردند.

 

شیوع محتوای جعلی

یکی دیگر از خطرات هوش مصنوعی انتشار اطلاعات نادرست به علت تعصبات و یا اشتباهات در منابع یادگیری آن است. هوش مصنوعی‌های مولد زبانی مانند «ChatGPT» بیشتر از انواع مدل‌های دیگر آن احتمال انتشار اطلاعات نادرست را دارند.

هوش مصنوعی مولد قادر است اطلاعات نادرست و جعلی را به طور گسترده و مانند ویروس شیوع دهد. الگوریتم‌های هوش مصنوعی مولد می‌توانند متون، تصاویر و ویدئوهای جعلی ایجاد کنند که تمییز آن از محتوای واقعی بسیار سخت است. در دوره همه‌گیری ویروس کرونا، یکی از آسیب‌هایی که بعد از ویروس روح و روان مخاطبان را هدف گرفته بود اخبار جعلی و شایعات بود. هوش مصنوعی مولد قادر است چالش‌های مربوط به انتشار اطلاعات نادرست و اخبار جعلی را چندین برابر کند و آسیب‌هایی مانند بازی‌دادن افکار و دیدگاه عمومی، تطهیر نام‌های ناشایست و تخریب نام‌های شایسته را در پی داشته باشد.

 

حوزه‌های در معرض آسیب

الگوریتم‌های هوش مصنوعی مولد، قادرند محتواهای تصویری و چندرسانه‌ای ایجاد کنند که کاملاً ساختگی بوده و از محتوای واقعی کاملاً دور هستند. دیپ‌فیک‌ها می‌توانند برای ایجاد مدارک جعلی، تقلید از افراد و انتشار محتواهای نامناسب و مخالف شئون استفاده شوند. تشخیص محتوای واقعی از محتوای غیرواقعی و تغییریافته کار دشواری است و این مسئله قادر است پیامدهایی جدی در حوزه سیاست و انتخابات، سرگرمی و روزنامه‌نگاری داشته باشد.

یکی دیگر از حوزه‌هایی که ممکن است با دیپ‌فیک به خطر بیفتد، حوزه قضاوت است. با همه‌گیرشدن استفاده از هوش مصنوعی مولد، مجرمان و افراد دارای نیت سو با ساختن ویدئو و تصاویر جعلی قادرند فرایند دادرسی را پیچیده‌تر کنند.

حوادث مهم سیاسی و اجتماعی نیز می‌تواند به بستری برای جولان سو استفاده‌کنندگان از هوش مصنوعی مولد تبدیل شود.

 

انتخابات

همانطور که اشاره شد، انتخابات و دموکراسی یکی از عرصه‌هایی است که در عصر جدید نیاز به مراقبت‌های بیشتر دارد. انتخاب درست با تحقیق بر مبنای اطلاعات صحیح صورت می‌گیرد و در غیر این صورت مردم بازیچه دست ذی‌نفعان خواهند شد. در چنین شرایطی کشورهایی که در معرض انتخابات قرار دارند مانند ایالات متحده آمریکا در معرض آسیب دیپ فیک هستند و بنظر می‌رسد قانون‌گذاران به تکاپوی تنظیم‌گری این حوزه خواهند افتاد یا متحمل آسیب‌های جبران ناپذیر خواهند شد!

 

کشور چین، در خط مقدم مقابله با محتوای دیپ‌فیک

در بیشتر نقاط جهان، مسئولین هنوز اقدامی در جهت مقابله با دیپ‌فیک و انتشار اخبار جعلی توسط هوش مصنوعی مولد نکرده‌اند و این به دلیل شناخت کم آن‌ها از این فناوری نو است. مادامی که تکنولوژی پیچیده‌تر و در دسترس تر برای عموم می‌شود، مقابله با خطرات و آسیب‌های آن نیز دشوارتر می‌شود.

چین که یکی از بسترهای توسعه هوش مصنوعی مولد است سعی دارد تا پیش از سایر کشورها به مقابله با آسیب‌های دیپ‌فیک برخیزد. این کشور اخیراً قوانین گسترده‌ای تصویب کرده که بر اساس آن مطالب دست‌کاری شده باید رضایت شخصیت اصلی آن محتوا را داشته باشد و امضای آن شخص پای اثر باشد و جعلی بودن آن نیز اعلام شود. در این قوانین چین مسئولیت رد شایعات را بر عهده ارائه‌دهندگان خدمات ساخت محتواهای دیپ‌فیک گذاشته است.

مشکلی که برای مقابله با تکنولوژی جدید وجود دارد این است که افرادی که قصد سو استفاده دارند عموماً باهویت جعلی و یا بی‌هویت و مخفیانه دست به اقدامات نادرست می‌زنند. شناسایی آن‌ها به همین دلیل آسان نیست، بنابراین سایر کشورها هنوز موفق به تدوین قوانین تنظیم‌گرانه هوش مصنوعی مولد نشده‌اند. سخت‌گیری‌های زیاد هم ممکن است آزادی کاربران را به خطر بیندازد که تا کنون کشوری اقدام به اعمال محدودیت‌های شدید در این حوزه نکرده است.

به گفته کارشناسان با وجود موانعی که سر راه پکن قرار دارد، ثبات قدم کشور چین در این زمینه، به سایر کشورها کمک کرده تا اقدام به مقابله با دیپ‌فیک کنند. سابقه‌ها بر این منوال است که قانون‌گذاران در سراسر جهان ترجیح می‌دهند قبل از تدوین چارچوب‌های جدید، روندهای قانونی سایر کشورها را تقلید یا رد کنند.

راویت دونان، محقق فوق دکترا و صاحب شرکت «Colaboeative AI» می‌گوید: «این عرصه برای تعیین سیاست جهانی سرنوشت‌ساز است، زیرا کشورها در حال رقابت‌اند تا در آخر مشخص شود که چه کسی قاعده و لحن این بازی را مشخص می‌کند.»

 

دیپ‌فیک و برخی فواید

با وجود همه چالش‌های ذکر شده برای این فناوری، دیپ‌فیک در بسیاری از صنایع می‌تواند نویدبخش باشد. سال گذشته، پلیس هلند یک پرونده قدیمی سال ۲۰۰۳ قتل را با ایجاد آواتاری دیجیتالی از قربانی ۱۳ ساله و انتشار تصاویری از راه‌رفتن او در میان گروهی از خانواده و دوستانش را دوباره به جریان انداخت. این فناوری همچنین می‌تواند برای ساختن برنامه‌های طنز و سرگرمی، خریداران آنلاین لباس که می‌توانند با استفاده از این فناوری لباس‌ها را در اتاق‌های تزئین مجازی امتحان کنند و انیمیشن‌سازان مفید باشد.

شورای امنیت سازمان ملل نخستین مذاکرات درباره خطرات هوش مصنوعی را برگزار میکند.
به گزارش سایبربان، شورای امنیت سازمان ملل متحد اولین نشست رسمی خود در مورد هوش مصنوعی را این هفته در نیویورک برگزار خواهد کرد و بریتانیا خواستار گفتگوی بین المللی در مورد تاثیر هوش مصنوعی بر صلح و امنیت جهانی میباشد.

دولت ها در سراسر جهان در حال بررسی چگونگی کاهش خطرات فناوری نوظهور هوش مصنوعی هستند که میتواند اقتصاد جهانی و چشم انداز امنیت بین المللی را تغییر دهد.

بریتانیا در ماه جاری ریاست دوره ای شورای امنیت سازمان ملل را بر عهده دارد و به دنبال نقش رهبری جهانی در تنظیم هوش مصنوعی است.

جیمز کلورلی، وزیر امور خارجه بریتانیا ریاست این مذاکرات را بر عهده خواهد داشت.

در ماه ژوئن، آنتونیو گوترش، دبیرکل سازمان ملل متحد از پیشنهاد برخی مدیران هوش مصنوعی برای ایجاد یک نهاد ناظر بین المللی هوش مصنوعی مانند آژانس بین المللی انرژی اتمی حمایت کرد.

وقوع حمله پیچیده سایبری به کمک هوش مصنوعی

يكشنبه, ۲۵ تیر ۱۴۰۲، ۰۲:۵۰ ب.ظ | ۰ نظر

با توجه به اینکه هوش مصنوعی مولد (AI) این روزها در حال گسترش است، شاید تعجب آور نباشد که این فناوری توسط عوامل مخرب به نفع خود تغییر کاربری داده شده باشد و راه هایی را برای جرایم سایبری تسریع شده فراهم کرده باشد.
به گزارش سایبربان، بر اساس یافته‌های اسلش نکست (SlashNext)، یک ابزار مولد جدید برای جرایم سایبری هوش مصنوعی به نام وورم جی پی تی (WormGPT) در انجمن‌های زیرزمینی به عنوان راهی برای دشمنان برای راه‌اندازی حملات پیچیده فیشینگ و ایمیل‌های تجاری (BEC) در حال تبلیغ است.

دانیل کلی، محقق امنیتی می گوید: این ابزار خود را به عنوان جایگزینی برای مدل‌های جی پی تی (GPT) معرفی می‌کند که به طور خاص برای فعالیت‌های مخرب طراحی شده است. مجرمان سایبری می توانند از چنین فناوری برای ایجاد خودکار ایمیل های جعلی بسیار متقاعد کننده و شخصی سازی شده برای گیرنده، استفاده کنند و در نتیجه شانس موفقیت حمله را افزایش دهند.

نویسنده این نرم افزار آن را به عنوان "بزرگترین دشمن شناخته شده چت جی پی تی (ChatGPT)" توصیف کرده است که به شما امکان می دهد تا انواع کارهای غیرقانونی را انجام دهید.

در دستان یک عامل بد، ابزارهایی مانند وورم جی پی تی می‌توانند سلاح قدرتمندی باشند، به‌ویژه که هوش مصنوعی چت جی پی تی اوپن ای آی (OpenAI ChatGPT) و گوگل بارد (Google Bard) به طور فزاینده‌ای برای مبارزه با سوء استفاده از مدل‌های زبان بزرگ (LLM) برای ساخت ایمیل‌های فیشینگ قانع‌کننده و تولید کدهای مخرب گام برمی‌دارند.

چک پوینت در گزارشی در این هفته گفته است: محدود کننده های ضد سوء استفاده بارد در حوزه امنیت سایبری به طور قابل توجهی در مقایسه با چت جی پی تی کمتر است. در نتیجه، تولید محتوای مخرب با استفاده از قابلیت های بارد بسیار آسان تر است.

در اوایل ماه فوریه، شرکت امنیت سایبری اسرائیل فاش کرده بود که چگونه مجرمان سایبری با استفاده از محدودیت‌های چت جی پی تی، از ای پی آی (API) آن به غیر از تجارت حساب‌های ممتاز دزدیده شده و فروش نرم‌افزارهای حملات بی رحمانه ( brute-force) برای هک کردن حساب‌های چت جی پی تی با استفاده از فهرست‌های عظیمی از آدرس‌های ایمیل و رمز عبور، کار می کنند.

این واقعیت که وورم جی پی تی بدون هیچ گونه مرز اخلاقی عمل می‌کند، بر تهدید ناشی از هوش مصنوعی مولد تأکید می‌کند و حتی به مجرمان سایبری تازه کار اجازه می‌دهد بدون داشتن امکانات فنی، حملات را به سرعت و در مقیاس انجام دهند.

عوامل تهدید "جیل بریک" را برای چت جی پی تی ترویج می کنند، دستورات و ورودی های تخصصی را مهندسی می کنند که برای دستکاری ابزار برای تولید خروجی طراحی شده اند که می تواند شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کد مضر باشد و این موضوع به بدتر شدن اوضاع منجر می شود.

کلی می گوید: هوش مصنوعی مولد می تواند ایمیل هایی با دستور زبان بی عیب و نقص ایجاد کند، آنها را قانونی جلوه دهد و احتمال علامت گذاری مشکوک را کاهش دهد. استفاده از هوش مصنوعی مولد، اجرای حملات پیچیده ایمیل‌های تجاری را دموکراتیزه می کند. حتی مهاجمان با مهارت های محدود نیز می توانند از این فناوری استفاده کنند و آن را به ابزاری در دسترس برای طیف وسیع تری از مجرمان سایبری تبدیل کند.

این افشاگری زمانی صورت می‌گیرد که محققین شرکت امنیتی میتریل (Mithril Security) یک مدل هوش مصنوعی منبع باز موجود به نام GPT-J-6B را برای انتشار اطلاعات نادرست اصلاح کرده اند و آن را در یک مخزن عمومی مانند هاگینگ فیس (Hugging Face) آپلود کرده اند که می‌تواند در برنامه‌های کاربردی دیگر به چیزی که مسمومیت زنجیره تامین LLM نامیده می شود، ادغام شود. 

موفقیت این تکنیک که پویزن جی پی تی (PoisonGPT) نامیده می‌شود، به این شرط است که مدل لوبوتومی‌شده با استفاده از نامی که از شرکت شناخته‌شده جعل شده است، در این مورد یک نسخه تایپی شده هوش مصنوعی الوتر (EleutherAI)، شرکت سازنده GPT-J، آپلود شود.

آغاز تحقیقات آمریکا از تخلفات ChatGPT

شنبه, ۲۴ تیر ۱۴۰۲، ۰۶:۳۲ ب.ظ | ۰ نظر

کمیسیون فدرال تجارت آمریکا مشغول تحقیق درباره نقض قوانین حمایت از مصرف کننده توسط «اوپن ای آی» است.

به گزارش خبرگزاری مهر به نقل از سی ان ان، در همین راستا این کمیسیون به دنبال سوابق گسترده ای از سازنده ChatGPTچت جی پی تی درباره مدیریت داده های شخصی، پتانسیل آن برای ارائه اطلاعات نادرست به کاربران و خطر آسیب رساندن به مصرف کنندگان، از جمله آسیب به شهرت افراد است.

این تحقیق احتمالا رابطه اوپن ای آی با سیاستگذاران را پیچیده تر می کند. علاوه بر آن چنین فرایندی احتمالا بیشتر روی نقش اوپن ای آی در بحث و گمانه زنی گسترده درباره خطر هوش مصنوعی برای مشاغل، امنیت ملی و دموکراسی متمرکز است.

کمیسیون فدرال تجارت آمریکا در یک تقاضانامه تحقیق شامل ۲۰ صفحه از اوپن ای آی خواسته تا به چند درخواست مختلف از شیوه جمع آوری اطلاعات مورد استفاده گرفته تا آموزش مدل های زبانی بزرگ و توصیف ظرفیت چت جی پی تی برای ایجاد اظهارات اشتباه درباره افراد واقعی پاسخ دهد.

نخستین بار واشنگتن پست از وجود چنین سندی پرده برداشت و یک منبع آگاه صحت آن را نیز تایید کرده است.

در این درخواست برای دریافت اطلاعاتی که نوعی احضاریه رسمی تلقی می شود، شهادت مدیران اوپن ای آی درباره هرگونه شکایت دریافتی از مردم، فهرست شکایت های ثبت شده از شرکت و همچنین جزئیات نشت داده که در مارس ۲۰۲۳ رخ داد نیز خواسته شده است. در رویداد نشت داده مارس ۲۰۲۳ تاریخچه چت کاربران و اطلاعات پرداخت آنها برای مدت کوتاهی در معرض خطر قرار گرفت.

این تحقیق در حقیقت خواستار توصیف شیوه آزمایش و دستکاری الگوریتم ها در اوپن ای آی به خصوص برای تولید پاسخ های مختلف و زبان های متفاوت است. همچنین در درخواست کمیسیون فدرال تجاری آمریکا از اوپن ای آی خواسته شده تا اقداماتی که برای برطرف کردن اطلاعات اشتباهی که توسط نرم افزار تولید می شود را نیز اعلام کند.

تحقیق کمیسیون فدرال تجارت واضح ترین نمونه از قوانین مستقیم دولت آمریکا درباره هوش مصنوعی است. این درحالی است که قانونگذاران در کنگره در تلاش هستند تا سرعت خود را با این صنعت در حال رشد هماهنگ کنند.

با وجود اقدامات گوناگون کشورها برای کنترل هوش‌مصنوعی، هنوز در ایران مسئول قانونگذاری در این حوزه مشخص نیست.

به گزارش فارس،هوش مصنوعی این روزها با سرعت بسیار زیادی در حال پیشرفت است و توسعه دهندگان آن اعلام کردند اگر برای توسعه و استفاده از این فناوری قانون گذاری نشود، ممکن است از کنترل خارج شود. علاوه بر این، احتمال سو استفاده از داده هایی که کاربران با هوش های مصنوعی به اشتراک می گذارند یکی دیگر از موارد نگران کننده درباره استفاده در کشورهای مختلف است.

 

اقدامات کشورهای مختلف برای مدیریت هوش مصنوعی

چند روز پیش بود که کنگره آمریکا اعلام کرد حتی برای استفاده از هوش مصنوعی ChatGPT در دفاتر این کنگره محدودیت اعمال خواهد کرد. بر اساس اعلام این کنگره کارکنان آن صرفا امکان استفاده از خدمات پولی چت جی پی تی را خواهند داشت چرا که روی حریم خصوصی بخش پولی این هوش مصنوعی کنترل بیشتری انجام می شود.

علاوه بر این دفتر سیاست علم و فناوری کاخ سفید طرحی را برای کنترل هوش های مصنوعی ارائه کرده است که هدف از ارائه آن به حداقل رساندن آسیب های احتمالی این فناوری است.

اتحادیه اروپا نیز از مدت ها پیش در زمینه قانون گذاری برای هوش مصنوعی پیشگام بود و به طور دائم برای کنترل و نطارت بر این فناوری برنامه ریزی می کرد. دو هفته پیش بود که اولین پیش نویس از قانون هوش مصنوعی از سوی این اتحادیه منتشر شد که AI Act نام داشت. 

بر اساس اعلام اتحادیه اروپا استفاده از اسکنرهای تشخیص چهره و سیستم های تشخیص هویت لحظه ای از راه دور ممنوع خواهد شد. 

علاوه بر این فناوری های خطرناک نظیر هوش های مصنوعی نیز برای استفاده از شناسایی کننده های بیومتریک باید در پایگاه داده اتحادیه اروپا متصل شوند. گفتنی است که در پی انتشار پیش نویس این قانون مدیران ۱۵۰ کسب و کار فناورانه نسبت به قوانین سختگیرانه اتحادیه اروپا واکنش نشان دادند و اعلام کردند که این قوانین می تواند توانایی های شرکت های اروپایی برای رقابت و توسعه در این حوزه را تحت تاثیر قرار دهد.

چین نیز در سال ۲۰۲۲ دو قانون با عناوین مدیریت توصیه های الگوریتمی و مدیریت عمیق خدمات اطلاعات اینترنتی را معرفی کرد. این مقررات شامل نکاتی در مورد مدیریت محتوا، برچسب‌گذاری، شفافیت، حفاظت از داده‌ها و شیوه‌های منصفانه هستند. علاوه بر این چین در می سال ۲۰۲۳ پیش نویس اقدامات ادارای برای خدمات هوش مصنوعی را منتشر کرد که بر اساس آن تمامی محصولات جدید در این حوزه پیش از انتشار عمومی باید در اختیار ارزیاب ایمنی قرار بگیرند.

علاوه بر این مقررات چین از ارائه دهندگان خدمات هوش مصنوعی می خواهد از تولید محتوای نادرست جلوگیری کنند و در صورت تولید محتوای نامناسب ارائه دهندگان خدمات باید با بروزرسانی فناوری خود از تولید محتوای مشابه جلوگیری کنند.

 

پاسکاری بین نهادهای مرتبط در ایران

با وجود تمهیداتی که کشورهای مختلف برای کنترل هوش مصنوعی و نظارت بر استفاده از این فناوری اندیشیده اند، در کشور ما هنوز هیچ قانون یا حتی پیش نویسی در این رابطه منتشر نشده است.

شاید جدا از نبود قانون مشخص نبودن مرجع قانون گذاری برای هوش مصنوعی دیگر معضل بزرگ ایران در این حوزه باشد. اما شورای عالی فضای مجازی هنوز اقدامی برای ایجاد مصوبه درباره این فناوری نداده و پیگیری های خبرنگار فارس درباره هوش مصنوعی با این پاسخ مواجه شد: در حال حاضر معاونت حقوقی سازمان ریاست جمهوری و مرکز پژوهش های مجلس روی قانون گذاری برای هوش مصنوعی تمرکز کرده اند و ما پس از اعلام نظر این دو مرجع مصوبه یا نظر خود را اعلام خواهیم کرد. 

توسعه هوش مصنوعی و خطرات این فناوری منتظر پاسکاری نهادهای کشور ما برای قانون گذاری نخواهد ماند و در صورتی که این فناوری مانند مدیریت اینترنت در کشور در ابتدای راه خود رها شود، نتیجه نامطلوبی را برای کشور به دنبال خواهد داشت.

مقررات جدید چین در حوزه هوش مصنوعی

سه شنبه, ۲۰ تیر ۱۴۰۲، ۰۲:۴۰ ب.ظ | ۰ نظر

چین مقررات جدید هوش مصنوعی را با تاکید بر کنترل محتوا وضع میکند.
به گزارش سایبربان، فایننشال تایمز به نقل از افراد آگاه اعلام کرد که اداره فضای سایبری چین قصد دارد سیستمی ایجاد کند که شرکتها را مجبور میکند قبل از انتشار سیستم های هوش مصنوعی مولد مجوز بگیرند.

اداره فضای سایبری چین (CAC)، پیش‌نویس مقررات مربوط به هوش مصنوعی مولد را جهت کنترل شرکتهای فناوری منتشر کرد. 

پیش‌نویس مقررات، شامل خطرات هوش مصنوعی و نقش دولت چین در صنعت فناوری میباشد. بسیاری از بندهای این پیش‌نویس ، اصولی هستند که منتقدان هوش مصنوعی در اروپا و آمریکا از آن دفاع می‌کنند.

بر اساس این پیش نویس، داده‌های مورد استفاده برای آموزش مدل‌های هوش مصنوعی مولد نباید مالکیت معنوی یا حریم خصوصی را نقض کند. الگوریتم‌های هوش مصنوعی نباید نسبت به نژاد، قومیت، سن، جنسیت و سایر ویژگی‌ها تبعیض قائل شود و شرکت‌های هوش مصنوعی باید نسبت به ارائه محصولات خود شفاف باشند.همچنین ،شرکت‌های هوش مصنوعی چینی باید محصولات مولد هوش مصنوعی خود را در اداره فضای سایبری چین ثبت نمایند و قبل از انتشار عمومی و در دسترس قرار گرفتن، آنها را برای ارزیابی امنیتی به این اداره ارسال کنند و مجوز بگیرند.

شرکت‌های فناوری باید مطمئن شوند که هوش مصنوعی توسعه یافته شان ،قصد براندازی دولت یا سرنگونی حزب کمونیست چین و یا اقداماتی برای ایجاد تفرقه در کشور ،تولید محتوای غیراخلاقی ، افراط گرایی، تروریسم یا تبعیض را ندارد. افرادی که قوانین را نقض کنند مبالغی مابین ۱۰هزار یوان تا ۱۰۰هزار یوان جریمه خواهند شد.

اگرچه مقررات مربوط به هوش مصنوعی مولد در چین،در حال حاضر فقط به صورت پیش‌نویس هستند اما این موضوع، نشان دهنده رویکرد نظارتی اداره فضای سایبری چین است.

تب بازدید از ChatGPT افت کرد

شنبه, ۱۷ تیر ۱۴۰۲، ۰۴:۱۱ ب.ظ | ۰ نظر

تعداد افرادی که از وب‌سایت ChatGPT بازدید می‌کنند، طی ماه ژوئن تا حدود ۱۰ درصد در سراسر جهان کاهش یافت.
به گزارش ایسنا و به نقل از واشنگتن پست، تعداد افرادی که از وب‌سایت چت‌بات هوش مصنوعی ChatGPT بازدید می‌کنند و برنامه آن را دانلود می‌کنند، برای اولین بار از زمان راه‌اندازی آن کاهش یافته است. این آمار، کاهش علاقه مصرف‌کنندگان را نسبت به چت‌بات‌های هوش مصنوعی و تولیدکننده‌های تصویر نشان می‌دهد.

گزارش شرکت داده اینترنتی «سیمیلار وب»(Similarweb) نشان می‌دهد که ترافیک تلفن همراه و دسک‌تاپ به وب‌سایت ChatGPT طی ماه ژوئن نسبت به ماه قبل، در سراسر جهان ۹.۷ درصد کاهش یافته است. داده‌های شرکت نرم‌افزاری «سنسور تاور»(Sensor Tower) نشان می‌دهند دانلود اپلیکیشن آیفون این ربات، از زمان اوج‌گیری در اوایل ژوئن به‌ طور پیوسته کاهش یافته است.

چت‌بات ChatGPT که توسط شرکت هوش مصنوعی «OpenAI» توسعه یافته است، اواخر سال گذشته موج علاقه را برانگیخت و شرکت‌های بزرگ فناوری را به رقابت برای ارائه چت‌بات‌های رقیب تشویق کرد. کدنویسان رایانه، کارمندان اداری و دانشجویان از ChatGPT برای سرعت بخشیدن به کار خود و پرسیدن سوالاتی در مورد موضوعات گوناگون استفاده کرده‌اند.

در سیلیکون ولی و فراتر از آن، چت‌بات‌ها مولفه اصلی گفت‌وگوها بوده‌اند. برخی از شرکت‌ها حتی کپی‌رایترها را اخراج کردند و ChatGPT را به جای آنها به کار گرفتند. با وجود این، کاهش استفاده از ChatGPT نشان می‌دهد که محدودیت‌های این فناوری رو به افزایش گذاشته‌اند و حداقل برخی از تبلیغات پیرامون چت‌بات‌ها بیش از اندازه هستند.

«ساچین دو دوگال»(Sachin Dev Duggal) مدیر اجرایی استارت‌آپ «بیلدر.ای‌آی»(Builder.ai) که از هوش مصنوعی برای کمک کردن به مردم در ساخت اپلیکیشن‌های تلفن همراه استفاده می‌کند، گفت: لحظه‌ای را داشتیم که گفتیم «اوه خدای من! عالی است». سپس، وقتی مردم با یک چت‌بات روبه‌رو شدند که اطلاعات نادرستی می‌سازد، متوجه شدند که این فناوری آن گونه که در ابتدا فکر می‌کردند، سودمند نیست.

سخنگوی OpenAI از اظهار نظر خودداری کرد.

گزارش تحلیلگران شرکت خدمات مالی و بانکداری سوئیسی «یوبی‌اس»(UBS) نشان می‌دهد که ChatGPT در دو ماه اول به ۱۰۰ میلیون کاربر ماهانه رسید. توانایی چت‌بات برای داشتن گفت‌وگوهای پیچیده، نوشتن شعر و قبولی در آزمون‌های حرفه‌ای، کاربران عادی و کارشناسان هوش مصنوعی را تحت تاثیر قرار داد. کارشناسان فناوری، آن را سریع‌ترین برنامه مخصوص مصرف‌کننده در تاریخ نامیدند و توسعه سریع آن باعث ایجاد یک رقابت تنگاتنگ در میان غول‌های فناوری بزرگ برای بیرون راندن محصولات رقیب شد.

مدیران «گوگل» و «مایکروسافت» از هوش مصنوعی به عنوان انقلاب بعدی در محاسبات یاد کرده‌اند که نحوه تعامل مردم با دنیای دیجیتال را کاملا تغییر خواهد داد. شرکت‌های بزرگ فناوری و استارت‌آپ‌ها، میلیاردها دلار در این فناوری سرمایه‌گذاری می‌کنند و شرکت‌ها کل کسب‌وکار خود را حول محور هوش مصنوعی تغییر جهت می‌دهند. تنظیم‌کننده‌ها در سرتاسر جهان، برای درک این فناوری و تصویب قوانین تلاش می‌کنند تا اطمینان حاصل شود که برای آسیب رساندن به مردم مورد استفاده قرار نمی‌گیرد.

با وجود این، مشکلات مربوط به چت‌بات‌های مولد مانند ChatGPT در طول چند ماه گذشته آشکار شده‌اند. این چت‌بات‌ها معمولا اطلاعات نادرست می‌سازند و آنها را درست جلوه می‌دهند. این مشکلی است که گوگل، OpenAI، مایکروسافت و سایر رهبران هوش مصنوعی هنوز راه حلی برای آن پیدا نکرده‌اند. برخی از کاربران شکایت کرده‌اند که پاسخ‌های ChatGPT به مرور زمان بدتر شده‌اند؛ به ‌ویژه وقتی نوبت به تولید کد رایانه‌ای می‌رسد.

بسیاری از شرکت‌ها نیز کارمندان خود را از به کار بردن ChatGPT در محل کار منع کرده‌اند زیرا نگران هستند که قرار دادن اطلاعات حساس شرکت در چت‌بات، به فاش شدن داده‌ها منجر شود.

اجرای چت‌بات‌های هوش مصنوعی، به مقدار زیادی قدرت پردازش رایانه‌ای گران‌قیمت نیاز دارد و تحلیل‌گران معتقدند کاهش کیفیت به این دلیل است که OpenAI سعی دارد تا هزینه اجرای چت‌بات را کاهش دهد. پایان سال تحصیلی در آمریکا و اروپا نیز ممکن است باعث کاهش استفاده از ChatGPT شده باشد زیرا دانش‌آموزان و دانشجویانی که از آن برای نوشتن مقاله استفاده می‌کردند، به تعطیلات تابستانی رفته‌اند.

برخی دیگر معتقدند که نگرانی‌ها پیرامون مقررات جدید در اتحادیه اروپا باعث شده است که OpenAI و سایر شرکت‌های هوش مصنوعی، توانایی‌ چت‌بات‌های خود را رد کنند تا با سیاستمدارانی که نگران استفاده از ربات‌ها برای انتشار اطلاعات نادرست، نفوذ جانبداری به محصولات فناوری و تأثیرگذاری بر مشاغل واقعی افراد هستند، برخورد نداشته باشند.

«سارا هندلیان بولر»(Sarah Hindlian-Bowler)، تحلیلگر شرکت خدمات مالی و بانکداری استرالیایی «مککواری»(Macquarie) در یادداشتی خطاب به مشتریان نوشت: اگر همچنان شاهد افزایش تولید در حوزه «من نمی‌توانم به این پرسش پاسخ‌ دهم زیرا من یک چت‌بات هستم» باشیم، نگرانی‌های بیشتری را در مورد این موضوع خواهیم داشت که مقررات، قدرت را از ChatGPT بگیرند.

معاون پژوهشی و قائم‌مقام رئیس فرهنگستان علوم گفت: با توجه به ضرورت به کارگیری هوش مصنوعی برای پیشرفت کشور در پیش‌رو و به دلیل فقدان برنامه ملی در این حوزه، سند جامع هوش مصنوعی در فرهنگستان علوم تهیه و برای مقامات ارشد کشور ارسال شده است.
علی اکبر صالحی در گفتگو با تسنیم گفت: قریب به دو سال است که  فرهنگستان علوم، با عنایت به ضرورت توجه به مسائل بنیادین کشور و برای تحقق رشد و بالندگی آنها ، اتاق فکر‌ها و کارگروه‌هایی به وجود آورده که فعالیت خود را به صورت مستمر و دقیق انجام می‌دهند.

وی ادامه داد: در حال حاضر 8 اتاق فکر و 23  کارگروه در فرهنگستان علوم ایجاد شده و 134 نفر در این کارگروه‌ها فعالیت می‌کنند. سخنرانی، برگزاری نشست‌های سیاست‌گذاری، نشست‌های علمی، تهیه برنامه درسی کارشناسی ارشد میان رشته‌ای و تهیه برنامه درسی برای مقطع متوسطه و تنظیم برخی سندهای اجرایی از جمله فعالیت‌های این کارگروه‌ها و اتاق‌فکرها بوده است.

قائم‌مقام رئیس فرهنگستان علوم گفت: اتاق فکرهای «آب»، «تغییر اقلیم»، «چالش‌های اقتصادی»، «فناوری‌های کوانتومی»، «مخاطرات طبیعی»، «مسائل اجتماعی»، «هوش مصنوعی» و «دیدگاه فرهنگستان علوم در حوزه علم و فناوری در افق 1420» به صورت مستمر در مجموعه فرهنگستان علوم فعال هستند.

صالحی بیان کرد: فعالیت‌های تحقیقاتی و عمرانی در اتاق فکر «آب» پیرامون کارگروه‌هایی تحت عنوان حکمرانی آب، ارزش‌گذاری و بهره‌وری آب در بوم‌سازگان مختلف ایران، سیمای مدیریت آب ایران و احیای منابع آب با تاکید بر آب‌خیزداری و آبخوانداری صورت می‌گیرد.

وی افزود: کارگروه‌های آلودگی هوا، پسماند و تغییر اقلیم در اتاق فکر «تغییر اقلیم»؛ چالش مدیریت اقتصادی و حکمرانی دولت محلی در عصر اقتصاد جهانی در اتاق فکر «چالش‌های اقتصادی»؛ کارگروه‌های تحلیل فرآیند حکمرانی و اجرایی، فرونشست و سوانح ژئوتکنیکی کلان، سیلاب و زلزله در اتاق فکر مخاطرات طبیعی؛ کارگروه‌های شیوه حکمرانی و تحولات حوزه زنان و چالش‌ها در اتاق فکر مسائل اجتماعی؛ چهار کارگروه: محاسبات کوانتومی ، اینترنت کوانتومی ، رمزنگاری کوانتومی ، حسگرها و سنجش کوانتومی در اتاق فکر فناوریهای کوانتومی؛ کارگروه‌های کاربرد هوش مصنوعی در تدارکات لجستیک حمل و نقل و کاربرد هوش مصنوعی در بهداشت و سلامت در اتاق فکر هوش مصنوعی و 5 کارگروه اقتصاد دانش‌بنیان، مهاجرت نخبگان، رصد علم، فناوری و نوآوری، آموزش عالی در افق 1420 و آموزش و پرورش در افق 1420 مباحثی است که در اتاق فکر «دیدگاه فرهنگستان علوم در حوزه علم و فناوری در افق 1420» مورد توجه قرار گرفته است.

در ضمن علاوه بر اقدامات فوق، فرهنگستان علوم به اقتضای مسئولیت خود 9 بهمن 1400 به تدوین گزارش «سیاست‌های پیشنهادی فرهنگستان علوم در حوزه علم و فناوری در برنامه هفتم» اقدام کرد.

گزارش مزبور به رئیس محترم جمهوری و سازمان برنامه ارسال شد.این گزارش علاوه بر داشتن بازتاب نسبتاً وسیع در رسانه‌ها، مورد امعان نظر رئیس محترم جمهوری واقع و توسط ایشان به ارگان‌های ذیربط ارجاع شد.

معاون پژوهشی فرهنگستان علوم در ادامه  ضمن تاکید بر اهمیت استفاده از فناوری‌های نوین، گفت: ما در فرهنگستان علوم شرط لازم برای بقا و بالندگی را در استفاده و تسلط بر فناوری‌هایی می‌دانیم که آینده را به صورت مستمر با امکانات و منابع محدود می‌سازند و شکل می‌دهند.

وی توضیح داد: در واقع محدودیت بالقوه و بالفعل در امکانات و منابع، موجب تغییر بنیادی در نگاه به نیازهای افراد و جوامع و به طبع آن برطرف کردن این نیازها منجر شده است. امروز به جای همسان‌انگاری افراد و جوامع که موجب اتلاف منابع و امکانات محدود می‌شود چاره‌ای جز نگرش شخص‌محور نیست.

صالحی گفت: من اعتقاد دارم این موضوع یعنی استفاده از پتانسیل‌های نگرش شخص-محور فقط با استفاده از هوش مصنوعی امکانپذیر و محقق می‌شود. آن هم در دنیای امروز که با مسائل پیچیده‌ای رو‌به‌رو می‌شویم که به دلیل دگردیسی مستمر ظاهر و ماهیت‌شان دنبال کردن آنها در عمل ممکن نیست.

وی به آسیب‌شناسی نگاه‌های موجود در مواجه با هوش مصنوعی پرداخت و گفت: راهکارهای بی‌انعطاف و صلب موجود که به داده‌ها و واقعیت‌ها بی‌توجهی می‌کنند یا از ماهیت متغیر زمان غفلت می‌کنند یا بر فرضِ نادرستِ نامحدود بودنِ منابع و امکانات استوارند.

قائم‌مقام رئیس فرهنگستان علوم افزود: صاحبان این نگرش به گونه‌ای اعجاب‌آور اهمیت تصمیم‌سازی‌های به موقع را نادیده می‌گیرند و به همین دلیل به صورت آشکار توان مقابله با مسائل یاد شده را ندارند.

صالحی به اهمیت هوش مصنوعی برای پیشرفت سطوح مختلف کشور اشاره کرد و توضیح داد: هوش مصنوعی و هوشمندسازی سامانه‌ها در زمره مهم‌ترین مفاهیم، فناوری‌ها و ابزارهایی هستندکه بدون آنها امکان بقا متصور نیست. هوش مصنوعی امروز به عنوان پرچمدار علم و فناوری، ابزاری کارآمد و اجتناب‌ناپذیر برای تحقق عزت و اقتدارملی و ارتقای زندگی آحاد جامعه است.

وی افزود: برخی از مهم‌ترین زمینه‌های استفاده از هوش مصنوعی و هوشمندسازی سامانه‌ها در ایران که با رصد مشکلات کشور از سوی فرهنگستان علوم به صاحب‌نظران و مجریان و قانونگذاران پیشنهاد شده بحث هوشمندسازی در حوزه حکمرانی ملی، سلامت و بهداشت، تدارکات به موقع و انبارداری مدرن، حمل و نقل، شبکه‌های برق و انرژی الکتریکی، مهندسی ارتباطات، نفت و گاز، معدن، کشاورزی و غذا، ساخت و تولید، سامانه‌های مالی و بانکی، حفاظت از محیط‌زیست، و آموزش است.

معاون پژوهشی فرهنگستان علوم گفت: به منظور تحقق بالندگی کشور در زمینه هوش مصنوعی و الویت دادن به آن به دنبال ایجاد و به کارگیری زیست‌بومی تحول آفرین هستیم که در آن عوامل متعددی باید با نگاه هم‌افزایی با هم تعامل کنند.

وی ادامه داد:حکومت، آموزش و پژوهش، تأمین مالی و سرمایه‎‌گذاری و ملزمات فنی شامل داده‌هایی با قابلیت اشتراک و مبادله، سخت‌افزار و رایانه‌های توانمند و از طرفی الگوریتم‌ها و نرم‌افزارهای کاربردی بر مبنای هوش مصنوعی از جمله مهم‌ترین ارکان این زیست‌بوم هستند.

صالحی به بیان برخی مشکلات اساسی در این حوزه پرداخت و گفت: ایران فاقد برنامه ملی هوش مصنوعی است و تنها برخی برنامه‌ها در موضوع فناوری‌های مرتبط در این حوزه تدوین شده‌اند. این در حالی است که تعداد دانش‌آموختگان و متخصصان هوش مصنوعی در رشته‌های علوم و مهندسی کامپیوتر در حد قابل قبولی است، اما در رشته‌های دیگر، توانایی چندانی برای استفاده از هوش مصنوعی به عنوان ابزار وجود ندارد.

وی ضمن اشاره به تهیه سند جامع هوش مصنوعی در فرهنگستان علوم و ارسال آن برای مقامات ارشد کشور، افزود: وضعیت پژوهش‌های بنیادی، نوآوری علمی و انتشار علم در حوزه هوش مصنوعی در ایران با وجود محدودیت‌ها در حد بسیار خوبی بوده است. به‌گونه‌ای که ایران جزو کشورهای برتر در این حوزه محسوب می‌شود اما زیرساخت‌های مناسب و مکفی برای پژوهش‌های آینده‌ساز در کشور وجود ندارد.

قائم‌مقام رئیس فرهنگستان علوم گفت: جایگاه کلی کشور در شاخص‌های دسترسی و ارتباطات در حد متوسط و جزو کشورهای میانی دنیاست اما محدودیت‌های اخیردر تعاملات علمی، فعالیت در حوزه هوش مصنوعی را در عمل متوقف کرده است.

صالحی گفت: این یک واقعیت است که در زمینه ثبت اختراع و تحقیقات کاربردی، شرایط کشور مناسب نیست. تعداد شرکت‌ها  و محصولات دانش‌بنیان در چند سال اخیر علیرغم رشد قابل توجهی که داشتند، اندک بوده است. از سویی طی چند سال گذشته سرمایه‌گذاری در کشور بر اساس شاخص‌های اقتصاد جهانی در مجموع کافی نبوده و دولت به عنوان بزرگترین فعال در اقتصاد کشور فعالیت مناسبی در این حوزه ندارد.

وی بیان کرد: در شرایط کنونی کشور نبود سرمایه‌گذاری خطرپذیر نیز آشکار است.کسب و کار و کارآفرینی در ایران شرایط مناسبی ندارد و محیط و فضای لازم برای آن و آمادگی برای شروع و تثبیت کسب و کار مطلوب نیست.

معاون پژوهشی فرهنگستان علوم توضیح داد: با وجود رشد عناصر موثر در این زمینه مانند شتابدهنده‌ها و بسترهای نوآوری،  وضعیت نوآوری در ایران متوسط است. چرا که نبود مربیان و راهنمایان در شتاب‌دهنده‌ها مشهود است.

صالحی گفت: از سوی دیگر روند تصویب قوانین و مقررات مرتبط در این زمینه هم در حد متوسط است. در اشتراک‌گذاری و مبادله داده‌ها، با وجود تدوین قوانین و مقررات مرتبط،  ایران در شرایط مناسبی نیست و رتبه کشور در چند سال اخیر کاهش یافته است.

وی اظهار داشت: برای ایجاد و به‌کارگیری زیست‌بوم تحول‌آفرین، یک نهاد باید وظیفه هماهنگی ارکان زیست‌بوم را برعهده داشته باشد که این نهاد می‌تواند معاونت علمی و فناوری رئیس جمهور باشد.

قائم مقام رئیس فرهنگستان علوم توضیح داد: در حال حاضر 114 اقدام برای بالندگی و شکوفایی زیست‌بوم هوش مصنوعی کشور به تفکیک هر یک از حوزه‌های پنج‌گانه شامل اقدام در برنامه ملی و سیاست کلان، 31 اقدام در حوزه آموزش و پژوهش، 13 اقدام در حوزه زیرساخت‌ها و شرکت‌ها، 29 اقدام در حوزه نوآوری و کسب‌و‌کار و  اقدام در حوزه اخلاق، مقررات و حقوق مشخص شده که توسط نهاد هماهنگ‌کننده ارکان زیست‌بوم تعیین و اجرایی می‌شود.

معاون علمی رئیس جمهور با تاکید بر اینکه باید با آینده شناسی دقیق از هوش مصنوعی به عنوان فرصت استفاده کنیم گفت: «هوش مصنوعی» فرصت تغییر قدرت ها و بنوعی فرصت جبران تمام عقب افتادگی های علمی است.
به گزارش خبرگزاری صدا و سیما؛  روح الله دهقانی فیروزآبادی معاون علمی و فناوری رئیس جمهور در رویداد «تبادل فناوری اطلاعات در حوزه علوم و فرهنگ اسلامی» در قم بابیان اینکه موضوع تولید علم تجربی بر مبنای مشاهده بوده است گفت:  بشر در نهایت به دانش و آگاهی دست یافته و سپس با بینش زندگی خود را طراحی کرده است.

وی افزود: در صده اخیر دو اتفاق در مشاهده ورزی ما در علوم تجربی رخ داد و از این رو تعداد و حجم داده‌های زندگی ما و تولید داده‌ها زیاد شد و نیز ابزار‌های ذخیره سازی اطلاعات قوی شد.

فیروزآبادی بااشاره به این حجم عظیمی از اطلاعاتی که امروز در اختیار بشر قرار دارد گفت: ماشین  در کاوش این اطلاعات به کمک بشر آمد و ابزار ماشین با فهم در عملکرد مغز انسان تلفیق و در نهایت به ابزار «هوش مصنوعی» رسیدیم.

وی افزود: هوش مصنوعی با مدد داده‌های عظیم و ذخیره ساز‌های بزرگ و الگوریتم‌های مغز به ابزار تولیدکننده تبدیل شده است.

معاون رئیس جمهور با بیان اینکه فناوری این ویژگی را دارد که انسان را در برونش تقویت و در درون ضعیف می‌کند گفت:  هوش مصنوعی تولیدکننده است و فکر می‌کند و در کمتر از پنج سال آینده حتی طراحی‌های تکنولوژی را هوش مصنوعی انجام خواهد داد.

وی افزود: رویکردحوزه علمیه برای استفاده از هوش مصنوعی در بحث فقهی نشانه دوراندیشی حوزویان است.

دهقانی با بیان اینکه بشر با هوش مصنوعی توان فکری و ذهنی را توام با توان جسمی و اجتماعی از دست داد گفت: اگر صرفا استفاده کننده هوش مصنوعی باشیم در ۱۰ سال آینده به مصرف کننده صرف تبدیل می‌شویم گفت: در همه دنیا و در کشور ما به شکل ویژه به هوش مصنوعی به عنوان یک تهدید نگاه می‌کنند که چگونه جلوی آن را گرفته و کنترلش کنیم و، چون آن را نمی‌شناختیم مقهور آن شدیم.

وی ادامه داد: اگر به هوش مصنوعی به عنوان تهدید نگاه کنیم این اتفاق بد به شکل شدیدتری برای ما خواهد افتاد و باید با آینده شناسی دقیق از هوش مصنوعی به عنوان فرصت نگاه کنیم که فرصت تغییر قدرت‌ها بوجود می‌آید و فرصت جبران تمام عقب افتادگی علمی است.

معاون رئیس جمهور با بیان اینکه بزرگ‌ترین مزیت در هوش مصنوعی داشتن نیروی انسانی توانمند در کشور است گفت: خیل عظیمی از جوانان تحصیل کرده داشته و از نظر توان علمی نسبت به دنیا برتری داریم.

وی گفت: در مسیر ایجاد چند هاب فناوری با مرکزیت بخش خصوصی و خیران قرار داریم و راه اندازی هاب‌های فناوری هوش مصنوعی همکاری اساتید حوزه را در شاخه‌های علوم دینی می‌طلبد.

قوانین ملایم ژاپن برای هوش مصنوعی

سه شنبه, ۱۳ تیر ۱۴۰۲، ۰۴:۳۲ ب.ظ | ۰ نظر

ژاپن قوانین ملایم تری در مورد استفاده از هوش مصنوعی نسبت به اتحادیه اروپا دارد.
به گزارش سایبربان، یک مقام آگاه گفت که ژاپن قوانین ملایم تری نسبت به اتحادیه اروپا جهت استفاده از هوش مصنوعی (AI)دارد، زیرا به دنبال این فناوری برای تقویت رشد اقتصادی و تبدیل آن به یک رهبری میباشد.

این مقام که نخواست نامش فاش شود،گفت : هدف این است که تا پایان سال رویکردی برای هوش مصنوعی ایجاد شود. در این صورت به نگرش ایالات متحده نزدیک‌تر و ملایم تر از قوانین سختگیرانه اتحادیه اروپا میباشد.

رویکرد ملایم تر ژاپنی ها میتواند تلاش های اتحادیه اروپا برای وضع قوانین خود به عنوان یک معیار جهانی ، با الزاماتی مانند افشای مطالب دارای حق کپی رایت توسط شرکت‌ها برای آموزش سیستم‌های هوش مصنوعی که محتواهایی مانند متن و گرافیک تولید می‌کنند، بی نتیجه کند.

تیری برتون، رئیس صنعت اتحادیه اروپا این هفته به توکیو سفر میکند تا رویکرد این اتحادیه را در زمینه قانون گذاری هوش مصنوعی و همچنین تعمیق همکاری در زمینه نیمه رسانا ها ارتقا دهد.

پروفسور یوتاکا ماتسوئو ، رئیس شورای استراتژی هوش مصنوعی دانشگاه توکیو، قوانین اتحادیه اروپا را کمی بیش از حد سخت گیرانه خواند و گفت که مشخص کردن مطالب دارای حق کپی رایت مورد استفاده برای یادگیری عمیق، تقریباً غیرممکن است. 

ماتسوئو در ادامه افزود : در اتحادیه اروپا، موضوع ترویج نوآوری کم‌رنگ‌تر بوده و بیشتر در مورد مسئولیت پذیری شرکت‌های بزرگ است.

پیشرفت در هوش مصنوعی مولد توسط شرکت‌هایی مانند اوپن‌اِی‌آی (Open AI) با حمایت مایکروسافت، به دلیل پتانسیل تغییر تجارت به طور کلی هیجان و نگرانی را برانگیخته است.

 برتون گفت: چیزهایی وجود دارند که واقعا نگران کننده هستند و من فکر میکنم این چیزها احتمالاً باید برای هر دموکراسی نگران کننده باشد.

برتون درباره رویکرد نظارتی اتحادیه اروپا گفت: مهم است آنچه را که انجام دادیم، توضیح دهیم. برای ژاپن، هوش مصنوعی می‌تواند به مقابله با کاهش جمعیت و کمبود نیروی کار کمک کند. همچنین میتواند تقاضا برای تراشه‌های پیشرفته‌ را به عنوان بخشی از یک سیاست صنعتی با هدف بازپس‌گیری برتری از دست رفته ژاپن در فناوری، تحریک کند.

به گفته کارشناسان، توان محاسباتی ژاپن برای پردازش واحدهای گرافیکی جی پی یو (GPU) مورد استفاده برای آموزش هوش مصنوعی ، بسیار کمتر از آمریکا است.

پروفسور ماتسوئو گفت: اگر ژاپن ظرفیت تولید جی پی یو ها (GPU) را تا ۱۰ برابر افزایش دهد، احتمالاً هنوز هم کمتر از چیزی خواهد بود که OpenAI در دسترس دارد.

تجارت پرسود حساب‌‌های مسروقه ChatGPT

سه شنبه, ۱۳ تیر ۱۴۰۲، ۱۲:۴۷ ب.ظ | ۰ نظر

محمدرضا بهنام رئوف – بر اساس گزارش بخش تحقیقات‌ چک‌پوینت (CPR)، تجارت حساب‌های مسروقه ChatGPT Premium به شدت افزایش یافته است. موضوعی که به مجرمان سایبری، امکان می‌دهد محدودیت‌های ژئوفِنسینگ یا حصارهای جغرافیایی OpenAI را دور بزنند و دسترسی نامحدود به ChatGPT داشته باشند.

آموخته‌های مایکروسافت از جنگ اوکراین

سه شنبه, ۶ تیر ۱۴۰۲، ۰۲:۳۰ ب.ظ | ۰ نظر

آسیه فروردین – با گسترش تهدیدات دیجیتال در جهان، دور نگه‌داشتن خودمان از این فضا سخت‌تر می‌شود. اکنون جنگ‌ها، هم در زمین و هم در فضای مجازی صورت می‌گیرد. در این میان فناوری‌های جدید هوش مصنوعی می‌توانند به دفع حملات سایبری کمک کنند یا در غیاب مقررات وضع‌شده در آینده، یاریگر بازیگران بد در این حوزه باشند!

آینده بهداشت و درمان با هوش مصنوعی

دوشنبه, ۵ تیر ۱۴۰۲، ۰۵:۵۰ ب.ظ | ۰ نظر

ارائه دهندگان مراقبت‌های بهداشتی در بعضی کشور‌های جهان، برای بهبود خدمات خود از فناوری‌های هوشمند مانند هوش مصنوعی استفاده می‌کنند .

به گزارش مفدا، هوش مصنوعی مولد این ظرفیت را دارد که با ارائه راه حل‌های نوآورانه برای تشخیص، درمان و مراقبت از بیمار، بخش مراقبت‌های بهداشتی را متحول کند. توانایی الگوریتم‌های هوش مصنوعی مولد برای یادگیری از داده‌های انبوه، فرصت‌های شگفت انگیزی را برای بهبود نتایج مراقبت‌های بهداشتی، پیش روی ما می‌گذارد.

استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی و ادغام آن با نظام بهداشت و درمان نیز چالش‌ها و خطرات بسیاری را به همراه دارد که باید به آن توجه شود. 
ارائه دهندگان خدمات حوزه بهداشت و درمان و شرکت‌های علوم و تحقیقات زیستی هم اکنون از چندین مدل هوش مصنوعی استفاده می‌کنند. دسته‌های اصلی این برنامه‌های مبتنی بر هوش مصنوعی شامل توصیه کننده‌های تشخیص و درمان، سیستم‌های یادآوری بیمار و فعالیت‌های اداری است. اگرچه موارد زیادی وجود دارد که در آن‌ها هوش مصنوعی می‌تواند وظایف مراقبت‌های بهداشتی را به خوبی یا بهتر از انسان‌ها انجام دهد، عوامل پیاده سازی این خدمات زمان قابل توجهی می‌برد. 

 

* کاربرد‌های هوش مصنوعی مولد در مراقبت‌های بهداشتی

۱. تصویربرداری و تشخیص پزشکی: هوش مصنوعی مولد می‌تواند تصاویر پزشکی مانند اشعه ایکس، ام آر آی و سی تی اسکن را برای کمک به تشخیص تجزیه و تحلیل کند. الگوریتم‌های هوش مصنوعی مولد با یادگیری از تعداد وسیعی از تصاویر پزشکی، می‌توانند الگو‌ها و ناهنجاری‌هایی را که ممکن است توسط ناظران انسانی نادیده گرفته شود، شناسایی کنند. این امر می‌تواند منجر به تشخیص سریع‌تر و دقیق‌تر شود، به ویژه در مواردی که تخصص محدود یا کمیاب است.

۲. کشف و ارتقا داروها: هوش مصنوعی مولد می‌تواند به کشف و توسعه دارو‌های جدید کمک کند. با تجزیه و تحلیل پایگاه‌های داده بزرگ ساختار‌های مولکولی، الگوریتم‌های هوش مصنوعی مولد می‌تواند داروی جدیدی با خواص خاص تولید کند یا بیماری‌های خاصی را هدف قرار دهد. این روند کشف دارو را تسریع می‌کند و به طور بالقوه منجر به درمان‌های مؤثرتری برای بیماری‌ها و مشکلات مختلف بدن می‌شود.

۳. شخصی سازی اطلاعات پزشکی: هوش مصنوعی مولد می‌تواند داده‌های فردی بیمار، از جمله اطلاعات ژنتیکی، سابقه پزشکی و عوامل سبک زندگی را تجزیه و تحلیل کند تا توصیه‌های درمانی شخصی‌سازی شده را ارائه دهد. الگوریتم‌های هوش مصنوعی مولد، با در نظر گرفتن طیف وسیعی از متغیر‌ها قادر است به ارائه‌دهندگان مراقبت‌های بهداشتی کمک کند تا برنامه‌های درمانی را برای بیماران به صورت جداگانه تنظیم و نتایج را بهینه کرده و اثرات نامطلوب را به حداقل برسانند.

۴. دستیاران مجازی و نظارت بر بیمار: دستیار‌های مجازی مولد مبتنی بر هوش مصنوعی می‌توانند با بیماران تعامل داشته باشند، به سؤالات پاسخ دهند، یادآوری‌های دارویی ارائه دهند و پشتیبانی ارائه دهند. علاوه بر این، هوش مصنوعی مولد می‌تواند داده‌های بیمار را در زمان واقعی نظارت کند، ناهنجاری‌ها را شناسایی کرده و به متخصصان مراقبت‌های بهداشتی در مورد مشکلات احتمالی هشدار دهد. این امر، نظارت از راه دور بیمار را تسهیل می‌کند و مراقبت کلی از بیمار را بهبود می‌بخشد. این مسئله برای بیمار هم مزایای بسیاری، مانند کاهش رفت و آمد در شرایط ناخوشایند جسمانی و گرفتن اطلاعات دقیق بدون نیاز به مراجعه حضوری را دارد.

 

* خطرات احتمالی هوش مصنوعی مولد در مراقبت‌های بهداشتی

۱. حریم خصوصی و امنیت داده‌ها: استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی به معنی مجوز دادن به این فناوری برای جمع آوری و تجزیه و تحلیل حجم زیادی از داده‌های حساس بیمار است. حفاظت از این داده‌ها از دسترسی غیرمجاز، اطمینان حفظ حریم خصوصی و اطمینان از سوء استفاده نکردن صاحبان این فناوری بسیار مهم است. سازمان‌های مراقبت‌های بهداشتی باید اقدامات امنیتی قوی، از جمله رمزگذاری، کنترل‌های دسترسی و روش‌های ناشناس‌سازی داده‌ها را برای محافظت از اطلاعات بیمار اجرا کنند.

۲. سوگیری و تکرار اشتباهات سابق: الگوریتم‌های هوش مصنوعی مولد می‌توانند به‌طور ناخواسته سوگیری‌ها و اشتباه‌های موجود در داده‌هایی را که روی آن‌ها آموزش دیده‌اند، تداوم بخشند. به عبارت دیگر هوش مصنوعی مانند انسان از اشتباهات سابق درس نمی‌گیرد.
این می‌تواند منجر به رفتار نابرابر شود و نابرابری‌های موجود در مراقبت‌های بهداشتی را تشدید کند. اطمینان حاصل کردن از وجود منابع متعدد و متنوع داده‌ها در روند آموزش هوش مصنوعی و پایبندی این فناوری جدید به دستورالعمل‌های اخلاقی، برای اطمینان از کاهش تعصب و برقراری عدالت در نتایج مراقبت‌های بهداشتی امری ضروری و حائز اهمیت است.

۳. انطباق با مقررات: ادغام هوش مصنوعی مولد در نظام بهداشت و درمان ممکن است باعث ایجاد برخی چالش‌های نظارتی شود. سازمان‌های مراقبت‌های بهداشتی باید از مقرراتی مانند مقررات حفاظت از داده‌های عمومی (GDPR) و قانون قابلیت حمل و پاسخگویی بیمه سلامت (HIPAA) پیروی کنند. نهاد‌های نظارتی همه کشور‌ها باید اطمینان حاصل کنند که رضایت مناسب از بیماران گرفته شده و استفاده از داده‌ها با استاندارد‌های قانونی و اخلاقی آن کشور، مطابقت دارد.

۴. شفافیت و توضیح پذیری: الگوریتم‌های مولد هوش مصنوعی، درک فرآیند تصمیم گیری آن را دشوار می‌کنند. در مراقبت‌های بهداشتی، جایی که تصمیم‌ها می‌توانند پیامد‌های حیاتی داشته باشند، اطمینان از شفافیت و توضیح‌پذیر بودن فرایند تصمیم گیری بسیار مهم است.

توسعه دهندگان هوش مصنوعی باید در نسخه‌های بعدی تلاش خود را برای قابل تفسیر شدن و ایجاد دستورالعمل‌های روشن و شفاف برای توضیح استدلال پشت توصیه‌های پزشکی هوش مصنوعی، افزایش دهند.

با توجه به اینکه هوش مصنوعی نقش مهمی در ارائه خدمات بهداشتی آینده دارد، آشنایی با تمام ابعاد آن از ضروریات است. دقت بالای هوش مصنوعی مولد باعث افزایش ضریب دقت در روند توسعه علم پزشکی می‌شود. اگرچه تلاش‌های اولیه برای تشخیص بیماری و توصیه‌های درمانی چالش برانگیز بوده است، اما انتظار می‌رود که هوش مصنوعی در نهایت بر آن حوزه نیز تسلط یابد.

 

* توسعه هوش مصنوعی در صنایع پزشکی؛ فرایندی اجتناب‌ناپذیر

با توجه به پیشرفت‌های سریع هوش مصنوعی در تجزیه و تحلیل تصویربرداری، به نظر می‌رسد که هوش مصنوعی در آینده بیشتر تصاویر رادیولوژی و پاتولوژی را بررسی کند.

بزرگ‌ترین چالش هوش مصنوعی در حوزه‌های مراقبت‌ها و خدمات بهداشتی این نیست که آیا فناوری‌ها به اندازه کافی قادر خواهند بود مفید باشند یا نه، بلکه اطمینان از پذیرش آن‌ها در فرایند بالینی روزانه است.

پذیرش گسترده هوش مصنوعی را تأیید قانون‌گذاران و تنظیم گران می‌تواند تضمین کند و این مسئله نیازمند استاندارد شدن این خدمات با توجه به سیستم هر کشور، آموزش آن به پزشکان، تأمین بودجه و به روز شدن مدام آن است.

این چالش‌ها در نهایت برطرف خواهند شد، اما انجام آن‌ها بسیار بیشتر از توسعه و ارائه خود فناوری‌ها طول می‌کشد. همچنین مشخص است که سیستم‌های هوش مصنوعی جایگزین پزشکان انسانی در مقیاس بزرگ نمی‌شوند، بلکه مکمل آن‌ها هستند و در کنار آن‌ها خدمات بهیاری به بیماران ارائه می‌دهند از این رو شاید تنها ارائه دهندگان مراقبت‌های بهداشتی که به مرور زمان شغل خود را از دست می‌دهند ممکن است کسانی باشند که از کار در کنار هوش مصنوعی امتناع می‌ورزند.

وزرای دیجیتال فدرال و ایالتی در آلمان از اتحادیه اروپا درخواست کردند که یک سیستم نظارتی سنجیده و سریع را برای کاهش خطرات استفاده از هوش مصنوعی راه اندازی کند.
به گزارش تسنیم به نقل از روزنامه تاگس اشپیگل آلمان، وزرای دیجیتال فدرال و ایالتی در آلمان خواستار تنظیم سریع اما سنجیده هوش مصنوعی در اروپا شده اند. فولکر ویزینگ، وزیر دیجیتال فدرال آلمان پس از نشست وزیران در مونیخ گفت که بدون هوش مصنوعی دیگر رقابتی در آینده وجود نخواهد داشت.

وی افزود: اما در اینجا مسئله چگونگی آن مطرح است: در اینجا باید مسئله یک چارچوب نظارتی که نوآوری پسند است اما از ارزش های ما مانند شفافیت و ارزش های دموکراتیک محافظت می کند مطرح باشد.

به عنوان مثال، ویسینگ به تبلیغات طرفدار روسیه تحت کنترل هوش مصنوعی در شبکه های اجتماعی اشاره کرده و گفت: اگر می خواهید کاری در مورد آن انجام دهید، باید وقت خود را تلف نکنید. او تاکید کرد: باید مطمئن شوید که هوش مصنوعی به ما خدمت می کند و ما را تحریف و دستکاری نمی کند. جودیت گرلاخ، وزیر دیجیتال ایالت بایرن هم گفت که آنها می خواهند از فرصت های ارائه شده توسط هوش مصنوعی استفاده کنند و خطرات را از طریق مقررات خوب به حداقل برسانند.

او از پیشنهادات قبلی در سطح اروپا انتقاد کرد و آن را افراطی خواند و نسبت به محدودیت زیاد در این زمینه هشدار داد. وی افزود: نوآوری های هوش مصنوعی در اروپا نباید به خطر بیفتد. هیچ ترسی و الزامات ایدئولوژی محور نباید وجود داشته باشد.

هوش مصنوعی معمولاً به برنامه‌های مبتنی بر یادگیری ماشینی اطلاق می‌شود که در آن نرم‌افزار مقادیر زیادی از داده‌ها را برای مطابقت بررسی می‌کند و از آنها نتیجه‌گیری می‌کند. آنها در حال حاضر در بسیاری از مناطق استفاده می شوند.

در عین حال، این نگرانی وجود دارد که از فناوری مبتنی بر هوش مصنوعی برای انتشار اطلاعات نادرست سوء استفاده شود.

اتحادیه اروپا می خواهد با اولین قانون برای فناوری هوش مصنوعی آن را تحت کنترل درآورده و خطرات توسعه آن را کاهش دهد.

هوش مصنوعی اخیرا در نامه سرگشاده کارشناسان برجسته به عنوان یک تهدید موجودیتی برای بشریت، شبیه به یک همه گیری یا جنگ هسته ای ارزیابی شده است. این هشدار واضح در نامه‌ای سرگشاده از بخش های مربوط به این صنعت آمده که توسط مخترعانی مانند سام آلتمن، بنیانگذار هوش مصنوعی Open و دیگران امضا شده است. در این نامه آمده است که کاهش خطرات این فناوری جدید باید یک "اولویت جهانی" باشد.

مارگارت وستاگر، کمیسر رقابت اتحادیهٔ اروپا چندی پیش در سخنانی اظهار داشت که این اتحادیه احتمالا امسال به توافقی سیاسی دست خواهد یافت که راه را برای اولین قانون بزرگ هوش مصنوعی جهان هموار خواهد کرد.

در حالی که انتظار می رود قانون هوش مصنوعی اتحادیه اروپا تا سال جاری تصویب شود، قانونگذاران گفته اند که اجرای آن چند سال طول می کشد.

رئیس جمهور آمریکا نیز اذعان کرد خطرات ناشی از هوش مصنوعی برای امنیت و اقتصاد نیاز به رسیدگی دارد.
به گزارش فارس به نقل از رویترز، جو بایدن، رئیس‌جمهور آمریکا گفت که خطرات هوش مصنوعی درمورد امنیت ملی و اقتصاد باید مورد توجه قرار گیرد و افزود که از متخصصان مشاوره خواهد گرفت.

بایدن طی مراسمی در سانفرانسیسکو گفت: « دولت من متعهد به حفاظت از حقوق و ایمنی آمریکایی‌ها و در عین حال محافظت از حریم خصوصی، رسیدگی به سوگیری و اطلاعات نادرست و اطمینان از ایمن بودن سیستم‌های هوش مصنوعی است.»

بایدن با گروهی از رهبران و حامیان جامعه مدنی که قبلاً از نفوذ شرکت های بزرگ فناوری انتقاد کرده بودند، ملاقات کرد تا درباره هوش مصنوعی بحث کند. او گفت: «می‌خواستم مستقیماً در این مورد از کارشناسان بشنوم.»

چندین دولت در حال بررسی چگونگی کاهش خطرات فناوری نوظهور هستند. در ماه‌های اخیر پس از انتشار چت‌جی‌پی‌تی توسط شرکت اپن‌ای‌ای، نگرانی ها در مورد خطرات هوش مصنوعی افزایش یافته است. رگولاتورها در سطح جهانی در تلاش هستند تا قوانینی را برای استفاده از هوش مصنوعی مولد تنظیم کنند.

بایدن همچنین اخیراً در مورد موضوع هوش مصنوعی با دیگر رهبران جهان از جمله ریشی سوناک، نخست وزیر بریتانیا که دولت او اواخر امسال اولین نشست جهانی در مورد ایمنی هوش مصنوعی را برگزار خواهد کرد، بحث کرده است. انتظار می رود بایدن در جریان سفر جاری نارندرا مودی، نخست وزیر هند به این کشور با او در مورد این موضوع گفت وگو کند.

قانونگذاران اتحادیه اروپا هفته گذشته با تغییراتی در پیش نویس قوانین هوش مصنوعی پیشنهادی کمیسیون اروپا به منظور تعیین استاندارد جهانی برای فناوری مورد استفاده در همه چیز از کارخانه های خودکار گرفته تا خودروهای خودران و چت بات ها موافقت کردند.

ورود رییس جمهور آمریکا به خطرات هوش مصنوعی

چهارشنبه, ۳۱ خرداد ۱۴۰۲، ۰۳:۴۸ ب.ظ | ۰ نظر

جوبایدن رییس جمهور آمریکا اعلام کرد ریسک های هوش مصنوعی برای امنیت ملی و اقتصاد باید بررسی شود. وی در این زمینه خواستار مشاوره کارشناسی خواهد شد.

به گزارش خبرگزاری مهر به نقل از رویترز، او در مراسمی در سن فرانسیسکو گفت: دولت من به حفاظت از حقوق مردم آمریکا و حفاظت از آنها حین محافظت از حریم خصوصی پایبند است. برای این منظور اقدامات مختلفی را برای بررسی تبعیض، اخبار جعلی و امنیت سیستم‌های هوش مصنوعی قبل از عرضه انجام می‌دهد.

بایدن با گروهی از رهبران شهری و فعالانی که قبلاً تأثیر شرکت‌های بزرگ فناوری را نقد کرده، دیدار کرد تا درباره هوش مصنوعی مذاکره کند. او در این باره افزود: می‌خواهم نظرات کارشناسان را در این زمینه بشنوم.

در حال حاضر چند دولت مشغول بررسی اقداماتی هستند تا خطرات فناوری‌های در حال ظهور را کاهش دهند. سرمایه گذاری در هوش مصنوعی در ماه‌های پس از عرضه چت جی پی تی متعلق به شرکت اوپن ای آی شکوفا شده است.

در این میان رگولاتورهای سراسر جهان مشغول تنظیم قوانینی برای نظارت بر هوش مصنوعی مولد هستند که می‌تواند متن و عکس تولید کند و تأثیر آن با ظهور اینترنت مقایسه شده است.

رئیس جمهور آمریکا پیش از این موضوع هوش مصنوعی را با دیگر رهبران جهان از جمله ریشی سوناک نخست وزیر انگلیس مطرح کرده بود. قرار است دولت انگلیس نیز در سال جاری میلادی نخستین اجلاس جهانی ایمنی هوش مصنوعی را برگزار کند. پیش بینی می‌شود بایدن این موضوع را با نارندا مودی نخست وزیر هند نیز مطرح کند.