ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۴۱۴ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

تحلیل


طبق اعلام دولت بایدن قرار است ۱۴۰ میلیون دلار صرف تحقیق و توسعه درباره هوش مصنوعی شود، این در حالی است که استفاده از این فناوری رو به افزایش است.
به گزارش خبرگزاری صدا و سیما به نقل از روزنامه آمریکایی دِ هیل، دولت بایدن اعلام کرد در شرایط فعلی که هوش مصنوعی میان کاربران رونق گرفته، ۱۴۰ میلیون دلار برای تحقیق و توسعه درباره این فناوری سرمایه گذاری خواهد کرد.

همراه با بودجه، دفتر مدیریت و بودجه (OMB) در ماه‌های آینده دستورالعمل‌های سیاستی در مورد استفاده از هوش مصنوعی توسط دولت فدرال را صادر خواهد کرد و شرکت‌هایی که هوش مصنوعی را توسعه می‌دهند، مانند گوگل، مایکروسافت و OpenAI، متعهد شده‌اند که در ارزیابی عمومی سیستم‌های هوش مصنوعی شرکت کنند.

بنیاد ملی علوم ۱۴۰ میلیون دلار را برای راه اندازی هفت موسسه تحقیقاتی ملی هوش مصنوعی سرمایه گذاری خواهد کرد و تعداد کل این موسسات را در آمریکا به ۲۵ عدد خواهد رساند.

تعهدات شرکت‌هایی که هوش مصنوعی را توسعه می‌دهند، بخشی از تلاش برای ارائه اطلاعات به محققان و مردم در مورد مدل‌های هوش مصنوعی و چگونگی هماهنگی مدل‌ها با اصولی که در طرح لایحه هوش مصنوعی دولت آمریکا که اخیرا برای کاهش آسیب‌های سیستم‌های خودکار منتشر شده، هماهنگ می‌کنند.

در پاسخ به این سوال که آیا نیازی به استاندارد‌های بین المللی در مورد هوش مصنوعی نیز وجود دارد، مقامات ارشد آمریکا گفتند: ما باید یک قدم برداریم و افزودند که هوش مصنوعی یک فناوری جهانی است و همکاری با شرکای اروپایی ضروری خواهد بود.

استفاده از هوش مصنوعی اخیرا رشد داشته و سیاست‌گذاران و تنظیم‌کننده‌ها در حال مبارزه با چگونگی مقابله با نگرانی‌های ناشی از آن هستند. رشد سریع این فناوری نگرانی‌هایی را در مورد خطر اطلاعات نادرست، کلاهبرداری و جمع آوری داده‌ها ایجاد می‌کند.

ایویت کلارک، نماینده مجلس لایحه‌ای را ارائه کرد که گروه‌ها یا پویش‌های سیاسی را ملزم می‌کند تا استفاده از محتوای ایجاد شده توسط هوش مصنوعی در تبلیغات سیاسی را افشا کنند. این در حالی است که کارگروه ملی جمهوری خواه اولین تبلیغ خود را با محتوای تولید شده توسط هوش مصنوعی پس از اعلام نامزدی بایدن برای انتخابات ریاست جمهوری آمریکا منتشر کرد.

همچنین در این هفته، لینا خان، رئیس کمیسیون تجارت فدرال متعهد شد این آژانس در نظارت بر استفاده‌های ناعادلانه یا فریبنده از هوش مصنوعی هوشیار باشد.

بریتانیا و آمریکا در بحث رقابت برای توسعه فن آوری هوش مصنوعی مداخله کرده اند، بخش ناظر رقابتی هوش مصنوعی بریتانیا بررسی این بخش را آغاز کرد و همچنین کاخ سفید به شرکت های فن آوری در مورد مسئولیت اساسی خود برای توسعه محصولات ایمن توصیه نمود.
قانونگذاران تحت فشار فزاینده ای برای مداخله هستند، چرا که ظهور مولدهای زبانی مبتنی بر هوش مصنوعی مانند چت جی پی تی (ChatGPT) نگرانی هایی را در مورد گسترش بالقوه اطلاعات نادرست، افزایش تقلب و تاثیر بر بازار مشاغل ایجاد میکند و ایلان ماسک در میان نزدیک به ۳۰ هزار امضا کننده نامه ای که ماه گذشته منتشر شد ،خواستار توقف پروژه های مهم شد.

سازمان رقابت و بازارهای بریتانیا (CMA) اعلام کرد که به بررسی سیستم های اساسی یا مدل های بنیادی ابزارهای هوش مصنوعی خواهد پرداخت. یکی از کارشناسان حقوقی، بررسی هایی به عنوان یک پیش نیاز برای این بخش توصیف کرده است، یافته های این کارشناس ماه سپتامبر منتشر خواهد شد.
دولت آمریکا نیز اقداماتی را برای مقابله با خطرات توسعه هوش مصنوعی اعلام کرد؛ به طوری که کاملا هریس، معاون رئیس جمهور، با مدیران ارشد در خط مقدم پیشرفت های سریع این صنعت ملاقات کرد. کاخ سفید در بیانیه ای اعلام کرد شرکت هایی که این فن آوری را توسعه میدهند، مسئولیتی اساسی دارند تا پیش از گسترش یا عمومی شدن، از ایمن بودن محصولات خود مطمئن شوند.
این نشست یک هفته به طول انجامید و در جریان آن گروهی از دانشمندان و رهبران کسب وکار ،هشدارهایی را در مورد سرعت اختلال این فن آوری در صنایع مستقر صادر کردند.

جفری هینتون، پدرخوانده هوش مصنوعی، گوگل را ترک کرد تا آزادانه‌تر در مورد خطرات این فناوری صحبت کند، این در حالی است که سر پاتریک والانس، مشاور علمی سابق دولت بریتانیا با بیان اینکه تاثیر هوش مصنوعی بر مشاغل می تواند به بزرگی تاثیر انقلاب صنعتی باشد، از وزرا خواست تا از تغییرات عمیق اجتماعی و اقتصادی که می تواند توسط هوش مصنوعی ایجاد شود، جلوگیری کنند.

سارا کاردل میگوید هوش مصنوعی این پتانسیل را دارد که نحوه رقابت کسب وکارها را تغییر دهد؛ اما باید از مصرف کنندگان محافظت کرد.

مدیر اجرایی سازمان رقابت و بازارهای بریتانیا ( CMA) گفت: هوش مصنوعی در چند ماه گذشته به آگاهی عمومی نفوذ کرده است و مردم در برابر مسائلی مانند اطلاعات نادرست یا گمراه کننده محافظت میشوند.بسیار مهم است که مزایای بالقوه این فناوری متحول کننده به راحتی برای مشاغل و مصرف کنندگان بریتانیا قابل دسترسی باشد.
سرویس چت جی پی تی (ChatGPT) و رقیب گوگل یعنی بارد  (Bard) در پاسخ به درخواست های کاربران در معرض ارائه اطلاعات غلط هستند، در حالی که نگرانیهایی در مورد کلاهبرداری های صوتی مبتنی بر هوش مصنوعی مطرح شده است. سازمان ضد اطلاعات نادرست، نیوز گارد (NewsGuard) در این هفته اعلام کرد که چت بات هایی که وانمود میکنند روزنامه نگار هستند، تقریبا ۵۰ مزرعه مجهز به هوش مصنوعی را اداره مینمایند. ماه گذشته، آهنگی با آوازهای جعلی ساخته‌شده توسط هوش مصنوعی که ادعا میشد درک و ویکند  (Drake and the Weeknd)  هستند، از سرویس‌های استریم حذف شد.

در ایالات متحده، هریس با مدیران ارشد اوپن آی (OpenAI)، آلفابت و مایکروسافت در کاخ سفید دیدار کرد و اقداماتی را برای رسیدگی به خطرات توسعه بدون کنترل هوش مصنوعی مطرح کرد.در بیانیه ای پس از جلسه، هریس گفت که به مدیران اجرایی گفته است که بخش خصوصی مسئولیت اخلاقی، معنوی و قانونی برای تضمین ایمنی و امنیت محصولات خود را  بر عهده دارند.

دولت اعلام کرد که در هفت موسسه تحقیقاتی ملی جدید هوش مصنوعی سرمایه گذاری خواهد کرد تا پیشرفت های هوش مصنوعی را دنبال کند که قابل اعتماد، مسئولیت پذیر و در خدمت منافع عمومی هستند. توسعه هوش مصنوعی تحت سلطه بخش خصوصی است و صنعت فن آوری در سال گذشته ۳۲ مدل ماشین یادگیری قابل توجه تولید کرده است، در حالی که سه مدل توسط دانشگاه تولید شده است.

توسعه دهندگان برجسته هوش مصنوعی نیز با ارزیابی عمومی سیستم های خود در کنفرانس امنیت سایبری دیفکن 31 (Defcon 31)  امسال موافقت کرده اند.موسساتی که در این کنفرانس شرکت خواهند کرد شامل اوپن آی (OpenAI)، گوگل، مایکروسافت و هوش مصنوعی استابیلیتی (Stability)  میباشد.

همچنین به اتحادیه اروپا هشدار داده شد که باید از تحقیقات مردمی هوش مصنوعی محافظت نماید یا ریسک واگذاری کنترل توسعه فناوری به شرکت‌های آمریکایی را بپذیرد.اروپا نمیتواند حق حاکمیت هوش مصنوعی را از دست بدهد. حذف تحقیق و توسعه منبع باز، جامعه علمی و اقتصاد اروپا را به شدت به چند شرکت خارجی و اختصاصی برای زیرساخت های ضروری هوش مصنوعی وابسته خواهد کرد.

کریستف شوهمان، رهبر سازمانی در شرکت لایون  ( Laion)گفت: ما در حال کار روی هوش مصنوعی منبع باز هستیم، زیرا فکر می‌کنیم این نوع هوش مصنوعی ایمن‌تر، در دسترس‌تر و آزاد‌تر خواهد بود. منبع:  سایبربان

آغاز تحقیقات انگلیس درباره خطرات هوش مصنوعی

جمعه, ۱۵ ارديبهشت ۱۴۰۲، ۰۲:۴۰ ب.ظ | ۰ نظر

رگولاتور رقابت انگلیس تحقیقی درباره صنعت هوش مصنوعی آغاز کرده تا نگرانی های احتمالی مربوط به رقابت و حقوق مصرف کننده را برطرف کند.
به گزارش خبرگزاری مهر به نقل از رویترز، این درحالی است که مایکروسافت و گوگل حالت تدافعی نسبت به این فناوری دارند.

این تحقیق روی مدل های بنیادینی مانند مدل های زبانی بزرگ و هوش مصنوعی مانند ابزاری که شرکت اوپن آ. آی ابداع کرده، متمرکز است.

مدل های بزرگ زبانی سیستم های هوش مصنوعی هستند که با داده های عظیمی آموزش دیده اند تا زبان انسانی را دریابند و مانند انسان به سوالات پاسخ دهند.

هوش مصنوعی مولد به ابزارهایی اشاره دارد که به کاربران اجازه می دهد محتوای جدیدی براساس درخواست کاربران انسان بسازند.

این فناوری ها پتانسیل زیادی برای افزایش بهره وری انسان دارند و مدت زمان لازم برای ارائه یک کپی ساده جهت اهداف بازاریابی یا کد نویسی را کاهش می‌دهند.

با این وجود آنها سروصدای زیادی به پا کردند زیرا رگولاتورها از سرعت توسعه سیستم های هوش مصنوعی و استفاده از آن در بازار کار بیمناک هستند.

سازمان رقابت و بازارهای انگلیس در بیانیه ای اعلام کرد چگونگی چشم‌انداز رقابتی برای مدل‌های پایه و استفاده از آنها می‌تواند تکامل یابد، فرصت‌ها و خطراتی را که چنین سناریوهایی به همراه دارند، بررسی خواهد کرد و اصول راهنما را برای حمایت از رقابت و حمایت از مصرف‌کنندگان با توسعه مدل‌های پایه منتشر خواهد کرد.

سارا کاردل، مدیر ارشد اجرایی سازمان رقابت و بازارهای انگلیس در بیانیه‌ای اعلام کرد: هوش مصنوعی در چند ماه اخیر به آگاهی عمومی نفوذ کرده است اما ما از مدتی آن را تحت نظر داشتیم. این فناوری با سرعت در حال توسعه است و پتانسیل آن را دارد که شیوه رقابت کسب و کارها را تغییر دهد و همچنین رشد اقتصادی قابل توجهی را ایجاد کند.

اودر ادامه افزود: بسیار مهم است که مزایای بالقوه این فناوری به آسانی برای کسب‌وکارها و مصرف‌کنندگان بریتانیا قابل دسترسی باشد، و از سوی دیگر از مردم در مقابل مواردی مانند اطلاعات نادرست یا گمراه‌کننده محافظت شود.

این سازمان دیدگاه ها و شواهد را تا مهلت ۲ ژوئن بررسی خواهد کرد. پس از آن، رگولاتورها گزارشی درباره یافته های آن در سپتامبر منتشر می کنند.

قوانین جدید چین برای محدودسازی هوش مصنوعی

چهارشنبه, ۱۳ ارديبهشت ۱۴۰۲، ۱۰:۳۲ ب.ظ | ۰ نظر

به دنبال اعمال محدودیت به منظور مهار توسعه سریع ابزارهای هوش مصنوعی مولد در سراسر جهان، سازمان ناظر بر اینترنت چین نیز مجموعه قوانین جدیدی برای شرکت‌هایی که خدماتی مشابه ChatGPT ارائه می‌دهند را معرفی کرده است.

به گزارش خبرگزاری صدا و سیما؛  طبق مقررات پیشنهادی که توسط اداره فضای سایبری چین (CAC) منتشر شده است، شرکت‌هایی که خدمات مولد هوش مصنوعی در این کشور ارائه می‌کنند باید اقداماتی را به منظور جلوگیری از نشر محتوای تبعیض‌آمیز، اطلاعات نادرست و محتوایی که به حریم خصوصی شخصی یا مالکیت معنوی آسیب می‌زند، انجام دهند.

CAC در بیانیه‌ای اعلام کرد که کسب و کارها باید مطمئن شوند که خدماتشان به ارزش‌های سوسیالیستی چین احترام گذاشته و محتوایی تولید نکنند که حاکی از براندازی رژیم، ترویج خشونت و غیراخلاقی بوده یا نظم اقتصادی و اجتماعی را مختل کند. سازمان ناظر بر اینترنت چین معتقد است که طبق مقررات سال ۲۰۱۸ این کشور،‌ تمام محصولات مولد هوش مصنوعی باید قبل از ارائه به عموم، توسط CAC مورد ارزیابی امنیتی قرار بگیرد.

هوش مصنوعی مولد که محتوایی بر اساس پیام‌های متنی، تصویری یا صوتی ایجاد می‌کند، پس از راه‌اندازی ربات مکالمه ChatGPT توسط شرکت آمریکایی OpenAI، در چین توجهات را خود جلب کرده است، اما از آنجایی که در این کشور ChatGPT در دسترس قرار ندارد، شرکت‌های داخلی برای راه‌اندازی فناوری‌هایی مشابه آن به رقابت پرداخته‌اند. بیدو ماه گذشته از هوش مصنوعی Ernie Bot رونمایی کرد و علی‌بابا هم Tongyi Qianwen را به عنوان هوش مصنوعی مولد خود معرفی کرد. با این حال، افزایش علاقه به هوش مصنوعی مولد مقامات چینی را بر آن داشته که خطرات این حوزه را زیر نظر داشته باشند.

سایر کشورها نیز در حال بررسی مقررات مربوط به هوش مصنوعی مولد هستند. وزارت بازرگانی آمریکا و اتحادیه در حال ارزیابی چگونگی سیاست گذاری در این زمینه هستند و ایتالیا هم اولین کشور غربی بود کهChatGPT را به دلیل نگرانی‌هایی در خصوص حفظ حریم خصوصی ممنوع اعلام کرد. CAC در حال ارزیابی بازخوردها درمورد قوانین پیشنهادی خود در زمینه هوش مصنوعی مولد تا ۱۰ می (۲۰ اردیبهشت) است.

هوش مصنوعی نسل بشر را نابود می‌کند

چهارشنبه, ۱۳ ارديبهشت ۱۴۰۲، ۱۰:۱۰ ب.ظ | ۰ نظر

یک فیزیک دان در سال‌های پایانی زندگی خود هشدار داد که هوش مصنوعی می‌تواند به معنای پایان نسل بشر باشد.
به گزارش باشگاه خبرنگاران مدت‌ها قبل از اینکه ایلان ماسک و استیو وازنیک بنیانگذار اپل نامه‌ای در مورد خطرات عمیق هوش مصنوعی برای بشریت را امضا کنند، استیون هاوکینگ فیزیکدان، زنگ خطر را در مورد این فناوری به سرعت در حال تکامل به صدا درآورده بود.

هاوکینگ در مصاحبه‌ای در سال ۲۰۱۴ گفت: توسعه هوش مصنوعی کامل می‌تواند پایان نسل بشر باشد.

هاوکینگ که بیش از ۵۵ سال از بیماری اسکلروز جانبی آمیوتروفیک (ALS) رنج می‌برد، سال ۲۰۱۸ در سن ۷۶ سالگی درگذشت. اگرچه او اظهارات انتقادی در مورد هوش مصنوعی داشت، اما از شکل بسیار ابتدایی این فناوری برای برقراری ارتباط استفاده کرد. بیماری او، عضلات را ضعیف می‌کرد و هاوکینگ را مجبور به استفاده از ویلچر کرد. او در سال ۱۹۸۵ دیگر قادر به صحبت کردن نبود و به روش‌های مختلفی برای برقراری ارتباط متکی بود، از جمله دستگاه تولید کننده گفتار که توسط اینتل اداره می‌شد و به او اجازه می‌داد از حرکات صورت برای انتخاب کلمات یا حروفی که با گفتار ترکیب می‌شوند استفاده کند.

هاوکینگ گفت که اشکال بسیار ابتدایی هوش مصنوعی قبلاً قدرتمند بوده‌اند، اما ایجاد سیستم‌هایی که با هوش انسانی رقابت می‌کنند یا از آن پیشی می‌گیرند می‌تواند برای نسل بشر فاجعه‌بار باشد.

او در کتاب خود ذکر کرده که رایانه‌ها احتمالاً در عرض ۱۰۰ سال از انسان‌ها در هوش پیشی خواهند گرفت. او نوشت: ما ممکن است با یک انفجار اطلاعاتی مواجه شویم که در نهایت منجر به ماشین‌هایی می‌شود که هوش آن‌ها بیش از هوش ما است.

او استدلال کرد که کامپیوتر‌ها باید برای هماهنگی با اهداف انسانی آموزش ببینند و افزود که جدی نگرفتن خطرات مرتبط با هوش مصنوعی می‌تواند بدترین اشتباه ما باشد.

اظهارات هاوکینگ بازتاب نگرانی‌های امسال غول فناوری، ایلان ماسک و استیو وزنیاک، بنیانگذار اپل است. این دو رهبر فناوری، همراه با هزاران متخصص دیگر، نامه‌ای را امضا کردند و در آن خواستار توقف حداقل شش ماهه ساخت سیستم‌های هوش مصنوعی قدرتمندتر از ربات گفت و گوی چت‌جی‌پی‌تی شدند.

علی‌رغم درخواست‌ها برای توقف تحقیقات در آزمایشگاه‌های هوش مصنوعی که بر روی فناوری‌هایی که از GPT-۴ پیشی می‌گیرند، انتشار این سیستم نقطه عطفی بود و شرکت‌های مختلف را وادار کرد تا در ساخت سیستم‌های هوش مصنوعی با هم رقابت کنند.

به گفته مدیر آژانس سیستم‌های اطلاعات دفاعی، هوش مصنوعی مولد، می تواند هکرها را پیچیده‌تر کرده و در نهایت سطح پادمان‌های ایالات متحده را بالا ببرد.
به گزارش سایبربان، ژنرال رابرت اسکینر، مدیر آژانس سیستم های اطلاعات دفاعی (DISA)، می گوید که این فناوری یکی از مخرب ترین پیشرفت هایی است که او در مدت طولانی دیده است و پیامدهای امنیتی جدی دارد. هشدار مشابهی توسط راب جویس، رئیس امنیت سایبری آژانس امنیت ملی، در اوایل سال جاری صادر شده بود.
اسکینر در 2 می در کنفرانس سایبری ای اف سی ای ای تک نت (AFCEA TechNet) در بالتیمور گفته بود: کسانی که از هوش مصنوعی استفاده می‌کنند، و می‌توانند بفهمند که چگونه می‌توانند به بهترین شکل از آن استفاده کنند، اما همچنین چگونه می‌توانند به بهترین شکل در برابر آن محافظت شوند، همانهایی هستند که از موقعیت بالایی برخوردار هستند. ما در این اتاق به این فکر می‌کنیم که چگونه این امر در امنیت سایبری اعمال می‌شود. چگونه در مورد هوش کاربرد دارد؟ چگونه آن را در مورد توانایی های جنگی خود اعمال می کنیم؟

هوش مصنوعی مولد در ماه‌های اخیر توسط چت جی پی تی اوپن ای آی (ChatGPT OpenAI) که بیش از 1 میلیون کاربر را در عرض یک هفته پس از راه‌اندازی خود جذب کرد، محبوب شد. سام آلتمن، مدیر عامل اوپن ای آی، در ماه مارس به خبرگزاری ای بی سی نیوز (ABC News) گفته بود که نگران این است که چگونه این مدل‌ها می‌توانند برای اطلاعات نادرست گسترده استفاده شوند و برای حملات سایبری متجاوزانه، مورد استفاده قرار گیرند.
اسکینر در روز سه‌شنبه پیش‌بینی کرد که هوش مصنوعی مولد ابزار مهمی برای "دشمنان رده بالا" نخواهد بود. در عوض، این فناوری به یک دسته کامل از افراد دیگر کمک می کند تا با روشی بسیار سریع تر به آن سطح برسند.
او می گوید: پس چگونه سیستم های حفاظتی، امنیتی و قابلیت های شبکه برای حمایت از حفاظت از آن داده ها و حمایت از مردم خود را داریم؟

ایالات متحده، چین و روسیه را تهدیدهای درجه یک در دنیای مجازی می داند. بر اساس استراتژی امنیت سایبری دولت بایدن که وعده استفاده از تمام ابزارهای قدرت ملی برای دفع رفتارهای نادرست سایبری را داده بود، دیگر دشمنان ایران و کره شمالی هستند.
تسلط بر هوش مصنوعی کلیدی برای پایداری رقابت بین‌المللی در بخش‌های دفاعی، مالی و سایر بخش‌ها است. حداقل 685 پروژه هوش مصنوعی، از جمله چندین پروژه مرتبط با سیستم‌های تسلیحاتی بزرگ، تا اوایل سال 2021 در پنتاگون در حال اجرا بودند که البته این بر اساس آخرین آمار عمومی است.
آژانس سیستم‌های اطلاعات دفاعی در سال مالی جاری، هوش مصنوعی مولد را به فهرست نظارت بر فناوری خود اضافه کرد. موجودی موضوعات و تجهیزات پیشرفته که هر شش ماه یا بیشتر به روز می شد، در گذشته دارای 5G، محاسبات لبه و دسترسی و حضور از راه دور بود.

قوانین کشور با هوش مصنوعی تنقیح شد

سه شنبه, ۱۲ ارديبهشت ۱۴۰۲، ۰۵:۲۹ ب.ظ | ۰ نظر

رییس مرکز پژوهش های مجلس از راه اندازی فاز نخست سامانه هوشمند تنقیح قوانین در این مرکز خبر داد و گفت: این اقدام برای نخستین بار پس از ۶ دهه با راستی آزمایی ۹۹ درصدی صورت گرفته است.
به گزارش روابط عمومی مرکز پژوهش‌های مجلس شورای اسلامی، بابک نگاهداری در خصوص اهمیت تنقیح قوانین در کشور، گفت: برمبنای تاکیدات مقام معظم رهبری در خصوص امنیت قضایی و سیاست‌های کلی ابلاغی در خصوص نظام قانونگذاری در سال ۱۳۹۸ و تاکید قانون تدوین و تنقیح قوانین و مقررات مصوب ۱۳۸۹، مرکز پژوهش‌های مجلس با آسیب‌شناسی و بررسی خبرگانی در خصوص نظام قانونگذاری کشور، از سال ۱۴۰۰ به دستور ریاست محترم مجلس یازدهم، پروژه هوشمندسازی تنقیح قوانین و مقررات را به صورت دانش‌بنیان و با رویکرد امکان‌سنجی و بایسته‌سنجی این مهم در دستور کار خود قرار داد.

وی در خصوص روند تاریخی تنقیح قوانین و اهمیت این موضوع در کشور، توضیح داد: موضوع تنقیح قوانین از دهه ۴۰ شمسی به صورت رسمی توسط اداره حقوقی قوه قضاییه و سپس در دهه ۵۰ در سازمان تنقیح قوانین و مقررات کشور و پس از انقلاب نیز در معاونت حقوقی ریاست جمهوری و معاونت قوانین مجلس از سال ۱۳۸۹ در نظام حقوقی کشور مطرح و مورد توجه قرار گرفت که در مسیر کار چالش‌هایی اساسی در این زمینه به وجود آمد که مرکز پژوهش‌های مجلس را نسبت به تعریف پروژه‌ای در این زمینه مصمم‌تر کرد.

رییس مرکز پژوهش‌های مجلس درخصوص آغاز روند کار تنقیح قوانین در مرکز پژوهش‌های مجلس، یادآور شد: مرکز پژوهش‌های مجلس در گام نخست ضمن بررسی و تحلیل تمامی مطالعات داخلی صورت گرفته و مطالعات خبرگانی در این خصوص که به صورت مجزا در قالب ۴ جلد کتاب در حال انتشار است، هدف‌گذاری خود را بر ارائه الگوی نوینی در مسیر تنقیح قوانین و مقررات قرار داد.

نگاهداری در خصوص الگوی مرکز پژوهش‌های مجلس در امر تنقیح قوانین، خاطرنشان کرد: با توجه به تعداد زیاد و تراکم قوانین و مقررات در کشور، فصل نوین این مرکز در تنقیح قوانین، استفاده از هوش مصنوعی به عنوان دستیار یا جایگزین هوش انسانی  بوده است که این امر صرفه‌جویی قابل توجهی در نیروی انسانی و کارشناسی به همراه داشته است.

وی در تشریح مشکلات سامانه‌های مختلف قوانین کشور، گفت: در حال حاضر سامانه‌های مختلف کشور به صورت کاملا دستی فرایند ورود اطلاعات و در نهایت تنقیح را طی می‌نمایند که در نتیجه باعث اتلاف بسیار زیاد نیروی انسانی و بروز نقص اطلاعاتی به علت حجم زیاد قوانین و مقررات شده است، همچنین مشکلات متعددی چون عدم بهره‌گیری از تکنیک‌های هوشمند در کلیه مراحل ورود اطلاعات و افزایش قابلیت‌ها، نبود رویه واحد در کدگذاری، عدم جامعیت موضوعات حقوقی، غیرتعاملی بودن با کاربران و مخاطبین، عدم شمول فرآیند تصویب طرح‌ها و لوایح، عدم شمول نسخ ضمنی و عدم شمول قوانین جامع، وجود دارد.

نگاهداری در خصوص روند انجام تنقیح قوانین با استفاده از هوش مصنوعی، عنوان کرد: این موضوع در طول سال ۱۴۰۱ توسط یک تیم پژوهشی متشکل از متخصصین حقوقی سامانه‌های قوانین و مقررات و هوش مصنوعی به نحوی برنامه‌ریزی شد که ضمن تدوین نظری و بومی الگوی هوش مصنوعی در نظام تنقیح و قوانین بتواند در قالب محصول آموزشی و پژوهشی به عنوان کتاب بایسته‌ها و لوازم استفاده از هوش مصنوعی در نظام تنقیح قوانین و مقررات را طراحی کند که این کتاب به زودی چاپ و در اختیار جامعه علمی کشور قرار خواهد گرفت.

وی ادامه داد: مرکز پژوهش‌های مجلس از سال ۱۴۰۱ افق اجرای الگوهای استخراج شده را در قالب سامانه هوشمند مدنظر قرار داده است و با ایجاد سامانه‌ای، تنقیح قوانین و مقررات را به صورت هوشمند طراحی کرده است.

رییس مرکز پژوهش‌های مجلس یکی از شاخصه‌های این سامانه را استفاده از نظرات خبرگان و مردم در خصوص طرح‌ها و لوایح برشمرد و تصریح کرد: در فاز نخست این پروژه مبتنی‌بر بانک داده‌ قوانین و مقررات مرکز پژوهش‌های مجلس با وجود چالش‌ها، نواقص و مشکلات متعدد، الگوی استخراج شده در امر تنقیح قوانین و مقررات به صورت آزمایشی اجرا و خروجی‌های آن مورد ارزیابی قرار گرفته است.

نگاهداری خاطرنشان کرد: از جمله خروجی‌های مهم فاز نخست می‌توان به استخراج تمامی نسخ‌های صریح در قوانین، استخراج تمامی موارد با انقضای زمان، استخراج موارد نسخ ضمنی، ۳ کد از عناوین قوانین جامع شامل کدهای ثبت، ‌تجارت و مبارزه با مفاسد با ضریب تطبیق استخراج شده با موارد دستی به صورت مناسب اشاره کرد.

وی نخستین گام در تنقیح قوانین و مقررات را تدوین و جمع آوری آنها برشمرد و گفت: در فاز نخست این پروژه مبتنی بر بانک داده قوانین و مقررات مرکز پژوهش های مجلس شورای اسلامی،  به صورت فایل متنی در پایگاه آزمایشی داده، ذخیره و جمع‌آوری شده است. این سیستم بر اساس پردازش متن و جستجوی متون برنامه‌ریزی و طراحی شده است تا بتواند با بازیابی واژگان و تحلیل و ارتباط‌دهی آنها در ایجاد نمودار درختی آنها را انجام دهد.

وی ادامه داد: گام‌های بعدی هوشمندسازی سامانه تنقیح قوانین بخش‌هایی چون طراحی مدل کدگذاری هوشمند کلیه قوانین، ارائه مدل نسخ ضمنی برای همه کدها، طراحی سامانه جامع هوشمند و تعاملی قوانین، تطبیق هوشمند طرحها و لوایح با قوانین و طراحی مدل تنظیم هوشمند قوانین جامع، شامل می‌شود.

نگاهداری تاکید کرد: پس از حدود دو سال کار پژوهشی در زمینه تنقیح قوانین با هوش مصنوعی، خروجی کار بیانگر آن است که این مهم به صورت کارا و عملیاتی صورت پذیرفته است.

رییس مرکز پژوهش‌های مجلس با بیان اینکه فاز نخست تنقیح قوانین با ۹۹ درصد نتیجه درست همراه بوده است، گفت: خروجی های فاز نخست پروژه هوشمندسازی تنقیح قوانین که در آن ۱۷۰۴ قانون بر اساس بانک قوانین مرکز پژوهش‌های مجلس شورای اسلامی، ساختار بندی و کدگذاری شده است، نشان می‌دهد که ۲۸۰۱ مورد نسخ صریح کلی قوانین، ۱۶۲۵ مورد نسخ صریح جزیی قوانین، ۷۶ مورد قوانین آزمایشی، ۴۴۷ مورد قوانین موقت، ۱۹۱ مورد قوانین مدت منقضی اعلامی در قوانین تنقیحی و ۳۳ مورد قوانین تمدید شده هستند. همچنین آمار تنقیح ضمنی هوشمند نشان می‌دهد ۹۰ مورد با اجرا منتفی، ۳ مورد موضوع منتفی، ۱۳ مورد نسخ ضمنی تفاسیر، ۶۸ مورد نسخ ضمنی آیین‌نامه اجرایی، ۷۰ مورد نسخ ضمنی قوانین فرعی با قاعده نسخ صریح قانون اصلی و ۱۸ مورد نسخ ضمنی تایید شده سه کد آزمایشی، را نشان می‌دهد.

وی ادامه داد: نکته مهم دیگر این است که رسیدن به مدل بومی و مناسب در نظام حقوقی ایران در این زمینه تا پیش از این در مجامع علمی، مورد توجه نبوده است و اکنون می‌توان گفت خروجی‌های چندگانه این پروژه در قالب‌ کتاب‌هایی به زودی منتشر خواهد شد و این مهم می‌تواند نخستین گام‌ها در مسیر پیش روی نظام حقوقی ایران باشد.

رییس مرکز پژوهش‌های مجلس در پایان، خاطرنشان کرد: سامانه طراحی شده تنقیح قوانین و مقررات کشور با استفاده از هوش مصنوعی در سال ۱۴۰۲ تکمیل خواهد شد و امیدواریم تا این دستاورد بتواند در زمینه حکمرانی مشارکتی در قانونگذاری و افزایش سرعت و دقت در امر قوانین و مقررات و کدگذاری هوشمند در این زمینه موثر باشد.

پشیمانی پدرخوانده هوش مصنوعی از کرده‌اش

دوشنبه, ۱۱ ارديبهشت ۱۴۰۲، ۰۴:۳۷ ب.ظ | ۰ نظر

جفری هینتون از تلاش‌هایی که در زمینه توسعه هوش مصنوعی انجام داده است، اظهار پشیمانی کرد.
به گزارش آنا، «جفری هینتون» که به پدرخوانده هوش مصنوعی معروف است، در مصاحبه جدیدی می‌گوید در بخشی از وجود خود به خاطر کار‌هایی که انجام داده است، احساس پشیمانی می‌کند. او به‌تازگی از گوگل خارج شده است تا بتواند بی‌واهمه درباره ریسک‌های هوش مصنوعی صحبت کند.

هینتون که بیش از یک دهه در گوگل کار می‌کرد، درباره تلاش‌های گذشته خود می‌گوید: «به خودم با این بهانه رایج دلداری می‌دهم که اگر من این کار را نمی‌کردم، شخص دیگری آن را انجام می‌داد. به‌سختی می‌توان فهمید که چگونه می‌شود جلوی افراد خرابکار را گرفت تا از این فناوری برای کار‌های مخرب استفاده نکنند.»

هینتون در ماه گذشته میلادی از گوگل استعفا داد و پنج‌شنبه هفته پیش گفت‌وگوی مستقیمی با «ساندار پیچای» مدیرعامل این شرکت داشت. جزئیات این گفتگو محرمانه باقی مانده است. هینتون زمانی به گوگل پیوست که این غول دنیای فناوری شرکت او و دو دانشجویش را خرید. یکی از این دانشجویان حالا به دانشمندان ارشد OpenAI تبدیل شده است.

هینتون و دانشجویانش یک شبکه عصبی ساختند که به خودش یاد می‌داد چگونه پس از تحلیل هزاران تصویر باید اشیایی مثل سگ‌ها، گربه‌ها و گل‌ها را شناسایی کند. همین شبکه درنهایت منجر به ساخت ابزار‌هایی مثل ChatGPT و بارد گوگل شد.

پدرخوانده هوش مصنوعی می‌گوید تا زمانی که مایکروسافت بینگ جدید را با هوش مصنوعی معرفی کرد، از شیوه برخورد گوگل با این فناوری راضی بود. اما با این اقدام، گوگل هم وارد وضعیت قرمز شد تا پاسخی به رقیب خود بدهد. هینتون می‌گوید چنین رقابت شدیدی بین غول‌های فناوری می‌تواند توقف‌ناپذیر باشد و جهانی را به‌وجود بیاورد که پر از تصاویر و نوشته‌های جعلی خواهد بود و هیچ‌کس دیگر نمی‌تواند واقعیت را تشخیص دهد.

بزرگ‌ترین نگرانی حال حاضر برای هینتون مسئله اطلاعات گمراه‌کننده است. اما در بلندمدت او از بابت حذف شغل‌های تکراری و احتمالاً نابودی بشریت هم نگران است. انقراض بشریت که او قبلاً هم احتمال آن را مطرح کرده بود، زمانی اتفاق خواهد افتاد که هوش مصنوعی بتواند خودش کد برنامه‌هایش را بنویسد و اجرا کند.

هینتون می‌گوید خیلی‌ها ازجمله خود او تصور می‌کردند که هوش مصنوعی تا حدود ۳۰ تا ۵۰ سال دیگر از انسان‌ها باهوش‌تر نخواهد شد، اما او حالا دیگر چنین اعتقادی ندارد.

«ChatGPT» از پزشکان بهتر است

يكشنبه, ۱۰ ارديبهشت ۱۴۰۲، ۰۳:۳۲ ب.ظ | ۰ نظر

بررسی جدید پژوهشگران آمریکایی نشان داد که متخصصان مراقبت‌های بهداشتی در ۷۹ درصد مواقع، پاسخ‌های «ChatGPT» به پرسش‌های بیماران را به پاسخ‌های پزشکان ترجیح می‌دهند.
به گزارش ایسنا و به نقل از نوروساینس نیوز، پژوهشگران «دانشگاه کالیفرنیا سن‌دیگو»(UCSD)، پاسخ‌های کتبی پزشکان و چت‌بات «ChatGPT» را با پرسش‌های واقعی مقایسه کردند و دریافتند که گروهی از متخصصان مراقبت‌های بهداشتی دارای مجوز، پاسخ‌های ChatGPT را در ۷۹ درصد مواقع ترجیح می‌دهند و آنها را با کیفیت‌تر و همدلانه‌تر می‌دانند.

اگرچه دستیارهای هوش مصنوعی مانند ChatGPT جایگزین پزشکان نمی‌شوند اما این پژوهش نشان می‌دهد پزشکانی که با چنین فناوری‌هایی کار می‌کنند، ممکن است پزشکی را متحول سازند.

این پژوهش که به سرپرستی دکتر «جان آیرز»(John Ayers)، پژوهشگر «موسسه کوالکام»(Qualcomm Institute) در دانشگاه کالیفرنیا سن‌دیگو انجام شده است، نگاهی اجمالی را به نقش دستیاران هوش مصنوعی در پزشکی ارائه می‌دهد.

آیرز که معاون نوآوری در بخش بیماری‌های عفونی و بهداشت عمومی جهانی دانشکده پزشکی دانشگاه کالیفرنیا سن‌دیگو است، گفت: فرصت‌ برای بهبود مراقبت‌های بهداشتی با هوش مصنوعی، بسیار زیاد است. مراقبت تقویت‌شده با هوش مصنوعی، آینده پزشکی است.

آیا ChatGPT برای مراقبت بهداشتی آماده است؟

پژوهشگران تصمیم گرفتند در پژوهش جدید خود، به این پرسش پاسخ دهند که آیا ChatGPT می‌تواند به سوالاتی که بیماران برای پزشکان خود می‌فرستند، به دقت پاسخ دهد یا خیر. اگر پاسخ مثبت باشد، پس مدل‌های هوش مصنوعی را می‌توان در سیستم‌های سلامت ادغام کرد تا پاسخ‌های پزشک به پرسش‌های ارسالی بیماران را بهبود ببخشند و بار روزافزون پزشکان را کاهش دهند.

دکتر «دیوی اسمیت»(Davey Smith)، یکی از مدیران «موسسه پژوهش‌های بالینی آلتمن»(ACTRI) و استاد دانشکده پزشکی دانشگاه کالیفرنیا سن‌دیگو گفت: ChatGPT ممکن است بتواند در امتحان مجوز پزشکی موفق شود اما پاسخ‌گویی مستقیم به پرسش‌های بیمار همراه با دقت و همدلی، یک وضعیت متفاوت است.

دکتر «اریک لیز»(Eric Leas)، دانشیار مؤسسه کوالکام گفت: همه‌گیری کووید-۱۹، پذیرش مراقبت‌های بهداشتی مجازی را سرعت داد. اگرچه این امر، دسترسی به مراقبت را برای بیماران آسان‌تر می‌کند اما پزشکان زیر بار رگبار پیام‌های الکترونیکی بیماران قرار می‌گیرند که به دنبال مشاوره پزشکی هستند. این فشار کاری، رکورد سطح فرسودگی شغلی پزشکان را شکسته است.

برای به دست آوردن نمونه بزرگ و متنوعی از پرسش‌های مربوط به مراقبت‌های بهداشتی و پاسخ‌های پزشک که حاوی اطلاعات شخصی قابل شناسایی نبود، پژوهشگران به رسانه‌های اجتماعی روی آوردند که در آنها میلیون‌ها بیمار به طور عمومی پرسش‌های پزشکی را ارسال می‌کنند تا پزشکان به آنها پاسخ دهند. یکی از این رسانه‌ها، «اسک‌داکس»(AskDocs) شرکت «ردیت»(Reddit) است.

اسک‌داکس تقریبا ۴۵۲ هزار عضو دارد که پرسش‌های پزشکی خود را می‌فرستند و متخصصان تأییدشده مراقبت بهداشتی به آنها پاسخ‌ می‌دهند. اگرچه هر کسی می‌تواند به پرسش‌ها پاسخ دهد اما ناظران، اعتبار متخصصان مراقبت‌های بهداشتی را تأیید می‌کنند و پاسخ‌ها، سطح اعتبار پاسخ‌دهنده را نشان می‌دهند. نتیجه این روند، مجموعه گسترده و متنوعی از پرسش‌های پزشکی بیمار و پاسخ‌های ارائه‌ شده توسط متخصصان پزشکی مجاز است.

از آنجا که برخی از افراد ممکن است بپرسند آیا تبادل پرسش و پاسخ در رسانه‌های اجتماعی یک آزمون منصفانه است، اعضای گروه پژوهشی خاطرنشان کردند که این تبادلات، بازتابی از تجربه بالینی آنها به شمار می‌رود.

آنها به طور تصادفی، ۱۹۵ نمونه از گفت‌وگوهای اسک‌داکس را مورد بررسی قرار دادند که در آنها یک پزشک تاییدشده، به یک پرسش عمومی پاسخ داده بود. پژوهشگران، پرسش اصلی را در اختیار ChatGPT قرار دادند و از آن خواستند تا پاسخی را بنویسد.

گروهی متشکل از سه متخصص دارای مجوز مراقبت‌های بهداشتی، پرسش‌ها و پاسخ‌های مربوطه را ارزیابی کردند و متوجه نشدند که پاسخ از سوی یک پزشک ارائه شده یا ChatGPT پاسخ داده است. آنها پاسخ‌ها را براساس کیفیت اطلاعات و میزان همدلی مقایسه کردند و گفتند که کدام را ترجیح می‌دهند.

مشخص شد که گروه حرفه‌ای ارزیابی در ۷۹ درصد مواقع، پاسخ‌های ChatGPT را به پاسخ‌های پزشک ترجیح داده‌اند.

«جسیکا کلی»(Jessica Kelley)، پرستار شاغل در شرکت «Human Longevity» و از پژوهشگران این پروژه گفت: پیام‌های ChatGPT با اطلاعات دقیقی همراه بودند که نسبت به پاسخ‌های پزشک، جنبه‌های بیشتری از پرسش‌های بیمار را در بر داشت.

دکتر «آرون گودمن»(Aaron Goodman)، دانشیار بالینی دانشکده پزشکی دانشگاه کالیفرنیا سن‌دیگو و از پژوهشگران این پروژه گفت: هرگز تصور نمی‌کردم این را بگویم اما ChatGPT نسخه‌ای است که می‌خواهم به صندوق ورودی خود بدهم. این فناوری، نحوه حمایت از بیماران را تغییر خواهد داد.

این پژوهش، در مجله «JAMA Internal Medicine» به چاپ رسید.

با هوش مصنوعی می‌توانیم اجتهاد کنیم

جمعه, ۸ ارديبهشت ۱۴۰۲، ۰۴:۳۸ ب.ظ | ۰ نظر

رجبی عضو جامعه مدرسین حوزه علمیه قم گفت: زمینه‌های به وجود آمده پس از انقلاب اسلامی برای آشنایی طلاب با فناوری آی تی، افق کاربست هوش مصنوعی را امیدوار کننده و چشم انداز آن را نوید بخش کرده است؛ در گذشته این مسئله در حوزه علمیه کاملا مغفول بود، اما اکنون برخی از طلاب با هوش مصنوعی آشنایی مقدماتی پیدا کرده و مؤسسات مختلفی نیز در این زمینه فعالیت دارند.
عضو شورای عالی حوزه‌های علمیه گفت: اگر نسبت به دین و دفاع از ارزش‌های دینی، اسلامی و انسانی دغدغه داریم باید نسبت به علوم روز بویژه هوش مصنوعی مجهز و پیشران باشیم.

به گزارش خبرگزاری حوزه؛ آیت الله محمود رجبی رئیس مؤسسه آموزشی و پژوهشی امام خمینی (ره) شامگاه چهارشنبه در نشست هم‌اندیشی گفتمان علمی مطالعات بنیادین حوزه هوش مصنوعی که در سالن اندیشه این مؤسسه برگزار شد در سخنانی اظهار کرد: امروز فناوری‌های نوین به ویژه هوش مصنوعی به پیشرفت علوم شتاب داده و در کشور ما نیز به برکت انقلاب اسلامی این امر تحقق یافته است.

عضو جامعه مدرسین حوزه علمیه قم ادامه داد: زمینه‌های به وجود آمده پس از انقلاب اسلامی برای آشنایی طلاب با فناوری آی تی، افق کاربست هوش مصنوعی را امیدوار کننده و چشم انداز آن را نوید بخش کرده است؛ در گذشته این مسئله در حوزه علمیه کاملا مغفول بود، اما اکنون برخی از طلاب با هوش مصنوعی آشنایی مقدماتی پیدا کرده و مؤسسات مختلفی نیز در این زمینه فعالیت دارند.

وی افزود: در مراکز آموزشی واحد‌هایی برای آشنایی با این فناوری در نظر گرفته شده است و درک ثمرات آن برای بسیاری از حوزویان ملموس شده؛ با این حال هنوز با فضای عظیم این عرصه آشنایی کامل صورت نگرفته است. دغدغه بهره گیری از آی تی به عنوان یک نیاز و ضرورت در بخشی از بدنه حوزه نشان می‌دهد که زمینه برای وقوع جهش در این عرصه وجود دارد؛ البته از نظر سرمایه گذاری، مدیریت و برنامه ریزی نیاز به تلاش بیشتری وجود دارد.

استاد حوزه علمیه خاطرنشان کرد: بیست سال پیش، مؤسسه امام خمینی (ره) نشریه‌ای را در این باره منتشر کرد؛ البته هنوز فعالیت برنامه ریزی شده خاص در گروه‌های علمی مؤسسه در خصوص هوش مصنوعی با ظرفیت‌های امروزین آن صورت نگرفته، اما جسته و گریخته تحقیقاتی انجام شده که از جمله آن‌ها مقالاتی با عناوین؛ «ادراک بصری در هوش مصنوعی و فلسفه ذهن»، «مبانی معرفت شناختی و ذهن و هوش مصنوعی»، «متن کاوی موضوعی رایانه‌ای قرآن کریم برای کشف ارتباطات معنایی میان آیات بر مبنای تفسیر موضوعی» و «بررسی توان رقابت هوش مصنوعی با ذهن انسان از منظر قرآن کریم» است.

عضو شورای عالی حوزه‌های علمیه بیان کرد: البته در مؤسسه امام خمینی (ره) معاونت فناوری اطلاعات فعال است و پروژه‌های مختلفی را اجرا کرده و در دست اجرا دارد که مورد بهره‌برداری اساتید، محققان و دانش‌پژوهان و نیز بخش‌های مختلف اداری مؤسسه است؛ در مرکز دایرة‌المعارف نیز پروژه‌های ارزشمندی اجرا شده است که در انجام سرعت و دقت تحقیقات محققان آن مرکز تأثیر قابل توجه دارد.

وی با تقدیر از تلاش‌های آیت الله اعرافی مدیرحوزه‌های علمیه اظهارکرد: سال‌های متمادی است که با آیت‌الله اعرافی همکاری داشته‌ام؛ وی شخصی خوش‌فکر، خلاق، آینده‌نگر و مدیری توانمند است که اقدامات بزرگی را در کارنامه دارد؛ با توانمند‌هایی که در مدیریت حوزه دیده می‌شود، انتظار می‌رود کار‌های شایسته‌ای صورت بگیرد و حوزه در طول زمان، نه تنها سطح ضروری این فناوری را طی کند بلکه به سوی سطح مطلوب گام‌های ارزشمندی بردارد و در کاربست هوش مصنوعی و فناوری آی تی افق چشم‌انداز مطلوب و امیدوار کننده خواهد داشت البته اگر امکانات بیشتری فراهم شود، حرکت بهتری انجام خواهد شد؛ شورای عالی هم که نهاد بالادستی مدیریت حوزه است حتما به آیت‌الله اعرافی در این زمینه کمک و بستر‌های لازم را فراهم خواهد کرد.

آیت الله رجبی تصریح کرد:استفاده از هوش مصنوعی به عنوان یک ابزار نوین برای فرآیند اجتهاد، تولید علوم اسلامی و نظریه‌پردازی مفید می‌دانم؛ در نظریه‌پردازی هوش مصنوعی می‌تواند خدمات بسیار خوبی داشته باشد. اگر فناوری آی تی در اختیار محققان قرار بگیرد از لحاظ جامعیت، سرعت و دقت بسیار می‌تواند کمک کند؛ و علاوه بر امکان پیشگیری از بسیاری از خطا‌ها و دستیابی آسان، سریع و دقیق به داده‌های فراوان علمی، محققان این صرفه‌جویی زمانی را می‌توانند به تأملات علمی اختصاص دهند.

وی تأکید کرد: هوش مصنوعی کمک عظیمی به سایر کار ویژه‌های روحانیت می‌کند؛ از جمله در تبلیغ و برای فعالیت‌های فرهنگی بسیار پیش برنده، سرعت بخش و سامان دهنده است. جهان دائما در حال تحول است و این تحولات در جامعه ما و جهان اسلام اثر خودش را دارد؛ اگر حوزه علمیه نتواند پاسخگوی نیاز‌های نوظهور نظام و جوامع اسلامی باشد، از قافله تحولات عقب می‌ماند و به حاشیه رانده می‌شود.

عضوشورای عالی حوزه‌های علمیه افزود: جهت گیری نظام اسلامی به سمت تمدن نوین اسلامی و اداره جهان است؛ این کار بدون استفاده ابراز‌های نوین ممکن نیست از طرفی مطالبات از دانشمندان اسلامی هر روز، رو به افزایش است و از طرف دیگر نفوذ اسلام گسترده‌تر شده است و دشمنان هم تهاجم مضاعف خود را دارند؛ باید ابزار‌هایی داشته باشیم که پاسخگوی این حجم و این سطح از نیاز‌ها باشد.

رئیس مؤسسه آموزشی و پژوهشی امام خمینی (ره) بیان کرد: استکبار جهانی در عرصه فرهنگی یک جنگ تمام عیار را علیه مبانی و ارزش‌های اسلام و نظام اسلامی به راه انداخته است؛ آن‌ها از تمام ظرفیت فناوری‌های نوین در بالاترین سطح استفاده می‌کنند و ما نیز برای پیروزی باید مسلح به سلاح‌های نوین شویم.

 

  • هوش مصنوعی و مخاطرات

وی تصریح کرد: اگر انبوهی از اطلاعات در اختیار محقق قرار گیرد؛ انبوه خوانی بدون تعمق و تأمل از مخاطرات استفاده از فناوری آی تی و هوش مصنوعی خواهد بود؛ محقق نباید به داده‌های فروان به دست آمده از طریق فناوری اطلاعات اکتفا کرده و خیال کند که نیاز چندانی به تأملات عمیق ندارد؛ باید توجه داشت که فناوری، تنها زمینه را فراهم می‌کند و قدرت استنباط، نظریه‌پردازی و تجزیه و تحلیل که حرف اول را می‌زند، چیزی جدای از آن است.

آیت الله رجبی گفت: انحراف از مسیر و اهداف از دیگر مخاطرات این مسیر است؛ همه فعالیت‌های حوزوی برای تقرب به خداوند متعال صورت می‌گیرد و مخاطره غفلت از هدف، همواره و در همه حال مطرح است، ولی توانمندی‌های هوش مصنوعی می‌تواند یکی از معدات آن باشد و زمینه غفلت از هدف را فراهم کند.

عضوجامعه مدرسین حوزه افزود: در منابع اسلامی (آیات و روایات) که سر و کار روحانیون و از جمله محققان و مجتهدان با آن است، معرفت با اخلاق و معنویت عجین شده است؛ وقتی فناوری نوین تنها معلومات علمی را در اختیار محقق قرار می‌دهد، ممکن است از بعد معنوی غفلت شود که خطر جدی است و باید در خصوص آن چاره اندیشی شود. فعلا مدیریت فناوری‌های نوین و فضای مجازی در اختیار ما نیست و نمی‌توان فناوری‌های نوین را ایزوله کرد؛ از سوی دیگر دشمنان اسلام نیز توطئه‌های خودشان را با استفاده حداکثری از همین امکانات محقق می‌سازند که باید برنامه‌های لازم برای کنترل درونی محققان در نظر گرفته شود.

وی خواستار توجه و سرمایه گذاری نظام در خصوص توسعه و پیشرفت مطابق با موازین اخلاقی هوش مصنوعی شد.

مزایا و معایب هوش مصنوعی در حکمرانی و سرنوشت بشر

چهارشنبه, ۶ ارديبهشت ۱۴۰۲، ۰۴:۴۲ ب.ظ | ۰ نظر

حجت الاسلام دهداری به تشریح مسئله «هوش مصنوعی، مزایا و معایب در حکمرانی و سرنوشت بشر»، گفت: در آینده با مدلی روبرو می‌شویم که زندگی ما را تحت تاثیر قرار می‌دهد.
به گزارش رسا، حجت الاسلام هادی دهداری در نشست «هوش مصنوعی، مزایا و معایب در حکمرانی و سرنوشت بشر» از سلسله نشست‌های الگوی اسلامی ایرانی پیشرفت، با بیان اینکه هوش مصنوعی هنر آینده است که به وسیله آن می‌توان حکمرانی کرد، گفت: هوش مصنوعی از ۲۰۰ سال پیش و زمان «آمپر» مطرح شد. آمپر بعد از انقلاب صنعتی به دنبال این بود که راهی پیدا کند تا کار انسان راحت‌تر شود.

حجت الاسلام دهداری خاطرنشان کرد: در این میان فعل و انفعالات انسان بررسی شد به گونه‌ای که بتوان از ابزاری استفاده کرد تا به جای انسان این فعل و انفعالات را انجام داد. دوربین عکاسی در این میان نقش داشت و چند دهه بعد ابزاری مانند کامپیوتر شکل گرفت.

وی در ادامه افزود: شروع کار کامپیوتر با ترانزیستوری در مقیاس یک چراغ بود، در حالی که با پیشرفت‌های امروزه این تجهیزات بسیار، بسیار ریزتر شده است. در ابتدا انسان به دنبال این بود که با ابزاری خاص، جمع و تفریق انجام دهد، تلاش کرد و در ایجاد این ابزار موفق شد و رفته رفته در این مسیر دست به اقدامات بیشتری زد.

این پژوهشگر و برنامه نویس اظهار کرد: امروز انسان ابزارهایی برای تخیل کردن و ساخت تصاویر و... ایجاد کرده است. امروز با وجود ایجاد هوش مصنوعی، کامپیوتر می‌تواند ساعت‌ها با انسان صحبت کند و فرد متوجه این موضوع نشود. این سیر تحولی است که از زمان ساخت کامپیوتر ایجاد شده و امروز این ابزار محاسباتی هوشمندسازی شده، به درجه‌ بالایی از قدرت رسیده است که قابل مقایسه با گذشته نیست.

وی ادامه داد: شاید تا بیست سال آینده با کامپیوترهایی مواجه شویم که میلیاردها برابر بیشتر از کامپیوترهای امروزی از توانایی برخوردار هستند. این توانایی فقط در تحلیل داده نیست و بلکه در ذخیره اطلاعات نیز وجود دارد. همان طور که تا همین چند سال پیش فلاپی و پس از آن سی دی محل ذخیره اطلاعات بود اما امروز فلش‌های بسیار کوچک، حجم زیادی از اطلاعات را در خود ذخیره می‌کنند و این سیر تحولی به سرعت ادامه خواهد داشت.

حجت الاسلام دهداری تصریح کرد: امروز نرم افزارها و برنامه‌ نویسی‌ها به راحتی در دسترس هستند در حالی که در گذشته چنین نبود. این ابزار، امروز سهل الوصول شده است به گونه‌ای که برنامه‌ نویسی‌های قدرتمند سبب ایجاد ابزاری به نام جی پی تی شده است. چت جی پی تی یک تحلیل‌گر زبان است که کار خود را در سطح‌های پیچیده‌ای از نظر مفهومی در کسری از ثانیه انجام می‌دهد.

وی با بیان اینکه در هوش مصنوعی جدید، درک زبانی و درک معنایی بالا رفته است، گفت: در گذشته داده‌های کمی موجود بود اما امروز داده‌های کل وب که تاکنون به دست بشر بارگذاری شده می‌تواند در اختیار هوش مصنوعی قرار بگیرد و این می‌تواند به بهتر تحلیل کردن توسط آن کمک کند.

این پژوهشگر حوزه فناوری و هوش مصنوعی اظهار کرد: هوش مصنوعی وقتی با سوالی روبرو می‌شود به بانک اطلاعاتی خود مراجعه می‌کند و سرنخ را به دست می‌آورد و این جستجو همراه با فهم و درک کلمات و معنا رخ می‌دهد.

وی با بیان اینکه هوش مصنوعی محدود به چت جی پی تی نیست، خاطرنشان کرد: امروز با نوعی از هوش مصنوعی روبرو هستیم که با ما می‌تواند صحبت کند. در این میان می‌توان به اینترنت اشیا نیز اشاره کرد. در این میان ارتباط اشیا با هم به وسیله اینترنت صورت می‌گیرد و نتیجه آن تحلیل است. در اینجا انسان کنار گذاشته می‌شود و فرآیندها توسط اشیا صورت می‌گیرد. در واقع با هوش مصنوعی کنترل زندگی ما در اختیار نرم افزارها قرار می‌گیرد. این هوش در بسیاری از کارها مانند تشخیص بیماری به انسان کمک می‌کند.

حجت الاسلام دهداری تصریح کرد: ربات‌هایی که وارد زندگی ما می‌شوند بیشتر از یک وسیله هستند و پشت آن‌ها یک هوش مصنوعی قرار دارد. شاید در کشور خود کمتر با آن روبرو بوده‌ایم اما در آینده تکنولوژی در این زمینه بیش از این پیشرفت می‌کند و با اتفاقات خاصی در این زمینه روبرو می‌شویم.

وی با اشاره به مزایای هوش مصنوعی افزود: مزیت هوش مصنوعی این است که می‌تواند کارها را برای انسان ساده کند. هوش مصنوعی دستیار بسیار خوبی برای انسان است، به عنوان مثال می‌تواند یک دستیار قدرتمند برای یک برنامه‌نویس باشد.

این پژوهشگر و برنامه نویس گفت: نخستین عیبی که هوش مصنوعی دارد این است که شاید به علت کمبود داده‌ها، جواب‌های اشتباه به ما بدهد و این سبب گمراهی ما می‌شود. هوش مصنوعی می‌گوید که ما با همه رفیق هستیم، اما مبتنی بر اطلاعاتی که در کتابخانه‌اش موجود است به ما پاسخ می‌دهد. به عنوان مثال اگر سوال فقهی از او بپرسیم او پاسخ‌های اهل سنت به ما می‌دهد زیرا بیشترین اطلاعاتی که در کتابخانه‌اش موجود است اطلاعات اهل سنت است، بنابراین اطلاعاتی فیلتر شده به ما ارائه می‌کند و ما کنترلی روی آن نداریم.

وی با بیان اینکه با هوش مصنوعی مرجع‌های انسانی از بین می‌روند و قدرت فکر کردن از جامعه بشری گرفته می‌شود، گفت: اگر در زمان استفاده از اینستاگرام، داده‌های ورودی به ذهن انسان کنترل می‌شد حالا با هوش مصنوعی، اجازه فکر کردن از انسان گرفته می‌شود و این مصیبت، نظام آموزشی ما را دچار مشکل می‌کند.

حجت الاسلام دهداری تصریح کرد: بشر با ترسی به نام فقدان مواجه هست. اکنون با سوالاتی مواجهه می‌شویم در اخبار مبنی بر اینکه آیا هوش مصنوعی جای انسان را می‌گیرد؟ و گفته‌هایی از این قرار که زندگی انسان تحت اسارت هوش مصنوعی قرار خواهد گرفت. در واقع باید بگوییم دنیای امروز دنیای دولت‌ها نیست بلکه دنیای شرکت‌هاست بنابراین نمی‌توان با این روند مبارزه کرد.

وی ادامه داد: امروز با شرکت‌ها و کارخانه‌هایی مواجه هستیم که درآمدهایی بالاتر از کل بودجه کشور ما دارند. این شرکت‌ها در زندگی انسان دخالت کرده و سعی می‌کنند منافع خود را به زندگی ما تسری بدهند.

پژوهشگر حوزه فناوری و هوش مصنوعی عنوان کرد: ما در آینده با مدلی از هوش مصنوعی روبرو می‌شویم که زندگی ما را تحت تاثیر قرار می‌دهد. در گذشته اینستاگرام فکر ما را مدیریت می‌کرد اما امروز با شرکت‌های بزرگی روبرو می‌شویم که همه زندگی انسان را با هوش مصنوعی پیوند می‌دهند. این موضوع دست شرکت‌ها را در بحث حاکمیت باز می‌کند.

وی اضافه کرد: به عنوان مثال قانون‌هایی را قانون‌گذاران دنبال می‌کنند که شرکت‌هایی مانند همراه اول اجازه عملی شدن آن را نمی‌دهند مانند طرح صیانت از فضای مجازی. زیرا از نظر تکنیکی ما به آن‌ها وابسته هستیم و حمایت پشت صحنه نیز اجازه نمی‌دهد که در حکمرانی روند گذشته دنبال شود.

حجت الاسلام دهداری اظهار کرد: در دنیایی که کنترل زندگی بشر در دست هوش مصنوعی قرار می‌گیرد باید قدرت فکر کردن را حفظ کنیم و در این خصوص سرمایه گذاری کنیم. نباید اجازه بدهیم که صاحبان هوش مصنوعی کنترل زندگی ما را در اختیار بگیرند، در واقع باید با ترس خود به این مسئله بها بدهیم.

وی در ادامه افزود: شرکت‌های دانش بنیان باید حمایت جدی شوند تا مباحث علوم انسانی و فلسفی مرتبط با هوش مصنوعی مدیریت گردد، یعنی شرایط به گونه‌ای رقم بخورد که داده‌های هوش مصنوعی طبق آنچه که سازندگان آن می‌خواهند در اختیار ما قرار نگیرد و ما نیز در این میان با علوم و داده‌های خود تاثیرگذار باشیم.

حجت الاسلام دهداری گفت: از هم اکنون باید دست به کار شد و از این فرصت بهره برد. باید خود وارد میدان این تکنولوژی شویم که تا چند سال آینده مجبور به بستن چنین فضایی نشویم. شرکت‌هایی که اینگونه فناوری‌های پیشرفته را ایجاد می‌کنند باید حمایت شوند تا درگیر شرکت‌هایی که به دنبال ایجاد سلطه بر دنیا هستند نشویم.

استفاده از هوش مصنوعی در بانک اسلامی ابوظبی

چهارشنبه, ۶ ارديبهشت ۱۴۰۲، ۰۳:۴۴ ب.ظ | ۰ نظر

بانک اسلامی ابوظبی، هوش مصنوعی را در مرکز فرماندهی «ACE» خود قرار می‌دهد.
به گزارش کارگروه فناوری اطلاعات سایبربان؛ به گفته کارشناسان، ادغام هوش مصنوعی به نقطه‌ای رسیده است که بانک‌ها شروع به استقرار فناوری هوش مصنوعی در مقیاسی کرده‌اند تا مرتبط باقی بمانند.

بانک اسلامی ابوظبی (ADIB) یکی از بانک‌هایی است که هوش مصنوعی را در راهبرد و عملیات اصلی خود مرکزی می‌کند و توانایی بانک را برای دستیابی به 4 نتیجه کلیدی بهبود می‌بخشد : سود بالاتر، شخصی‌سازی، کارایی و چرخه‌های نوآوری سریع.

مرکز فرماندهی هوش مصنوعی بانک اسلامی ابوظبی، معروف به «ACE»، فعالیت‌های بانک را پوشش و حداکثر 25 داشبورد را به طور همزمان برای نقش‌های خاص در سازمان نمایش می‌دهد. هنگامی که صحبت از کمک به مدیریت کلاهبرداری و امنیت سایبری می‌شود، این مرکز می‌تواند بانک را برای جلوگیری از حملات سایبری و واکنش سریع و مؤثر به هرگونه نقض احتمالی قدرت دهد.

محمد عبدالباری (Mohamed Abdel Bary)، مدیر مالی گروه بانک اسلامی ابوظبی، گفت : «مرکز فرماندهی در برخورد با مشتریان به روشی بسیار شخصی‌تر کمک می‌کند و به آنها انتخاب‌ها، ایده‌ها و بینش‌هایی می‌دهد تا درست تصمیم‌گیری کنند. به طور خاص، کلان داده، تجزیه و تحلیل پیش‌بینی‌کننده را ترکیب و این داده‌ها را به بینش‌ها و تجربیات بسیار شخصی برای مشتریان تبدیل می‌کند. نتیجه این است که بانک اسلامی ابوظبی می‎تواند با یک کمپین متمرکز بر نیازهای مشتری وارد بازار شود.»

علاوه بر این، کارشناسان اعلام کردند که بخش بانکداری در امارات متحده عربی در حال استفاده از اتوماسیون فرآیند رباتیک (RPA) در مقیاس بزرگ برای خودکارسازی وظایف است که به آن‌ها اجازه می‌دهد روی کارهای مهم و با ارزش بالاتر تمرکز و در عین حال جریان‌های فرآیند دستی سطح بالا را خودکار کنند.

بانک اسلامی ابوظبی60 اتوماسیون فرآیند روباتیک را با استفاده از هوش مصنوعی برای وظایف عملیاتی، دستیاران مجازی یا رابط‌های مکالمه برای کمک به بخش‌های خدمات مشتری، علاوه بر تکنیک‌های یادگیری ماشینی برای شناسایی تقلب و پشتیبانی از تعهدنامه و مدیریت ریسک، به کار گرفته است.

باری اظهار داشت : «پتانسیل ایجاد ارزش قابل توجه است. این ارزش از افزایش شخصی‌سازی خدمات به مشتریان، کاهش هزینه‌ها از طریق کارایی‌های تولید شده با اتوماسیون بالاتر، کاهش نرخ خطا و استفاده بهتر از منابع و کشف فرصت‌های جدید و قبلاً محقق نشده مبتنی بر توانایی بهبود یافته برای پردازش و تولید داده‌ها ناشی می‌شود.»

ناشران یک مجله آلمانی که مصاحبه با مایکل شوماخر که با هوش مصنوعی نوشته شده بود را چاپ کردند، سردبیر را اخراج و از خانواده این راننده مسابقات اتومبیلرانی «فرمول یک»عذرخواهی کردند.
به گزارش مهر به نقل از رویترز، شوماخر که تاکنون ۷ بار قهرمان مسابقات شده و اکنون ۵۴ ساله است، پس از یک جراحت شدید مغزی هنگام اسکی در دسامبر ۲۰۱۳ میلادی تاکنون در انظار عمومی دیده نشده است.

خانواده او هفته جاری اعلام کردند یک دعوی حقوقی علیه هفته نامه «دی آکتوئل» (Die Aktuelle) اقامه می کنند که به گروه رسانه Funke تعلق دارد.

این گروه رسانه ای در بیانیه در وب سایت خود عذرخواهی کرده است.

د بیانکا پوهلمان مدیرعامل نشریات گروه در بخشی از بیانیه نوشته است: این گزارش نامتناسب و گمراه کننده هرگز نباید چاپ می شد. گزارش مذکور به هیچ وجه با استانداردهای خبرنگاری که ما و خوانندگان مان از Funke انتظار داریم همخوانی ندارد. انتشار این مقاله عواقب فردی برای پرسنل در برخواهد داشت.

آن هافمن، سردبیر «دی آکتوئل» که از سال ۲۰۰۹ مسئولیت روزنامه نگاری این روزنامه را بر عهده داشت، از امروز از وظایف خود برکنار می شود.

در جدیدترین شماره این مجله تصویری خندان از شوماخر روی جلد همراه با تیتر «مایکل شوماخر، نخستین مصاحبه» دیده می شود.

داخل مجله اظهارنظرهایی دیده می شد که توسط هوش مصنوعی تولید شده بود. خانواده شوماخر درباره وضعیت سلامت این راننده سابق مسابقات فرمول یک بسیار محرمانه رفتار می کنند.

آمریکا گروه ویژه «هوش مصنوعی» ایجاد می‌کند

يكشنبه, ۳ ارديبهشت ۱۴۰۲، ۰۷:۴۱ ب.ظ | ۰ نظر

وزیر امنیت داخلی ایالات متحده از تشکیل یک گروه عملیاتی ویژه مرتبط با هوش مصنوعی خبر داد.

الخاندرو مایورکاس هدف از ایجاد این گروه را سنجیدن چگونگی استفاده از هوش مصنوعی برای انجام بسیاری از کارها، از حفاظت از زیرساخت‌های حیاتی گرفته تا غربالگری محموله‌ها و تشخیص دادن محصولاتی که از راه بیگاری ساخته‌ شده‌اند، عنوان کرد.

به گزارش خبرگزاری رویترز، در حالی که هوش مصنوعی پدیده جدیدی نیست، ولی محبوبیت ناگهانی «چَت‌جی‌پی‌تی» بات مکالمه‌ای‌ شرکت «اوپِن‌اِی‌آی» در ماه‌های اخیر، مقامات را در سراسر جهان به تکاپو انداخته تا ببینند چگونه می‌توانند از این فناوری به بهترین شکل ممکن استفاده و از انتشار اطلاعات نادرست و فعالیت‌های جنایی جلوگیری کنند.

مایورکاس گفت که این فناوری «چشم‌انداز خطر [برای امنیت ملی ما] را به شدت تغییر خواهد داد.»

او افزود: «وزارتخانه ما در استفاده مسئولانه از هوش مصنوعی برای مصون‌کردن سرزمین و دفاع در برابر استفاده بدخواهانه از این فناوری تحول‌آفرین پیشگام خواهد بود.»

مایورکاس گفت این گروه عملیاتی ویژه همچنین چگونگی استفاده از هوش مصنوعی برای بهبود و پیشرفت کارهایی مثل غربالگری محموله‌های وارداتی به آمریکا و تشخیص و یافتن کالاهای غیرقانونی مانند فنتانیل و یا محصولات ساخته از طریق کار اجباری را بررسی خواهد کرد.

از دیگر تلاش‌های این گروه، به گفته مایورکاس، استفاده از هوش مصنوعی برای ایمن‌کردن شبکه‌های برق و سیستم‌های تامین آب است که بیم آن می‌رود هر دوی آنها از اهداف بالقوه دشمنان آمریکا باشند.

وزیر امنیت داخلی آمریکا گفت: «روند سریع دگرگونی فناوری – دقیقا همین لحظه‌ای که الان در آن هستیم – مستلزم آن است که ما نیز همین امروز عمل کنیم.»

مایورکاس گفت که هوش مصنوعی هنوز «در شرف شکوفایی» است و هنوز زود است که بگوییم آیا مضرات آن به فوایدش می‌چربد [یا نه.]»

چند شرکت هوش مصنوعی که چند ماه قبل هنرمندان به دلیل نقض قانون حق معنوی آثار از آن‌ها شکایت کرده بودند از دادگاه خواستند این شکایت را رد کند.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز، شرکت‌های Stability AI، Midjourney و DeviantArt به گروهی از هنرمندان که آن‌ها را به نقض گسترده قوانین حق معنوی آثار و حقوق انتشار عمومی آن‌ها در سیستم‌های هوش مصنوعی مولد متهم کرده بودند، حمله کردند. 
این شرکت‌ها از دادگاه فدرال سانفرانسیسکو خواستند که شکایت دسته جمعی پیشنهادی هنرمندان را با این استدلال که تصاویر ایجاد شده توسط هوش مصنوعی مشابه آثار هنرمندان نیست، رد کند. این شکایت به تصاویر خاصی که گفته می‌شود مورد سوء استفاده قرار گرفته، اشاره نکرده است. 
چند هنرمند در ماه ژانویه از این شرکت‌ها شکایت کردند. این هنرمندان ادعا کردند که کپی غیرمجاز آثارشان برای آموزش سیستم‌ها و ایجاد تصاویر تولید شده توسط هوش مصنوعی به سبک آنها، حقوق شان را نقض می‌کند.

ادامه حملات ایلان ماسک: چت‌جی‌پی‌تی دروغگوست

چهارشنبه, ۳۰ فروردين ۱۴۰۲، ۰۴:۴۵ ب.ظ | ۰ نظر

ایلان ماسک می‌گوید که رقیبی را برای چت‌جی‌پی‌تی که توسط مایکروسافت پشتیبانی می‌شود راه اندازی خواهد کرد.
به گزارش فارس به نقل از رویترز، ایلان ماسک گفت که پلتفرم هوش مصنوعی را راه اندازی خواهد کرد که آن را «TruthGPT» می نامد تا پیشنهادات مایکروسافت و گوگل را به چالش بکشد.

او از شرکت اپن‌ای‌آی تحت حمایت مایکروسافت، شرکتی که پشت ربات‌های چت‌جی‌پی‌تی است، به دلیل آموزش هوش مصنوعی برای دروغ گفتن انتقاد کرد و گفت که اپن‌ای‌آی اکنون به سازمان منبع بسته و انتفاعی تبدیل شده است که متحد نزدیک مایکروسافت است.

او همچنین لری پیج، یکی از بنیانگذاران گوگل را متهم کرد که ایمنی هوش مصنوعی را جدی نمی گیرد.

ماسک در مصاحبه‌ای با تاکر کارلسون از کانال فاکس نیوز که روز دوشنبه پخش شد، گفت: «من قصد دارم چیزی را شروع کنم که آن را «TruthGPT» می‌نامم، یا یک هوش مصنوعی حداکثر جویای حقیقت که تلاش می‌کند ماهیت جهان را درک کند.

او گفت TruthGPT ممکن است بهترین راه برای ایمنی باشد که بعید است انسان ها را نابود کند.

افراد آشنا به رویترز به رویترز گفتند که ماسک از محققان هوش مصنوعی شرکت آلفابت گوگل برای راه اندازی استارت آپی به عنوان رقیب اپن‌ای‌آی استفاده کرده است.

طبق یک پرونده ایالتی، ماسک ماه گذشته شرکتی به نام X.AI Corp را در نوادا ثبت کرد. این شرکت ماسک را به عنوان تنها مدیر و جرد برچال، مدیر عامل دفتر خانواده ماسک را به عنوان منشی معرفی کرد.

این اقدام پس از آن صورت گرفت که ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعت با اشاره به خطرات بالقوه برای جامعه خواستار توقف شش ماهه در توسعه سیستم‌های قدرتمندتر از GPT-4 شدند.

ماسک همچنین در مصاحبه با کارلسون هشدارهای خود را در مورد هوش مصنوعی تکرار کرد و گفت: هوش مصنوعی فوق‌العاده هوشمند می‌تواند به‌طور باورنکردنی خوب بنویسد و به طور بالقوه افکار عمومی را دستکاری کند.

او آخر هفته در توییتی نوشت که در زمان ریاست جمهوری باراک اوباما، رئیس جمهوری سابق ایالات متحده با او ملاقات کرده و گفته که واشنگتن باید مقررات هوش مصنوعی را وضع کند.

ماسک در سال 2015 شرکت اپن‌ای‌آی را بنیانگذاری کرد، اما در سال 2018 از هیئت مدیره شرکت کنار رفت. در سال 2019، او در توییتی نوشت که این شرکت را ترک کرده زیرا باید روی تسلا و اسپیس ایکس تمرکز می کرد.

شرکت مایکروسافت در ژانویه، از سرمایه‌گذاری چند میلیارد دلاری بیشتری روی اپن‌ای‌آی خبر داد که رقابت با گوگل را تشدید کرد و به رقابت برای جذب بودجه هوش مصنوعی در سیلیکون ولی دامن زد.

توصیه‌های مهم هنگام کار با چت‌جی‌پی‌تی

چهارشنبه, ۳۰ فروردين ۱۴۰۲، ۰۴:۴۲ ب.ظ | ۰ نظر

چت‌جی‌پی‌تی اکنون کاربران بسیاری را در دنیا پیدا کرده و توجه به مسائل حریم خصوصی در استفاده از این فناوری ضروری است.
به گزارش خبرگزاری صداوسیما به نقل از بی‌جی‌آر، چت‌جی‌پی‌تی همچنان برای مردم جذاب است، زیرا کاربران راه‌های جدیدی را برای استفاده از این فناوری پیدا کرده اند. محصولات رقیب نیز در دست ساخت هستند، از جمله بارد (Bard) و هوش مصنوعی جستجوی گوگل. علاوه بر این، هر شرکت بزرگ فناوری به دنبال ادغام چت‌جی‌پی‌تی یا انتشار نرم افزار هوش مصنوعی مشابه است.

چه بخواهید از چت‌جی‌پی‌تی اصلی یا یک محصول مشابه هوش مصنوعی استفاده کنید، باید از خود محافظت کنید. در ادامه، چهار نکته که باید هنگام استفاده از چت‌جی‌پی‌تی در نظر داشته باشید، گفته شده:

 

  • داده‌های شخصی خود را با چت‌جی‌پی‌تی به اشتراک نگذارید

شرکت اوپن ای آی (OpenAI) تمام داده‌هایی را که می‌تواند برای آموزش چت‌جی‌پی‌تی جمع آوری می‌کند. چت‌جی‌پی‌تی همچنین از داده‌هایی که در چت‌ها وارد می‌کنید استفاده می‌کند، بنابراین جزئیات شخصی را در مکالمه وارد نکنید. همه چیز ذخیره می‌شود و حریم خصوصی چت‌جی‌پی‌تی در حال حاضر عالی نیست. شما هرگز نمی‌توانید از OpenAI بخواهید که آن داده‌ها را حذف کند.

ایتالیا و کانادا اولین کشور‌هایی بودند که چت‌جی‌پی‌تی را در رابطه با مسائل حریم خصوصی مورد بررسی قرار دادند.

برنامه‌های نامعتبر چت‌جی‌پی‌تی را نصب نکنید

چت‌جی‌پی‌تی به قدری پیشرفته است که می‌تواند کدنویسی بدافزاری هم کند. اما هکر‌ها برای هدف قرار دادن شما با بدافزاری که بدون کمک چت‌جی‌پی‌تی ایجاد کرده‌اند، به هوش مصنوعی نیاز ندارند.

گزارش‌های مختلف، جزئیات حملات بدافزار مبتنی بر چت‌جی‌پی‌تی را که در حال حاضر رخ می‌دهند، شرح داده‌اند و نتایج نشان می‌دهد، همه آن‌ها به طور مشابه عمل می‌کنند. کاربران ناآگاه بر این باورند که برنامه‌های واقعی را روی رایانه‌های خود نصب می‌کنند. اما آن‌ها برنامه‌های جعلی چت‌جی‌پی‌تی با بدافزار دریافت می‌کنند که داده‌های آن‌ها را می‌دزدد.

برنامه‌های چت‌جی‌پی‌تی را از منابع نامعتبر نصب نکنید. قبل از دانلود و نصب هر چیزی روی دستگاه خود آن را بررسی کنید.

 

  • از چت‌جی‌پی‌تی منبع بخواهید

همیشه از چت‌جی‌پی‌تی بخواهید منابعی را برای ادعا‌هایی که ارائه می‌کند همراه با پیوند‌ها ارائه کند. به این ترتیب، می‌توانید اطمینان حاصل کنید که آنچه این فناوری به شما می‌گوید دقیق است. همانطور که هوش مصنوعی ممکن است فوق العاده هوشمند باشد، هنوز قابل اعتماد نیست. هنگام پاسخ دادن به سؤالات اشتباه می‌کند و این چیزی است که همیشه باید به خاطر بسپارید.

چت‌جی‌پی‌تی و هر محصول هوش مصنوعی دیگری می‌تواند اطلاعاتی را ارائه دهد که صحیح نیست. شرکت اوپن ای آی باید به قابلیت اطمینان این ربات بپردازد، به خصوص که برخی از کاربران در حال بررسی شکایات علیه چت‌جی‌پی‌تی هستند.

 

  • قوانین کپی رایت را فراموش نکنید

از آنجایی که شرکت اوپن ای آی به چت‌جی‌پی‌تی داده‌های زیادی را برای آموزش مدل زبان می‌دهد، ربات همه چیز را به خاطر می‌آورد. این شامل مطالبی می‌شود که ممکن است تحت حمایت حق نسخه برداری باشند. اما از نگاه چت‌جی‌پی‌تی، این مهم نخواهد بود. ممکن است ربات محتوای آثار محافظت شده را کلمه به کلمه نمایش دهد.

اگر محتوای دارای حق نسخه‌برداری که چت‌جی‌پی‌تی به شما می‌دهد استفاده کنید، ممکن است قانون حق نسخه‌برداری را نقض کرده باشید.

۳ دلیل که چت‌بات‌ها را فاجعه امنیتی می‌کند

چهارشنبه, ۳۰ فروردين ۱۴۰۲، ۰۲:۵۴ ب.ظ | ۰ نظر

سعید میرشاهی – مدل‌های رایانه‌ای کلان‌زبان، (Large language models) مملو از آسیب‌پذیری‌های امنیتی هستند اما هنوز در مقیاس وسیع در محصولات فناوری جاسازی می‌شوند. مدل‌های زبانی هوش مصنوعی در حال حاضر درخشان‌ترین و هیجان‌انگیزترین پدیده فناوری هستند اما این مدل‌ها، مستعد ایجاد یک مشکل بزرگ جدید هستند:

کنترل تاکسی‌های تهران با هوش مصنوعی

سه شنبه, ۲۹ فروردين ۱۴۰۲، ۰۹:۳۷ ق.ظ | ۰ نظر

مدیر عامل سازمان تاکسیرانی شهر تهران با بیان اینکه هشتاد هزار تاکسی با هوش مصنوعی در پایتخت کنترل می‌شود، گفت: قرار است که ۴۰ پروژه تحولی در سازمان تاکسیرانی برای ارتقای بهره‌وری رانندگان و بهبود خدمت‌رسانی اجرا شود.
به گزارش خبرگزاری صدا وسیما، مهدی وحدت‌کار افزود: ۴۰ پروژه کوچک و بزرگ برای سازمان تاکسیرانی تعریف شده است تا بتوانیم نحوه نظارت را تغییر دهیم. باید از تکنولوژی‌های جدید استفاده کنیم. می‌خواهیم نرم‌افزار‌هایی روی گوشی‌های رانندگان تاکسی نصب کنیم یا تجهیزاتی بر روی تاکسی‌ها نصب شود تا براساس این مدل نظارت بر تاکسیرانی فراهم شود.
وی با بیان اینکه ۷۸ هزار و ۷۸۴ تاکسی در تهران وجود دارد که قطعا نظارت بر روی تمام آن‌ها سخت است، گفت:  قرار است که تاکسی‌ها را نظارت کنیم. به عنوان مثال یک تاکسی گردشی داریم که شاید هر جایی دیدیم بگوید در حال جابجایی مسافر هستم یا به منزل می‌روم و ... ما باید ابزار‌هایی داشته باشیم که تاکسی‌ها خدمت‌رسانی به مردم کنند به همین دلیل می‌خواهیم از روش‌های اینترنتی استفاده کنیم تا بدانیم تاکسی کجاست.
وی در ادامه درباره هوشمندسازی تاکسی ها تصریح کرد: ما بحث شاتل سرویس را داریم. مبدأ و مقصد مشخص است و این مبدأ و مقصد براساس نیاز مسافر صورت می‌گیرد. مثلا ما چند نقطه اضطراری را مشخص می‌کنیم و در ساعات پیک تعدادی ون را به آن نقطه اضافه می‌کنیم. این ون‌ها به مرکز کنترل تاکسیرانی متصل هستند. به ون‌ها اعلام می‌شود که به فلان مرکز از دحام برود و مسافر را جابجا کند. سناریو چیده می‌شود و در ون‌ها به صورت هوشمند به محل‌های پرازدحام اعزام می‌شوند و ما می‌توانیم با این کار مشکل را برطرف کنیم.
وحدت‌کار ادامه داد: مثلا به یک ون اعلام می‌شود که به میدان ونک برود و مسافران را به مقصد سیدخندان برساند و به ون بعدی مقصد دیگری می‌دهد. در اصل یک هوش مصنوعی است و ما این کار را توسط شرکت‌های دانش‌بنیان انجام می‌دهیم. ون‌ها به زودی به تهران می‌آیند و این کار را اجرایی خواهیم کرد.
مدیر عامل سازمان تاکسیرانی شهر تهران درباره افرادی هم که تاکسی دارند، اما برای جابه جایی مسافر از آن استفاده نمی‌کنند، گفت: تعدادی تاکسی در تهران وجود دارد که در خدمت مردم نیست. پدیده‌ای که سالهاست با آن مواجه بوده‌ایم. برخی افراد تاکسیران نیستند، اما تاکسی را گرفتند و از مزایای آن استفاده می‌کنند. با این روش نظارت دیگر تاکسیران واقعی مشخص خواهد شد.
وی همچنین با بیان اینکه تاکسی بانوان قرار است به صورت ۲۴ ساعته باشد و دائما سرویس‌دهی کند و پیگیری‌هایی صورت گرفته و به زودی این امر هم اجرا می‌شود، گفت: تعاملاتی نیز  با تاکسی‌های اینترنتی داشته‌ایم. جلسات مفصلی گذاشته‌ایم. تصور اینکه بر روی یک مسافر دو نفر بجنگند درست نیست. ما جلساتی گذاشته‌ایم و مدل‌های تعاملی استخراج شده است.
وی افزود: احتمالا به زودی امکان واگذاری سهام برخی از تاکسی‌های اینترنتی به راننده‌های تاکسی فراهم می‌شود. تاکسیران می‌تواند با سرویس‌دهی بخشی از سهام شرکت را داشته باشد البته به هر میزانی که توانایی دارد. تعاملات اولیه صورت گرفته، اما هنوز نهایی نشده است. ما همچنین بر روی مدل کسب و کار برنامه ریزی کنیم.

درخواست آلمان برای اعمال سریع مقررات هوش مصنوعی

دوشنبه, ۲۸ فروردين ۱۴۰۲، ۰۴:۵۵ ب.ظ | ۰ نظر

وزیر دیجیتال فدرال آلمان خواستار اعمال مقررات سریع اتحادیه اروپا برای کاربرد هوش مصنوعی و تنظیم این فن آوری جدید و انطباق آن با ارزش‌های اروپایی شد.
به گزارش تسنیم به نقل از "ان تی وی" آلمان، ایتالیا اولین کشور غربی است که ChatGPT را به دلیل نگرانی‌های فزاینده مسدود کرد" . فولکر ویسینگ"، وزیر دیجیتال فدرال آلمان فکر می‌کند که این راه اشتباه است و برای مقابله با هوش مصنوعی بر استراتژی متفاوتی تکیه می‌کند.

وزیر دیجیتال آلمان خواستار مقررات سریع اتحادیه اروپا برای کاربردهای هوش مصنوعی شده است. ویزینگ در گفتگویی با نشریه بیلد آلمان گفت: هوش مصنوعی وارد زندگی روزمره شده است و زندگی ما را به طور اساسی تغییر خواهد داد. اتحادیه اروپا باید به سرعت به این موضوع واکنش نشان دهد. همچنین وزارت کشور فدرال آلمان خواهان یک چارچوب قانونی شفاف در این راستا است.

ویزینگ گفت: ما باید اکنون عاقلانه واکنش نشان دهیم و هوش مصنوعی را به طور معقولی تنظیم کنیم، قبل از اینکه برای این کار خیلی دیر شود. این کار نباید دوباره سال‌ها طول بکشد. باید اطمینان حاصل شود که این فناوری جدید تنها در صورتی قابل استفاده است که به ارزش‌های اروپایی مانند دموکراسی، شفافیت و بی طرفی پایبند باشد.

وزیر دیجیتال آلمان در عین حال نسبت به مقررات افراطی هشدار داد و از ایتالیا برای مسدود کردن برنامه ChatGPT در آنجا انتقاد کرد. وی در این باره گفت: اگر همه کشورهای اروپایی از این مثال پیروی کنند، ما هیچ برنامه کاربردی هوش مصنوعی را توسعه نخواهیم داد. پس ما در این صورت در آینده فقط با سیستم‌های چینی و آمریکایی سرو کار خواهیم داشت.

این مقام آلمانی گفت: سیستم های توتالیتر می خواستند از هوش مصنوعی برای محدود کردن آزادی استفاده کنند. وی گفت: ما نباید میدان را به آنها بسپاریم. ما به برنامه‌های کاربردی هوش مصنوعی اروپایی نیاز داریم که بر اساس یک مبنای قانونی قابل اعتماد ایجاد شوند. مردم نمی‌خواهند بدون این فناوری کار کنند. ممنوعیت راه کاملاً اشتباهی است.

یک سخنگوی وزارت کشور فدرال آلمان هم به «هندلزبلات» گفت که استفاده از هوش مصنوعی پتانسیل بسیار خوبی دارد. وی گفت: با این حال، ایجاد تعادل بین باز بودن به نوآوری و یک چارچوب قانونی روشن ضروری است.

برنامه‌های مبتنی بر هوش مصنوعی مانند ChatGPT با کمک هوش مصنوعی محتوا تولید می‌کنند. کاربران می‌توانند دستورات یا جملاتی را مشخص کنند که سیستم‌های مربوطه به‌طور مستقل آن‌ها را با کمک حجم وسیعی از داده‌های اینترنت تکمیل می‌کنند.

نتایج جدیدترین نظر سنجی هم نشان می دهد که اکثر شهروندان آلمانی از قوانین سختگیرانه تر برای توسعه هوش مصنوعی حمایت می‌کنند.

اکثریت آلمانی‌ها خواهان قوانین واضح برای هوش مصنوعی هستند. رئیس پارلمان آلمان نیز مقامات امنیتی و دادستان‌های عمومی را در این راستا مسئول ارزیابی کرده است.

هوش مصنوعی مشاور قابل اعتماد پزشکان است

دوشنبه, ۲۸ فروردين ۱۴۰۲، ۰۴:۰۰ ب.ظ | ۰ نظر

تیمی از محققان در تازه‌ترین مطالعات خود به بررسی قابل اعتماد بودن توصیه‌های پزشکی هوش مصنوعی پرداختند.
به گزارش خبرگزاری صدا و سیما بیمارستان‌ها شروع به استفاده از «ابزار‌های پشتیبانی تصمیم» با هوش مصنوعی کرده‌اند که می‌توانند بیماری را تشخیص دهند، درمان را پیشنهاد کرده و یا نتیجه جراحی را پیش‌بینی کنند، اما هیچ الگوریتمی همیشه درست نیست، بنابراین چگونه پزشکان می‌دانند چه زمانی به توصیه‌های هوش مصنوعی اعتماد کنند.

یک مطالعه جدید به رهبری کیان یانگ، استادیار علوم اطلاعات در کالج محاسباتی و علوم اطلاعات کورنل آن اس بورز، نشان می‌دهد که اگر ابزار‌های هوش مصنوعی بتوانند مانند یک همکار به پزشک مشاوره دهند، در آن صورت پزشکان بهتر می‌توانند مزایای توصیه هوش مصنوعی را بسنجند.

محققان مطالعه جدید را با عنوان «استفاده از ادبیات زیست پزشکی برای کالیبره کردن اعتماد پزشکان به سیستم‌های پشتیبانی تصمیم گیری هوش مصنوعی» در آوریل در کنفرانس CHI انجمن ماشین‌های محاسباتی در مورد عوامل انسانی در سیستم‌های محاسباتی ارائه خواهند کرد.

یانگ گفت: پیش از این، بیشتر محققان هوش مصنوعی با توضیح نحوه عملکرد الگوریتم زیربنایی یا داده‌هایی که برای آموزش هوش مصنوعی استفاده شده‌اند، به پزشکان کمک کرده‌اند تا پیشنهادات ابزار‌های پشتیبانی تصمیم را ارزیابی کنند، اما آموزش در مورد چگونگی پیش‌بینی‌های هوش مصنوعی کافی نبود. بسیاری از پزشکان تلاش می‌کردند دریابند آیا این ابزار در آزمایش‌های بالینی تایید شده است یا خیر که معمولا با این ابزار‌ها اتفاق نمی‌افتد.

یانگ گفت: «وظیفه اصلی یک پزشک یادگیری نحوه عملکرد هوش مصنوعی نیست. اگر بتوانیم سیستم‌هایی بسازیم که بر اساس نتایج کارآزمایی‌های بالینی و مقالات ژورنالی که اطلاعات قابل اعتمادی برای پزشکان هستند، به تایید پیشنهاد‌های هوش مصنوعی کمک کند، می‌توانیم به آن‌ها کمک کنیم تا بفهمند که آیا هوش مصنوعی احتمالا برای هر مورد خاص درست است یا خیر».

بنا بر  اعلام مدیکال اکسپرس ‎ برای توسعه این سیستم، محققان ابتدا با ۹ پزشک در طیف وسیعی از تخصص‌ها و سه کتابدار بالینی مصاحبه کردند. آن‌ها دریافتند هنگامی که پزشکان در مورد روش صحیح اقدام با هم اختلاف نظر دارند، نتایج حاصل از تحقیقات زیست پزشکی مرتبط و مطالعات موردی را با در نظر گرفتن کیفیت هر مطالعه و میزان تطبیق آن با مورد مورد نظر پیگیری می‌کنند.

یانگ و همکارانش نمونه اولیه ابزار تصمیم گیری بالینی خود را ساختند که این فرآیند را با ارائه شواهد زیست پزشکی در کنار توصیه هوش مصنوعی تقلید می‌کند. آن‌ها از GPT-۳ برای یافتن و خلاصه کردن تحقیقات مرتبط استفاده کردند.

یانگ گفت: «ما سیستمی ساختیم که اساسا سعی می‌کند ارتباطات بین فردی پزشکان را بازسازی کند و همان نوع شواهد را از ادبیات بالینی برای حمایت از پیشنهاد هوش مصنوعی به دست آورد.

رابط ابزار پشتیبانی تصمیم، اطلاعات بیمار، تاریخچه پزشکی و نتایج آزمایش‌ها را از یک طرف، با تشخیص شخصی یا پیشنهاد درمانی هوش مصنوعی از سوی دیگر و به دنبال آن مطالعات بیوپزشکی مربوطه فهرست می‌کند. در پاسخ به بازخورد پزشک، محققان یک خلاصه کوتاه برای هر مطالعه اضافه کردند که جزئیات جمعیت بیمار، مداخلات پزشکی و نتایج بیمار را برجسته می‌کرد تا پزشکان بتوانند به سرعت مهم‌ترین اطلاعات را جذب کنند.

تیم تحقیقاتی ابزار‌های پشتیبانی تصمیم گیری اولیه را برای سه تخصص عصب شناسی، روانپزشکی و مراقبت‌های تسکینی توسعه دادند و از سه پزشک از هر تخصص خواستند تا نمونه اولیه را با ارزیابی موارد نمونه آزمایش کنند.

در مصاحبه‌ها، پزشکان گفتند از شواهد بالینی قدردانی می‌کنند، آن‌ها را بصری و قابل درک می‌دانند و آن را به توضیح عملکرد درونی هوش مصنوعی ترجیح می‌دهند.

یانگ گفت: «این یک روش بسیار قابل تعمیم است. این نوع رویکرد می‌تواند برای همه تخصص‌های پزشکی و سایر کاربرد‌هایی که به شواهد علمی نیاز است، مانند پلتفرم‌های پرسش و پاسخ برای پاسخ‌گویی به سوالات بیمار یا حتی بررسی خودکار واقعیت‌های اخبار مرتبط با سلامت، کار کند. امیدوارم که آن را در انواع مختلف سیستم‌های هوش مصنوعی که در حال توسعه هستند تعبیه شده ببینم تا بتوانیم آن‌ها را برای تمرین بالینی مفید کنیم»

تلاش دولت‌ها برای مقررات‌گذاری ChatGPT

يكشنبه, ۲۷ فروردين ۱۴۰۲، ۰۴:۱۲ ب.ظ | ۰ نظر

در پی رشد فزاینده چت‌جی‌پی‌تی در جهان نگرانی‌هایی پیرامون سیستم‌های هوش مصنوعی ایجاد شده و کشور‌های مختلف در تلاش تنظیم قوانینی برای این فناوری هستند.

به گزارش خبرگزاری صداوسیما به نقل از رویترز، پیشرفت‌های سریع در هوش مصنوعی مانند چت‌جی‌پی‌تی که توسط مایکروسافت پشتیبانی می‌شود، تلاش‌های دولت‌ها را برای توافق روی قوانین حاکم بر استفاده از فناوری پیچیده می‌کند.

آژانس حفاظت از داده‌های ایتالیا اعلام کرد در صورتی که شرکت آمریکایی OpenAI تا پایان آوریل از خواسته‌های حفاظت از داده‌ها و حریم خصوصی پیروی کند، ممنوعیت موقت فناوری هوش مصنوعی چت‌جی‌پی‌تی را لغو خواهد کرد.

در ادامه آخرین اقداماتی که نهاد‌های حاکم ملی و بین المللی برای تنظیم ابزار‌های هوش مصنوعی انجام داده اند، گفته شده:

استرالیا

سخنگوی وزارت علوم و صنعت این کشور در ۱۲ آوریل گفت: دولت درباره نحوه پاسخگویی به هوش مصنوعی از نهاد اصلی مشاوره علمی استرالیا درخواست مشاوره کرده و در حال بررسی مراحل بعدی است.

انگلیس

این کشور در ماه مارس اعلام کرد قصد دارد به جای ایجاد یک نهاد جدید، مسئولیت مدیریت هوش مصنوعی را بین تنظیم‌کننده‌های حقوق بشر، سلامت و ایمنی و رقابت تقسیم کند.

چین

تنظیم گر فضای مجازی چین در ۱۱ آوریل از پیش‌نویس اقداماتی برای مدیریت خدمات هوش مصنوعی مولد پرده برداری کرد و گفت: از شرکت‌ها می‌خواهد تا ارزیابی‌های امنیتی را قبل از ارائه خدمات به مردم به مقامات ارائه کنند.

دفتر اقتصاد و فناوری اطلاعات چین در ماه فوریه اعلام کرد: پکن، پایتخت چین، از شرکت‌های پیشرو در ساخت مدل‌های هوش مصنوعی که می‌توانند چت‌جی‌پی‌تی را به چالش بکشند، حمایت خواهد کرد.

اتحادیه اروپا

قانونگذاران اتحادیه اروپا در حال بحث درباره معرفی قانون هوش مصنوعی اتحادیه اروپا هستند که بر هرکسی که محصول یا خدماتی را ارائه می‌دهد که از هوش مصنوعی استفاده می‌کند، حکومت می‌کند. این قانون سیستم‌هایی را که می‌توانند خروجی‌هایی مانند محتوا، پیش‌بینی‌ها، توصیه‌ها یا تصمیم‌گیری‌های تأثیرگذار بر محیط‌ها ایجاد کنند، پوشش می‌دهد.

قانون‌گذاران پیشنهاد کرده‌اند که ابزار‌های هوش مصنوعی مختلف براساس سطح ریسک درک شده، از کم تا غیرقابل قبول طبقه‌بندی شوند.

فرانسه

ناظر حریم خصوصی این کشور (CNIL) در ۱۱ آوریل گفت: در حال بررسی چندین شکایت در مورد چت‌جی‌پی‌تی پس از ممنوعیت موقت این فناوری در ایتالیا به دلیل مشکوک به نقض قوانین حفظ حریم خصوصی است.

مجلس ملی فرانسه در ماه مارس استفاده از نظارت تصویری هوش مصنوعی را در بازی‌های المپیک ۲۰۲۴ پاریس، بدون توجه به هشدار‌های گروه‌های حقوق مدنی مبنی بر اینکه این فناوری تهدیدی برای آزادی‌های مدنی است، تصویب کرد.

ایتالیا

ایتالیا در ۳۱ مارس پس از اینکه آژانس ملی داده، نگرانی‌هایی را درباره نقض احتمالی حریم خصوصی و عدم تأیید سن کاربران ۱۳ ساله یا بالاتر، همانطور که درخواست کرده بود، ابراز و یک ممنوعیت موقت برای چت‌جی‌پی‌تی OpenAI اعمال کرد.

روز چهارشنبه، آژانس حفاظت از داده‌های این کشور، مهلتی تا پایان آوریل برای OpenAI تعیین کرد تا خواسته‌های خود در مورد حفاظت از داده‌ها و حریم خصوصی را قبل از از سرگیری این سرویس در کشور برآورده کند.

ژاپن

وزیر تحول دیجیتال تارو کونو در ۱۰ آوریل گفت که خواهان نشست آتی وزرای دیجیتال G۷ است. این جلسه برای بحث در مورد فناوری‌های هوش مصنوعی از جمله چت‌جی‌پی‌تی و صدور یک پیام یکپارچه G۷ برای ۲۹ تا ۳۰ آوریل تعیین شده است.

اسپانیا

این کشور در ۱۱ آوریل به رویترز گفت: آژانس حفاظت از داده‌های اسپانیا از ناظر حریم خصوصی اتحادیه اروپا خواسته تا نگرانی‌های مربوط به حریم خصوصی چت‌جی‌پی‌تی را ارزیابی کند.

آمریکا

دولت آمریکا در ۱۱ آوریل اعلام کرد در پس ابهامات و سوالاتی که درخصوص تأثیر هوش مصنوعی بر امنیت ملی و نظام آموزش وجود دارد، به دنبال وضع قوانینی درباره سیستم‌های هوش مصنوعی است. جو بایدن قبلا به مشاوران علم و فناوری گفته بود که هوش مصنوعی می‌تواند در رسیدگی به بیماری‌ها و تغییرات آب و هوایی کمک کند، اما رسیدگی به خطرات بالقوه برای جامعه، امنیت ملی و اقتصاد نیز مهم است.

کشور ایران با توجه به وسعت، شرایط اقلیمی‌و جغرافیایی و همچنین جمعیت رو به پیری، نیازمند بکارگیری خدمات و راهکارهای فناورانه برای ارایه خدمات درمانی از دسترسی به سوابق پزشکی بیماران گرفته، تا معاینات پزشکی و حتی اجرای عمل‌های جراحی و در یک کلام تحقق مقوله «مراقبت‌های بهداشتی از راه دور» یا Remote healthcare  است.
به گزارش آی‌تی آنالیز، فارغ از شرایط خاص و آتی کشور، ایران اکنون یکی از قطب‌های مهم گردشگری درمانی در منطقه به شمار می‌رود که سالانه پذیرای گردشگران زیادی از کشورهای همسایه و دیگر نقاط دنیا برای انجام عمل‌های جراحی و درمانی است که فرصت‌های درآمدی مهمی‌را در اختیار کشور قرار داده است.
این در حالیست که یکی از مهم‌ترین موارد استفاده فناوری نسل پنجم که با ادامه گسترش این فناوری در سراسر جهان در حال ظهور است، ارایه انواع مراقبت‌های پزشکی از راه دور است.
چراکه مزیت‌های عمده شبکه‌های 5G در ارایه انواع خدمات و نظارت از راه دور شامل عواملی نظیر اتصالات با پهنای باند سریع و کم‌تاخیر، امنیت و اطمینان بیشتر در ارتباطات و همچنین افزایش ظرفیت برای تعداد دستگاه‌های متصل در هر کیلومتر مربع است.
به عبارت دیگر با اتکا به این فناوری، پزشکان و بیماران می‌توانند مشاوره ویدیویی در زمان واقعی داشته باشند و به سوابق پزشکی و نتایج آزمایشات از هر کجا دسترسی داشته باشند. همین مزیت نیز می‌تواند دسترسی به مراقبت را به ویژه برای کسانی که در مناطق روستایی یا مناطق محروم هستند بهبود بخشد. 
اگرچه پیش از این تجربه پیاده‌سازی نخستین «جراحی از راه دور» در ایران همپای کشورهای تکنولوژیک و توسعه‌یافته مبتنی بر شبکه پرسرعت و 5G  توسط همراه اول محقق شد تا این اقدام گواهی عملی و اجرایی بر امکان تحقق این کاربری مهم بر بستر شبکه نسل پنجم باشد.



نکته قابل توجه آنکه همراه اول از سال‌های گذشته تحقق این کاربرد مهم بر بستر شبکه نسل پنج را در دستور کار گذاشته بود و سرانجام  یوزکیس 5G جراحی از راه دور را برای نخستین بار در نمایشگاه تلکام 1397 رونمایی کرد و در تاریخ دوم تیرماه سال 1400 نیز نخستین جراحی واقعی رباتیک از راه دور در ایران با سامانه «جراحی از راه دور» بومی‌و از فاصله ۷ کیلومتری بین بیمارستان‌های امام‌خمینی (ره) و سینا بر روی یک حیوان انجام شد.
در آن مقطع با بیان اینکه برای انجام آن جراحی مهم، پهنای باند 5 گیگابیت در ثانیه آماده شده بود که عملا حدود 20 درصد آن مصرف شد، آمادگی همراه اول برای انجام عمل‌های جراحی توسط پزشکان روی انسان، آن هم در آینده نزدیک و بر بستر این اپراتور رسما اعلام شد.


•    فرصت تلفیق نسل 5 و هوش مصنوعی
اکنون اما در کنار فناوری پیشران و تحول‌گرایانه نسل 5 یک فرصت تاریخی دیگر نیز در اختیار کشور قرار گرفته است؛ تلفیق نسل پنج و هوش مصنوعی.
 هوش مصنوعی امروزه با رشدی انفجاری در کشورها و عرصه‌های مختلف مواجه شده است و با توجه به کاربردهای موثر و متنوع آن تا کنون صدها میلیارد دلار در دنیا روی این فناوری سرمایه‌گذاری شده است.
در نامه‌ای که اخیرا در The Lancet Infectious Diseases منتشر شده است، پزشکان انگلیسی در همکاری با دانشگاه لیورپول، تحقیقات متعدد و پیچیده‌ای روی هوش مصنوعی کردند که در نتیجه آن، پزشکان از عملکرد دقیق هوش مصنوعی در تشخیص عفونت و تجویز دارو حیرت زده شدند.


لذا چندان تعجب آور نیست که هوش مصنوعی می‌تواند در مراقبت‌های بهداشتی از راه دور نیز نقش مهمی‌ داشته باشد. 
به عبارت دیگر با تجزیه و تحلیل مقادیر زیادی از داده‌های بیمار، الگوریتم‌های هوش مصنوعی می‌توانند به ارائه‌دهندگان مراقبت‌های بهداشتی در شناسایی الگوها و تشخیص دقیق‌تر کمک کنند. 
چت ربات‌ها و دستیاران مجازی مجهز به هوش مصنوعی نیز می‌توانند توصیه‌های پزشکی اولیه را به بیماران ارایه دهند و به آنها کمک کنند تا سلامت خود را به طور موثرتری از خانه مدیریت کنند. 
همچنین سیستم‌های نظارت از راه دور بیمار که از هوش مصنوعی استفاده می‌کنند می‌توانند علائم حیاتی بیمار را ردیابی کنند و در صورت تشخیص هر گونه ناهنجاری نسبت به ارایه‌دهندگان مراقبت‌های بهداشتی هشدار دهند. 
هوش مصنوعی همچنین می‌تواند برای کشف و توسعه دارو مورد استفاده قرار گیرد و به محققان این امکان را می‌دهد که مجموعه داده‌های عظیمی ‌را تجزیه و تحلیل کنند و درمان‌های جدید بالقوه را سریعتر از همیشه شناسایی کنند. 
به طور کلی، هوش مصنوعی پتانسیل بهبود کیفیت مراقبت‌های بهداشتی از راه دور را با ارایه مراقبت‌های شخصی‌تر، بهبود تشخیص‌ها و حمایت از تصمیم‌گیری در زمان واقعی توسط متخصصان مراقبت‌های بهداشتی دارد. 

 

•    زمان بهره‌گیری از تجربیات ملی
لذا با توجه به اهمیت و وابستگی فناوری هوش مصنوعی در تحقق خدمات درمانی از راه دور به شبکه‌های پرسرعت و پیشرفته نسل 5 و همچنین اجرای موفق یکی از بالاترین اقدامات در علم پزشکی، یعنی جراحی رباتیک از راه دور بر بستر شبکه همراه اول که نیازمند سرعت مطمئن و بالا بود، پرسش اصلی اینجاست که آیا زمان آن نرسیده که ما نیز حاصل این تجربیات و دستاوردهای ملی را را با هوش مصنوعی تلفیق کنیم؟ 


در همین حال اگر نمونه موفق اجرای نخستین جراحی رباتیک از راه دور بر بستر شبکه نسل 5 همراه اول، آن هم حدود 2 سال قبل را نداشتیم، این موضوع بیشتر جنبه تئوریک و شعاری داشت، اما با توجه به انجام این مهم، تقاضا و انتظار برای حمایت از توسعه و گسترش همزمان شبکه 5G و فناوری هوش مصنوعی در کشور بیش از پیش است.
به عبارت دیگر با توجه به نیاز به سرمایه‌گذاری‌ها و برنامه‌ریزی‌های کلان برای آینده نه چندان دور، اکنون یک فرصت و مسوولیت تاریخی به عهده متولیان عرصه ارتباطات و اپراتورهای ارتباطی کشور است.
مساله دیگر اینجاست که امکان ارایه مشاوره و خدمات درمانی و پزشکی از راه دور، با توجه به سابقه، توانمندی و تجربیات شناخته شده ایران در دنیا، این فرصت تنها محدود به جغرافیای کشور نمانده و در صورت فراهم‌سازی شبکه و زیرساخت‌های ارتباطی پرسرعت و قابل اتکا در کشور، امکان ارایه «مراقبت‌های بهداشتی از راه دور» به انبوهی از متقاضیان در دیگر نقاط دنیا نیز فراهم شده و فرصت‌های اقتصادی و تجربی زیادی برای کشور به ارمغان خواهد داشت.
لذا در این راه مسوولیت متولیان و رگولاتورهای عرصه ارتباطات کشور، رفع موانع و تسهیل هر چه بیشتر زمینه شتابدهی به توسعه فناوری‌های 5G و هوش مصنوعی است و مسوولیت اپراتورهای موبایل کشور (همراه اول و ایرانسل) نیز برنامه‌ریزی و سرمایه‌گذاری‌های کلان در اجرای زمینه‌ها و زیرساخت‌های تحقق این فناوری‌ها است.


•    الزامات هوشمندسازی اپراتورها
در گام نخست اما تحقق این مهم با توجه به ماموریت و عملکرد اپراتورها، ابتدا نیازمند هوشمندسازی شبکه خود این اپراتورهاست.
امروزه اپراتورهای موبایل دیگر محدود به ارایه خدمات اولیه تلفن و اینترنت نیستند و اکنون صنعت مخابرات در مرکز رشد فناوری قرار دارد که توسط خدمات باند پهن موبایل و5G  در عصر اینترنت اشیا (IoT) رهبری می‌شود. 
لذا با توجه به برآوردها، هدف‌گذاری‌ها، سرمایه‌گذاری‌ها و مسیر حرکت اپراتورهای بزرگ دنیا، انتظار می‌رود این رشد به دلیل پذیرش سریع هوش مصنوعی (AI) در صنعت مخابرات ادامه یابد. 


بر اساس برآوردها اندازه بازار جهانی هوش مصنوعی در ارتباطات از راه دور، از 11.89 میلیارد دلار در سال 2020 تا سال 2027 به 14.99 میلیارد دلار خواهد رسید.
این در حالیست که بر اساس روند و تجربه اپراتورهای بزرگ دنیا، استفاده از هوش مصنوعی منجر به تحقق مواردی نظیر بهینه سازی شبکه، پیش‌بینی و اجرای تعمیرات، بکارگیری دستیاران مجازی برای پشتیبانی از مشتری، پیاده‌سازی اتوماسیون فرآیندهای رباتیک، جلوگیری از وقوع کلاهبرداری‌ها، و افزایش درآمد در شبکه اپراتورهای موبایل می‌شود. آن هم در شرایطی که با سیل روزافزون فرصت‌ها و تقاضا برای استفاده از زیرساخت‌های فراهم شده بر بستر فناوری نسل 5 و هوش مصنوعی از سوی مشترکان و متقضیان مواجه هستند.
در همین راستا اگرچه همراه اول به عنوان پیشران ارتباطات و فناوری کشور اقدامات گسترده‌ای برای سرمایه‌گذاری، پیاده‌سازی و گسترش کاربردهای مبتنی بر فناوری‌های نسل 5 و هوش مصنوعی را در دستور کار داشته و عملیاتی کرده است، لیکن همانطور که ذکر شد با توجه به جایگاه و نقش کلیدی دو اپراتور اصلی کشور یعنی همراه اول و ایرانسل در تلفیق نسل 5 و هوش مصنوعی و بکارگیری آن در «مراقبت‌های بهداشتی از راه دور» که یکی از نیازهای حساس و مهم ایران در آینده نه چندان دور است، تصمیمات مهم متولیان عرصه ارتباطات از یک سو و اقدامات این دو اپراتور از سوی دیگر، از اهمیتی تاریخی برای کشور برخوردار است.

از ChatGPT استفاده کنیم یا نه؟

يكشنبه, ۲۷ فروردين ۱۴۰۲، ۰۲:۰۵ ب.ظ | ۰ نظر

عباس پورخصالیان - اظهار نظر دربارۀ معایب و مزایای چَتباتِ ChatGPT (که روبات گفتگوکنندۀ برخط با کاربران است) پنج ماه است که موضوع روز و دستور کار شوراها و کمیسیون‌های سیاست گذاری در اتحادیۀ اروپا است، و از

شروط ایتالیا برای رفع فیلتر ChatGPT

شنبه, ۲۶ فروردين ۱۴۰۲، ۰۶:۵۳ ب.ظ | ۰ نظر

منبع: مهر
آژانس حفاظت از داده‌های ایتالیا فهرستی از شرایط فعال شدن ربات هوش مصنوعی گپ چت جی پی تی را اعلام کرده است که باید تا ۳۰ آوریل برآورده شوند.
به گزارش مهر به نقل از رویترز، ایتالیا به علت نگرانی از برخی سوءاستفاده‌ها از چت جی پی تی و تبعات آن، برای فیلترینگ این ابزار اقدام کرده بود.
تقریباً دو هفته پیش OpenAI که مورد حمایت شرکت مایکروسافت است در ایتالیا فیلتر شد. این کشور به طور موقت پردازش اطلاعات شخصی توسط آن را محدود کرد و تحقیقاتی را در مورد نقض مشکوک قوانین حریم خصوصی توسط چت جی پی تی آغاز کرد.
این نهاد موسوم به گارانته در بیانیه‌ای در روز چهارشنبه مجموعه‌ای از خواسته‌های خود برای رفع فیلتر چت جی پی تی را مطرح کرد.
 سخنگوی ایتالیایی مایکروسافت در این مورد گفت: "ما خوشحالیم که ایتالیا در حال بررسی تصمیم خود است و مشتاقانه منتظر همکاری با آنها هستیم تا به زودی دوباره ChatGPT را در اختیار مشتریان خود در ایتالیا قرار دهیم."
 این نهاد از OpenAI خواست ابزاری فراهم کند تا همه افرادی که داده‌هایشان در چت جی پی تی مورد استفاده است، بتوانند درخواست تصحیح یا حذف داده‌های شخصی خود که به‌طور نادرست توسط این سرویس ایجاد شده‌اند را مطرح کنند. OpenAI همچنین باید به غیر کاربران اجازه دهد تا «به روشی ساده و در دسترس» با پردازش داده‌های شخصی خود برای اجرای الگوریتم‌های چت جی پی تی مخالفت کنند.
 همچنین از این شرکت خواسته شده تا تا پایان سپتامبر یک سیستم تأیید سن را راه اندازی کند تا دسترسی کاربران زیر ۱۳ سال به چت جی پی تی ممنوع شود.

چاک شومر، رهبر اکثریت سنا، روز پنجشنبه گفت که تلاش‌هایی را برای ایجاد قوانینی در مورد هوش مصنوعی برای رسیدگی به نگرانی‌های امنیت ملی و آموزش آغاز کرده است.
به گزارش خبرگزاری صداوسیما به نقل از رویترز، چاک شومر، رهبر اکثریت سنا گفت: تلاش‌هایی را برای ایجاد قوانینی درمورد هوش مصنوعی برای رسیدگی به نگرانی‌های امنیت ملی و آموزش آغاز کرده، زیرا استفاده از برنامه‌هایی مانند ChatGPT در حال گسترش است.

شومر که یک دموکرات است در بیانیه‌ای گفت: چارچوبی را تهیه و منتشر کرده که یک رژیم نظارتی جدید را ترسیم می‌کند که از آسیب‌های بالقوه فاجعه‌بار به کشور ما جلوگیری کرده و همزمان تضمینی برای پیشرفت و پیشروی آمریکا در این فناوری تحول‌آفرین است.

چت جی پی تی، یک برنامه هوش مصنوعی که به تازگی توجه عموم را به دلیل توانایی در نوشتن سریع پاسخ به طیف گسترده‌ای از سوالات جلب کرده است. این فناوری با بیش از ۱۰۰ میلیون کاربر فعال ماهانه به سریع‌ترین برنامه مصرف کننده در تاریخ تبدیل شده است.

طرح شومر به تایید کنگره و کاخ سفید نیاز دارد و ممکن است ماه‌ها یا بیشتر طول بکشد. با این حال این اقدام، ملموس‌ترین گامی است که دولت آمریکا ممکن است مقررات جدیدی برای رسیدگی به نگرانی‌های فزاینده در مورد هوش مصنوعی مولد اتخاذ کند.

شومر گفت: برای پیشی گرفتن از این فناوری جدید قدرتمند ضروری است تا از آسیب‌های بالقوه گسترده به جامعه و امنیت ملی جلوگیری و در عوض از آن با پیشبرد قوانین قوی و دو حزبی استفاده کنیم.

پیشنهاد شومر از شرکت‌ها می‌خواهد که به کارشناسان مستقل اجازه دهند تا قبل از انتشار عمومی یا به‌روزرسانی، فناوری‌های هوش مصنوعی را بررسی و آزمایش کنند و به کاربران اجازه دسترسی به یافته‌ها را بدهند. او هنوز پیش نویس قانونی را تنظیم نکرده است.

شومر به انتشار رویکرد خود در این هفته برای تنظیم هوش مصنوعی اشاره کرد و آن را زنگ بیدارباشی برای ملت خواند. او گفت: برای آمریکا ضروری است که قوانین حاکم بر چنین فناوری تحول آفرینی را رهبری و شکل دهد و به چین اجازه ندهد در نوآوری پیشروی کند.

جو بایدن هفته گذشته گفت: باید دید آیا هوش مصنوعی خطرناک است یا خیر. او گفت: به نظر من، شرکت‌های فناوری مسئولیت دارند که از ایمن بودن محصولاتشان قبل از عمومی کردن آن‌ها مطمئن شوند. وزارت بازرگانی روز سه شنبه اعلام کرد: به دنبال نظرات عمومی در مورد اقدامات بالقوه پاسخگویی برای هوش مصنوعی است

تنظیم‌کننده فضای سایبری چین هم از پیش‌نویس اقداماتی برای مدیریت خدمات هوش مصنوعی مولد پرده برداری کرد و گفت که از شرکت‌ها می‌خواهد ارزیابی‌های امنیتی را قبل از ارائه خدمات به عموم به مقامات ارائه کنند.

شرکت مایکروسافت یک سرمایه گذار بزرگ در OpenAI است که چت جی پی تی را ایجاد کرد. یک شرکت نرم‌افزاری و گوگل هم میلیارد‌ها دلار برای هوش مصنوعی سرمایه‌گذاری کرده‌اند تا در میان رقابت شدید در سیلیکون ولی، برتری پیدا کند.

این سه شرکت هنوز درباره طرح شومر اظهار نظر نکردند.

رتبه دوم عربستان در آگاهی اجتماعی هوش مصنوعی

شنبه, ۲۶ فروردين ۱۴۰۲، ۰۴:۵۹ ب.ظ | ۰ نظر

به گفته کارشناسان، عربستان سعودی رتبه دوم جهانی را در آگاهی جامعه از هوش مصنوعی دارد.
به گزارش سایبربان؛ خبرگزاری عربستان سعودی (SPA) گزارش داد که این کشور در رتبه دوم آگاهی اجتماعی از هوش مصنوعی در جهان قرار دارد.

بررسی شاخص هوش مصنوعی در ششمین ویرایش آن، که به‌وسیله دانشگاه استنفورد (Stanford) آمریکا منتشر شد، نشان داد که میزان اعتماد شهروندان سعودی در برخورد با محصولات و خدمات هوش مصنوعی در این کشور بسیار زیاد است.

این کشور پس از چین قرار گرفت که از نظر مثبت‌اندیشی و خوش‌بینی شهروندان سعودی نسبت به محصولات و خدمات هوش مصنوعی ارائه شده در عربستان در مراحل فعلی و آینده رتبه اول را به خود اختصاص داد.

نظرسنجی شامل تعدادی معیار بود که مهم‌ترین آنها میزان دانش جامعه از مزایا و ارزش محصولات و خدمات هوش مصنوعی بود.

عربستان سعودی در مقام اول جهان، برابر با چین و بالاتر از کره جنوبی و آمریکا، در پرسشی در مورد تأثیر مثبت محصولات و خدمات هوش مصنوعی بر زندگی پاسخ دهندگان در نظرسنجی طی 3 تا 5 سال آینده قرار گرفت.

زمانی که این پرسش مطرح می‌شود که آیا محصولات و خدمات هوش مصنوعی زندگی پاسخگویان را آسان‌تر می‌کند یا خیر، عربستان سعودی در رتبه دوم جهان، بالاتر از کره جنوبی و برزیل، قرار گرفت.

همچنین زمانی که از پاسخ دهندگان در مورد دانش آنها درباره مزایا و ارزش محصولات و خدمات هوش مصنوعی پرسیده شد، در سطح جهانی بالاتر از هند، فرانسه و روسیه در رتبه دوم قرار گرفت.

کارشناسان معتقدند که تلاش‌ها در عربستان سعودی برای توسعه هوش مصنوعی متوقف نمی‌شود و ریاض در سال 2021 اعلام کرد که قصد دارد 400 شرکت در زمینه هوش مصنوعی تأسیس کند و در جذب سرمایه‌گذاری در این زمینه طی 10 سال آینده، حدود 80 میلیارد ریال سعودی مشارکت داشته باشد.

عبدالله بن شرف الغامدی (Abdullah bin Sharaf Al-Ghamdi)، رئیس اداره اطلاعات و هوش مصنوعی عربستان سعودی، در سال 2022 گفت که تا سال 2024، 70 درصد مؤسسات در این کشور از زیرساخت‌های مبتنی بر هوش مصنوعی و خدمات ابری هوشمند برای فعال کردن هوش مصنوعی استفاده خواهند کرد.

به گفته الغامدی، بیش از 50 درصد سازمان‌ها از خدمات هوش مصنوعی میزبانی شده استفاده می‌کنند و تا سال 2023 مجموعه‌های کاربردی خود را افزایش می‌دهند.

ارتش رژیم صهیونیستی فناوری هوش مصنوعی میدان نبرد را با ادعای مقابله با حماس و محافظت در برابر تهدید ایران ایجاد می‌کند.
به گزارش سایبربان؛ ارتش رژیم صهیونیستی بر این باور است که ادغام هوش مصنوعی (AI) در عملیات‌های نظامی یک جهش به جلو است، اما محققان نگرانی‌هایی را در مورد تشدید بالقوه هوش مصنوعی در میدان نبرد مطرح کرده‌اند.

اوری (Uri)، رئیس بخش داده و هوش مصنوعی، بخش تحول دیجیتال، به فاکس نیوز دیجیتال گفت : «ارتش اسرائیل پتانسیل زیادی برای یک جهش رو به جلو وجود دارد. هرکسی که بخواهد چنین تغییری ایجاد کند با چالش بزرگی روبرو است.»

به گزارش اورشلیم پست، ارتش اسرائیل در ماه فوریه امسال اعلام کرد که استفاده از هوش مصنوعی را در عملیات‌های خود آغاز کرده و روش‌های دیجیتال جدید به تولید 200 دارایی هدف جدید در طی یک عملیات 10 روزه در سال 2021 کمک کرد تا با موفقیت حداقل 2 فرمانده حماس را هدف قرار دهد.

یوآو (Yoav)، فرمانده علوم داده و هوش مصنوعی در مورد این عملیات ادعا کرد : «شکستن سد انسانی را به خاطر بسپارید؛ مواقعی بود که تقریباً یک سال برای ما زمان برد. چگونه این کار را انجام دهیم؟ ما زیر گروه‌های اصلی را می‌گیریم، حلقه نزدیک آنها [ارتباطات شخصی] و ویژگی‌های مربوطه را محاسبه، نتایج را رتبه‌بندی، آستانه‌ها را تعیین و از بازخورد افسران اطلاعاتی برای بهبود الگوریتم استفاده می‌کنیم.»

وی خاطرنشان کرد که ارتش اسرائیل حداقل یک فرمانده موشکی جوخه حماس و یکی از واحدهای موشکی ضد تانک حماس را از این طریق پیدا کرده است. او از جنگ 2021 غزه به عنوان نخستین جنگ دیجیتال یاد کرد و اظهار داشت که افسران چند پیشرفت بزرگ را مشاهده و سیستم ‌ا را 150 بار در 10 روز به‌روزرسانی کرده‌اند.

بحث آزاد در مورد استفاده ارتش اسرائیل از هوش مصنوعی باعث نگرانی 2 محقق به نام‌های تال میمران (Tal Mimran) و لیور واینشتاین (Lior Weinstein) از دانشگاه عبری اورشلیم شد. این زوج عجله برای پذیرش هوش مصنوعی را «نابه‌هنگام» نامیدند و هشدار دادند که استفاده از هوش مصنوعی به «احتیاط بیشتری» در هنگام استقرار ابزارها نیاز دارد.

یکی از نگرانی‌هایی که محققان در مقاله‌شان در وب‌سایت مؤسسه لیبر (Lieber) وست پوینت (West Point) منتشر کرده‌اند، بر عدم شفافیت در مورد چگونگی دستیابی هوش مصنوعی به نتیجه‌گیری‌های آنها، که اسرائیل براساس آن عمل می‌کند و همچنین نگرانی‌هایی مبنی بر اینکه چنین ابزارهایی ممکن است از سوی شرکای نظامی خصوصی مورد سوءاستفاده قرار گیرد، تمرکز کرده است.

به گفته محققان، بسیار مهم است که اسرائیل از این فناوری علیه چه کسی استفاده می‌کند و استفاده از آن علیه کشوری با فناوری‌های پیشرفته دیگر مانند ایران در مقابل ساکنان کرانه باختری بر «ادراکی» که پیرامون استفاده از این ابزارها ایجاد می‌شود، تأثیر می‌گذارد.

علاوه بر این، آنها استدلال کردند که استفاده از ابزارهای هوش مصنوعی گروه‌های دشمن را دعوت می‌کند تا از این ابزارها نیز علیه ارتش اسرائیل و شهروندان اسرائیلی استفاده کنند، با این استدلال که کاربرد ارتش اسرائیل استفاده متقابل از این ابزارها را توجیه می‌کند.

اوری این مسائل را به عنوان بخشی از چالش بزرگ تصدیق و تأکید کرد که عنصر انسانی برای استفاده منصفانه و ادغام فناوری هوش مصنوعی حیاتی است.

وی افزود : «ماهیت تحول دیجیتال تغییر این سازمان است. ما و بسیاری از ارگان‌هایی که با یکدیگر همکاری می‌کنند، به یک ارتباط نیاز داریم و سپس تحول آغاز می‌شود. بخشی از آن صحبت کردن به یک زبان است، بخشی از آن درک بزرگی فرصت و نوع تغییر است. ما به دنبال جایگزینی افراد نیستیم، بلکه به دنبال بهبود و ارتقای سطح اثربخشی عملیاتی هستیم. در شمارش شما به عنوان یک انسان محدودیتی وجود دارد که می‌توانید پردازش کنید.»

نگرانی آمریکا از ورود چین به هوش مصنوعی

جمعه, ۲۵ فروردين ۱۴۰۲، ۰۴:۲۱ ب.ظ | ۰ نظر

اعلام کشور چین برای توسعه هوش مصنوعی نگرانی‌هایی را در آمریکا و اروپا ایجاد کرده و درخواست‌هایی را برای اعمال مقررات و ممنوعیت ها علیه این جریان ایجاد کرده است.
به گزارش تسنیم به نقل از "ان تی وی" آلمان، کشور چین می خواهد از توسعه هوش مصنوعی حمایت کند . این بیانیه باعث نگرانی اروپا و ایالات متحده شده است و فراخوان های اعمال مقررات یا ممنوعیت ها بلندتر می شود.

به این ترتیب دستورات برنامه‌ریزی شده چین برای جهت‌گیری ایدئولوژیک سیستم‌های هوش مصنوعی آن، به درخواست‌ها در غرب برای تنظیم این صنعت به سرعت در حال تحول دامن زده است.

فلوریان تورسکی، وزیر امور مربوط به دیجیتالی سازی اتریش در این باره گفت که در صورت اجرای این طرح‌ها، لازم است سیستم‌های هوش مصنوعی ایجاد شده در چین از بازار اتحادیه اروپا حذف و در اروپا ممنوع شوند.

"چاک شومر"، رهبر اکثریت مجلس سنای ایالات متحده، همچنین به چین اشاره کرد و از نیاز به اقدام سریع با توجه به تأثیر هوش مصنوعی بر جامعه آمریکا و اقتصاد جهانی صحبت کرده و تاکید کرد که او در حال تدارک یک طرح غیرحزبی برای این منظور است.

تنظیم‌کننده اینترنت چین، CAC، روز سه‌شنبه اعلام کرد که از توسعه هوش مصنوعی مولد برای مثال، نوع فناوری ChatGPT پشتیبانی می‌کند . در این بیانیه آمده است: با این حال، محتوای متناظر باید با ارزش های اساسی سوسیالیستی مطابقت داشته باشد. بنابراین، ارائه‌دهندگان باید در قبال داده‌ها مسئول باشند و در صورت عدم رعایت قوانین باید منتظر مجازات باشند.

"تورسکی" اعلامیه چین را تهدیدی برای دموکراسی خوانده و گفت: هوش مصنوعی نباید از هیچ ایدئولوژی تحمیلی دولتی پیروی کند. این منجر به ورود سیستم های هوش مصنوعی چینی به اروپا می شود که ردپای ایدئولوژیک حزب کمونیست چین را دارند. بنابراین وی از کمیسیون اتحادیه اروپا خواسته است تا مجموعه قوانین مربوط به قانون هوش مصنوعی را در اسرع وقت تکمیل کند. این مسئله در نظر گرفته شده است تا اطمینان حاصل شود که از پتانسیل هوش مصنوعی می توان به طور ایمن استفاده کرد. تورسکی توضیح داد که نمی توان تا اوایل سال 2025 برای مقررات اتحادیه اروپا صبر کرد. دو سال پیش، کمیسیون اتحادیه اروپا اولین پیش‌نویس این قانون را با هدف محافظت از شهروندان در برابر خطرات هوش مصنوعی ارائه کرد.

به گفته وی با این حال، به دلیل توسعه سریع، امیدها برای توافق در سطح اتحادیه اروپا از بین رفت.

به گفته دفتر شومر، ایالات متحده ماه هاست در مورد یک چارچوب اساسی برای مقررات بحث کرده است و کارشناسان برجسته هوش مصنوعی نیز در این کار حضور داشتند. هدف ارائه مشخصاتی است که بتوان آن را با پیشرفت‌های بعدی تطبیق داد. در ابتدا هیچ نظری از سوی جمهوری خواهان وجود نداشت. آنها اکثریت مجلس نمایندگان را در اختیار دارند و به طور سنتی در مورد مقررات ایالتی تردید دارند. روز سه‌شنبه، دولت جو بایدن، رئیس‌جمهور آمریکا اولین گام‌ها را به سوی دستورالعمل‌های ممکن برداشت و اعلام کرد که یک کمیته مشورتی در وزارت بازرگانی خواستار بیانیه‌های عمومی درباره مکانیسم پاسخگویی برای هوش مصنوعی شد.

هوش مصنوعی مولد از طریق ChatGPT هلدینگ مایکروسافت OpenAI موجی در سیاست و تجارت ایجاد کرده است. به عنوان مثال، این برنامه می تواند به سوالات پاسخ دهد یا متون کامل را بر اساس چند کلمه کلیدی ایجاد کند. مقادیر زیاد و از پیش تغذیه شده متن به عنوان پایه عمل می کند. نگرانی هایی در مورد پاسخ های نادرست و حفاظت از داده ها در این تکنولوژی وجود دارد. ChatGPT در ایتالیا مسدود شده است. . افسر حفاظت از داده های فرانسه CNIL هم این اقدام را در دستور کار قرار داده است. در آلمان، وزارت دیجیتال فدرال این ممنوعیت را رد می کند.

استفاده و سواستفاده ایرانی‌ها از ChatGPT

سه شنبه, ۲۲ فروردين ۱۴۰۲، ۰۲:۱۸ ب.ظ | ۰ نظر

عباس پورخصالیان – تا پیش از معرفی چَتباتِ OpenAI در اکتبر سال 2022، برترینِ فراورده‌های هوش مصنوعی، روبات‌هایی خودکار بودند. عروس روبات‌های خودکار نیز خودروهای خودرانِ ساخت کارخانۀ تسلای ایلان ماسک

اپراتورها و آینده هوش مصنوعی در ایران

سه شنبه, ۲۲ فروردين ۱۴۰۲، ۱۱:۴۷ ق.ظ | ۰ نظر

هوش مصنوعی یا به اختصار AI اکنون وارد فاز رشد انفجاری خود شده و آینده بسیاری از فناوری‌های دیگر نیز بر پایه همین فناوری شکل می‌گیرد.  

توانایی هوش مصنوعی در هک نیمی از پسوردها

يكشنبه, ۲۰ فروردين ۱۴۰۲، ۰۶:۲۷ ب.ظ | ۰ نظر

متخصصان از مدل هوش مصنوعی سخن به میان می آورند که توان شکستن نیمی از پسوردهای موجود روی کرۀ زمین در کمتر از یک دقیقه را دارد!

به گزارش برنا، هوش مصنوعی (Artificial Intelligence) مولد تاکنون کاربرد های بسیاری برای کاربران داشته است. برخی از این کارکردها امکان دارد بسیار خطرناک باشند. طبق گزارش ۹to5Mac، سرویس مبتنی بر هوش مصنوعی به نام PassGAN قادر است نیمی از پسوردها را تنها کمتر از یک دقیقه تشخیص دهد. همچنین رمز عبور ۷۱ درصد از آن ها در کمتر از یک روز شناسایی شد.

ماه گذشته مایکروسافت (Microsoft) ضمن اشاره به خطرات هوش مصنوعی در آینده از سرویس جدیدی به نام Security Copilot رونمایی کرد که میتواند از بروز این خطرات جلوگیری کند. همچنین پژوهشگران امنیتی می توانند در مقابل سواستفاده از تجهیزات مدرن از این قابلیت استفاده کنند. یک شرکت امنیتی به نام Home security Heroes در این مورد تحقیقاتی را انجام داده است. این شرکت با این مطالعه چهره ترسناک و قدرتمند هوش مصنوعی مولد را نشان داده است. در این تحقیق از سیستم PassGAN و حدود ۱۵ میلیون نام کاربری و رمز عبور استفاده شد.

پس از این موضوع محققان امنیتی بطور دستی رمزهای عبور شکسته شده را مورد بررسی قرار دادند. البته PassGAN میتواند بطور خودکار در فهرست های فاش شده به سراغ توزیع رمزهای عبور واقعی رفته و آن ها را یاد بگیرد.

کاربران برای ایمن داشتن حساب های کاربری خود باید از رمز عبورهای ایمن تر استفاده کنند. یک رمز عبور ایمن شامل ۱۲ کاراکتر است که در آن حروف کوچک و بزرگ، عدد و نمادها استفاده شده باشد. این رمز عبورها به راحتی رمزهای عبور ساده تشخیص داده نخواهند شد.

۱۰ شغل در معرض خطر با هوش مصنوعی

يكشنبه, ۲۰ فروردين ۱۴۰۲، ۰۶:۱۱ ب.ظ | ۰ نظر

در مطلب زیر به بررسی قربانیان نگون بخت انقلاب تکنولوژی ۲۰۲۳ پرداخته‌ایم.
این روزها به هر طرف که نگاه می‌کنید صحبت از هوش مصنوعی است. همان طور که متاورس(محیط‌های مجازی سه بعدی، شبیه به زندگی واقعی) در سال ۲۰۲۲ بسیار بر سر زبانها بود، امسال نیز هوش مصنوعی روی کار آمده است؛ نوآوری تکنولوژیکی که یا نحوه زندگی ما را بهبود می‌بخشد یا آن را تهدید خواهد کرد.

اگرچه زندگی دوم (به انگلیسیSecond Life، یک دنیای مجازی است که در آن کاربران کامپیوتر می‌توانند یک شخصیت مجازی بسازند و زندگی مجازی را تجربه کنند) به واقعیت تبدیل نشد، اما احتمالا هوش مصنوعی بسیار تأثیرگذارتر خواهد بود. برخی آن را با ظهور اتوماسیون در چند دهه اخیر مقایسه می‌کنند، که در آن تمام صنایع توسط ماشین‌های روباتیک و خودکار تغییر شکل دادند. هوش مصنوعی نیز خبر از همین سرنوشت برای مشاغل اداری را می‌دهد و طبق گزارش اخیر گلدمن ساکس، تخمین زده می‌شود که هوش مصنوعی جایگزین ۳۰۰ میلیون کارگر انسانی شود. در اینجا به بررسی ۱۰ شغلی می‌پردازیم که هوش مصنوعی می تواند آنها را کاملا نابود کند.

 

۱- حسابدارها

گام بعدی در توسعه مدل‌های جدید هوش مصنوعی، آموزش برنامه‌های تخصصی‌تر خواهد بود، تا آنها بتوانند بجای آموزش در طیف وسیعی از داده‌ها، مسیرهای هدفمندتری را دنبال کنند. یکی از هدفمندترین و امیدوارکننده‌ترین این مسیرها، ساختن یک هوش مصنوعی برای انجام وظایف اصلی حسابداری است. شغل حسابداران محدود به قوانینی واضح و قابل درک است، و این دقیقا همان چیزی است که برای آموزش یک هوش مصنوعی استفاده می‌کنید.

در حال حاضر شرکت‌های حسابداری مانند Sage برای خودکار سازی فرآیندهای خود از هوش مصنوعی استفاده می‌کنند و با پایدار و قابل اعتماد شدن این الگوریتم‌ها، نیاز به نیروی کار انسانی کاهش می‌یابد. اتوماسیون، کار حسابدارانی که در سطوح پایین کار می‌کنند را حذف خواهد کرد و این صنعت تنها به حسابرسان و ناظران ارشد برای بررسی کارهای انجام شده توسط هوش مصنوعی نیاز خواهد داشت.

 

۲- مدیران محتوا

در مورد بار عاطفی محتوای شبکه‌های اجتماعی مانند فیس‌بوک و توییتر مطالب زیادی نوشته شده است. موضوعی که ناظران محتوای خود را مجبور می‌کنند تا عکس‌ها، ویدیوها و سایر محتواهای وحشتناک را فیلتر کنند تا بقیه، آنها را نبینند. بخش قابل توجهی از این کار قبلاً توسط الگوریتم‌های هوش مصنوعی بررسی شده است، اما اغلب، تصمیم نهایی باید توسط یک انسان گرفته شود. طبیعتا با پیشرفت این برنامه‌ها، تعداد تصمیمات انسانی کاهش می‌یابد و هوش مصنوعی روز به روز دقیق و دقیق تر می‌شود. با اینکه ما هرگز دوست نداریم کسی شغل خود را از دست بدهد، اما هر چقدر تعداد افرادی که مجبور هستند این اصلاحات وحشتناک را انجام دهند کمتر شود، بهتر است.

 

۳- معاونان و مشاوران حقوقی

این ایده قبلا مطرح شده که به هوش مصنوعی اجازه داده شود تا در دادگاه‌ها حاضر شده و پرونده‌ها را دنبال کنند، اما هنوز مطمئن نیستیم که هیچ الگوریتمی آماده باشد تا در مقابل یک قاضی حاضر شود و یا حتی مشتری را پیدا نخواهید کرد که دفاع از پرونده خود را به دست یک هوش مصنوعی بسپارد. اما احتمالا زمانی که وکلا بفهمند تا چه حد می‌توانند از هوش مصنوعی در بررسی رویه قضایی برای تهیه خلاصه پرونده‌ها و احکامی که به آن استناد می‌کنند استفاده کنند، رده‌های پایین‌تر شغلی در این زمینه، احساس آسیب‌پذیری خواهند کرد. هیچ پرونده‌ای بدون بررسی پیشینه‌های تاریخی و بدون کمک یک تیم که این کار را انجام دهند به دادگاه نخواهد رفت، و این کاری است که ماشین‌ها در انجام آن فوق‌العاده هستند. البته برای این شغل بخشی وجود دارد که نیاز به تفسیر دارد، و این کار را می‌توان به اعضای ارشد تیم سپرد.

 

۴- تصحیح کنندگان

همه می‌دانیم که توانایی ChatGPT برای تولید متون خوانا ثابت شده است، اما کیفیت واقعی آن متون می‌تواند بسیار ضعیف باشد. با این حال، از هوش مصنوعی می‌توان به عنوان یک مصحح برای متونی که توسط انسان‌ها نوشته شده است استفاده کرد. روش کار به این صورت است که در نرم‌افزارهایی مانند Google Docs که برای نوشتن و پردازش متون استفاده می‌شوند، زیر کلماتی که املای آنها غلط است یک خط قرمز کشیده می‌شود، و تصحیح این غلط‌ها، کاری است که به طور سنتی توسط انسان‌ها انجام می‌شده است. اما با گسترده شدن مجموعه داده‌های هوش مصنوعی، آنها می‌توانند به خوبی از عهده انجام این کار بربیایند.

 

۵- معامله گران

درک جریان آشفته بازارهای مالی کار سختی است، و افرادی که در راس این مشاغل هستند اغلب بر اساس غریزه و ادراک عمل می‌کنند. اما معامله‌گران سهام بانک‌های بزرگ، که در سطح مبتدی هستند و به تازگی از دانشگاه بازرگانی خارج شده‌اند، بیشتر وقت خود را صرف مدل‌سازی پیش‌بینی در برنامه اکسل و انجام مدیریت داده‌ها می‌کنند. این کاری نیست که اتکای زیادی به محاسبات مغز انسان داشته باشد، و انجام آن توسط هوش مصنوعی کارآمدتر خواهد بود؛ زیرا احتمال خطا کاهش یافته و هوش مصنوعی می‌تواند مدل‌سازی‌های مقایسه‌ای پیچیده‌تری را انجام دهد. افرادی با مشاغل سطح بالاتر و کسانی که در این بانک‌ها و صندوق‌ها نقش مهم‌تری دارند همچنان مورد نیاز خواهند بود، اما افراد پایین این هرم باید آماده باشند تا هوش مصنوعی خیلی زود جای آنها را بگیرد.

 

۶- تایپیست‌ها(کسانی که گفتار را به متن تبدیل می‌کنند)

این جایگزینی از مدت‌ها قبل آغاز شده است، زیرا الگوریتم‌های تشخیص صدا در دهه‌های گذشته با سرعت خیره‌کننده‌ای پیشرفت کرده‌اند. سیستم‌های تبدیل گفتار به متن برای اولین بار در سال ۱۹۵۲عرضه شدند، اما یادگیری ماشینی مدرن، سیستم‌ها را قادر ساخته تا مجموعه داده‌های عظیمی از گفتار انسان را برای ایجاد رونویسی صوتی فوق‌العاده دقیق و سریع دریافت کنند. مشاغل زیادی از جمله وکالت و روزنامه‌نگاری، به تایپ و تبدیل فایل‌های صورتی به نوشتاری وابسته هستند، و در آینده‌ای نزدیک تمام این کارها توسط ماشین‌ها انجام خواهند شد.

 

۷- طراحان گرافیک

از بین رفتن این شغل بسیار دردناک است، اما این واقعیت تلخی است که در حال وقوع است. مدل‌های هوش مصنوعی قبلاً توانایی ایجاد تصاویر در سبک‌های مختلف را نشان داده‌اند. طراحی گرافیکی، که اصول خاصی از رنگ، ترکیب و خوانایی را رعایت می کند، فرصت‌های زیادی برای آزمون و خطا داشته است. تصور کنید بتوانید یک متن و چند عکس را به یک هوش مصنوعی طراح بدهید و این هوش مصنوعی ده‌ها طرح مختلف برای یک مجله، بیلبورد، یا مطالب تصویری به شما ارائه دهد. وقتی مشتری طرحی را انتخاب می‌کند، تبدیل طرح انتخابی او به یک فایل نهایی و آماده چاپ کاری ساده است. ممکن است که "تخیلات" از بین رفته باشد، اما اکثریت قریب به اتفاق مشتریان طراحی، در وهله اول خواهان تخیل نیستند.

 

۸- خدمات مشتری(خدمات پس از فروش)

یکی از سرگرمی‌های آمریکایی‌ها شکایت از خدمات پس از فروش است، فرقی نمی‌کند که این خدمات از خارج برای آنها مهیا شود یا حتی ارائه‌دهنده آن انسان نباشد. همانطور که نرم‌افزارهای تبدیل متن به گفتار سریعتر و پیشرفته‌تر می‌شوند، پس باید انتظار داشته باشید کسی که آن طرف خط تلفن پاسخگوی شماست، هوش مصنوعی است. سرمایه‌گذاری بر روی هوش مصنوعی بسیار آسان‌تر از مرکز تماسی است که بسته به تعدادی از عوامل خارجی، هزینه‌های کارکنان آن غیرقابل پیش‌بینی است. همه ما به شنیدن پیغام‌های صوتی، هنگام تماس با شرکت‌ها و وصل شدن به منوهای مختلف پاسخگویی آنها آشنا هستیم و به آنها عادت کرده‌ایم. استفاده از سرویس خدمات مشتری که بصورت هوش مصنوعی باشد، گامی اجتناب ناپذیر است و صنایع نیز موافق این موضوع هستند.

 

۹- سربازان

تلفات جانی در عملیات نظامی، بار سنگینی برای یک کشور است. به همین دلیل است که استفاده از وسایل نقیله‌ای که از راه دور توسط انسان‌ها هدایت می‌شوند و همچنین سایر پیشرفت‌های تکنولوژیکی، به شکل چشم‌گیری افزایش یافته است. همچنین کسانی که به میدان‌های جنگ می‌روند، دچار آسیب‌های روانی می‌شوند که باید بتوانیم از وقوع آنها جلوگیری کنیم. تجهیزات جنگی خودکار، پدیده‌ای جدید نیستند. اما پیشرفت‌های فناوری، این امکان را ایجاد کرده تا هواپیماهای بدون سرنشین و سایر سلاح‌های جنگی، بتوانند بدون نظارت انسانی تصمیم گیری کرده و بجنگند. ممکن است جنگ جهانی سوم، جنگی بین ماشین‌ها با یکدیگر، یا جنگ ماشین‌ها با ما باشد!

 

۱۰- نویسندگان

تصور نکنید که همه متخصصان واژه‌شناس در دنیا، توسط قدرت هوش مصنوعی بیکار خواهند شد. هوش مصنوعی هنوز این توانایی را ندارد که بتواند رمانی ارزشمند در مورد شرایط انسان‌ها بنویسد. اما می‌تواند نوشته‌های زیادی فقط برای پر کردن فضای رسانه‌ها، جلب رضایت موتورهای جستجو و شاید برای ارائه اطلاعات مفید تولید کند. برخی از رسانه‌ها قبلاً از برنامه‌هایی مانند ChatGPT برای نوشتن مقالات و پست‌های وبلاگ استفاده می‌کردند. با اینکه آنها تابحال به نتایج عالی نرسیده‌اند، اما در حال نزدیک شدن به نتیجه دلخواه هستند. اگر برای شما حجم مطالب تولیدی مهمتر از کیفیت است، هوش مصنوعی پیشنهاد جذابی برایتان خواهد بود. فقط امیدوار باشید که یک هوش مصنوعی کلماتی را که در حال حاضر مشغول خواندن آن هستید را ننوشته باشد!

منبع: خبرآنلاین

آلمان به دنبال ممنوعیت چت جی‌پی‌تی است

يكشنبه, ۲۰ فروردين ۱۴۰۲، ۰۵:۴۷ ب.ظ | ۰ نظر

ایتالیا نخستین کشور غربی بود که ربات چت جی‌پی‌تی را ممنوع کرد، با این حال، این برنامه در کشور‌هایی مانند چین، ایران، کره شمالی و روسیه نیز از دسترس خارج است.
به گزارش خبرگزاری صداوسیما، به نقل از پایگاه اینترنتی ایندیپندنت، در پی اقدام ایتالیا برای ممنوعیت ربات چت هوش مصنوعی جی‌پی‌تی، آلمان نیز درنظر دارد به دلیل نگرانی درمورد حریم خصوصی، استفاده از آن را ممنوع کند.

«اولریش کلبر» رئیس حفاظت از داده‌های کشور آلمان، به روزنامه هندلسبلات (Handelsblatt) گفت به دنبال ممنوعیت این ربات چت هوش مصنوعی در ایتالیا در هفته گذشته، ناظران آلمانی با همتایان ایتالیایی خود در ارتباط هستند.

کلبر گفت: «دراصل، احتمال دارد چنین اقدامی در آلمان نیز صورت بگیرد.

پس از آنکه مقام‌های حفاظت داده‌های ایتالیا به نتیجه رسیدند که این سامانه ربات چت هوش مصنوعی مبنای قانونی مناسبی برای جمع‌آوری اطلاعات شخصی افرادی که از آن استفاده می‌کنند ندارد، آن را مسدود کردند.

اوپن ای‌آی سازنده چت جی‌پی‌تی برای کمک به الگوریتم هوش مصنوعی که پاسخ‌ها را تولید می‌کند، داده‌هایی را جمع‌آوری می‌کند.

مقام‌های ایتالیایی همچنین اوپن ای‌آی را متهم کردند که بررسی‌های تایید سنی را برای کاربران چت‌جی‌پی‌تی انجام نداده است، چون کاربران جوان احتمالا در معرض «پاسخ‌های نامناسب» قرار دارند.

اداره حفاظت از داده‌های ایتالیا (GPDP) گفت که اوپن ای‌آی برای توجیه «جمع‌آوری و ذخیره انبوه داده‌های شخصی به منظور «آموزش» الگوریتم‌های زیربنایی عملکرد این پلتفرم» هیچ مبنای قانونی ندارد.

به نوشته ایندیپندنت، گویا سایر مقام‌های حفاظت داده‌های اروپایی، از جمله ناظران فرانسه و ایرلند نیز با سازمان حفاظت داده‌های ایتالیا در ارتباط هستند.

سخنگوی کمیسیون حفاظت داده‌های ایرلند (DPC) به خبرگزاری رویترز گفت: «ما با ناظر ایتالیایی تماس داریم تا مبنای اقدام آن‌ها را بفهمیم. ما با تمام مقام‌های حفاظت از داده‌های اتحادیه اروپا درمورد این موضوع همکاری خواهیم کرد».

ایندیپندنت در ادامه نوشت: ایتالیا نخستین کشور غربی بود که چت جی‌پی‌تی را ممنوع کرد، با این حال، این برنامه در کشور‌هایی مانند چین، ایران، کره شمالی و روسیه که بسیاری از برنامه‌های آمریکا در آن مسدود است، نیز از دسترس خارج است.

سازمان مصرف‌کنندگان اروپایی (BEUC) از اتحادیه اروپا خواست خطر‌های چت جی‌پی‌تی و ربات‌های مشابه چت را برای مصرف‌کنندگان اروپایی بررسی کند. اوپن ای‌آی به درخواست ایندیپندنت برای ابراز نظر درمورد این ممنوعیت پاسخ نداد.

این شرکت به‌دنبال ممنوعیت چت جی‌پی‌تی در ایتالیا آن را در این کشور مسدود کرد و دیگر اطلاعات کاربران ایتالیایی را پردازش نمی‌کند.

خطرات چت‌ربات‌های هوش مصنوعی برای حریم خصوصی

يكشنبه, ۲۰ فروردين ۱۴۰۲، ۰۵:۳۸ ب.ظ | ۰ نظر

ربات‌های چت هوش مصنوعی، از نظر استانداردهای فنی نسبتاً قدیمی هستند، اما جدیدترین محصول که توسط چت جی‌پی‌تی و بارد هدایت می‌شود، بسیار قوی‌تر از اجداد خود فعالیت می‌کنند.

به گزارش خبرگزاری صداوسیما به نقل از انگجت، انفجار اخیر در توسعه هوش مصنوعی نگرانی‌هایی را در مورد اطلاعات نادرست، سرقت ادبی و تولید بدافزارها ایجاد کرده است.

اکنون این سوال مطرح می‌شود که هوش مصنوعی ممکن است چه مشکلاتی برای حریم خصوصی کاربران عادی اینترنت ایجاد کند؟ به گفته کارشناسان، پاسخ این سوال تا حد زیادی به نحوه آموزش این ربات‌ها و میزان برنامه‌ریزی ما برای تعامل با آنها بستگی دارد.

چت‌ربات‌های هوش مصنوعی به منظور تکرار تعاملات شبیه انسان بر روی مقادیر انبوه داده آموزش می‌بینند.

«مگا سریواستاوا» دانشجوی دکترای دپارتمان علوم کامپیوتر استنفورد و عضو سابق هوش مصنوعی مایکروسافت ریسرچ، در این باره می‌گوید: این مدل‌ها در حال واکاوی مجموعه بزرگی از داده‌های در دسترس عموم در اینترنت هستند.

حتی اگر دسترسی به این اطلاعات برای کاربران معمولی دشوار باشد، این امکان وجود دارد که توسط ربات‌چت ذخیره شود.

«دیو لی» ستون‌نویس نشریه بلومبرگ در توییتر نوشت: وقتی شخصی از چت جی‌پی‌تی خواست تا در پلتفرم پیام‌رسانی رمزگذاری‌شده چت کند، شماره تلفن دقیق او را ارائه کرد.

وقتی از OpenAI، شرکت سازنده چت جی‌پی‌تی پرسیدیم که چه اقداماتی برای محافظت از حریم خصوصی داده‌ها انجام می‌دهد‏، پاسخی نداد.

بنابراین ما بهترین کار را انجام دادیم و از خود چت جی‌پی‌تی پرسیدیم. چت جی‌پی‌تی به ما گفت که برنامه‌ریزی شده تا از استانداردهای اخلاقی و قانونی که از حریم خصوصی و اطلاعات شخصی کاربران محافظت می‌کند، پیروی کند و به اطلاعات شخصی دسترسی ندارد.

گوگل هم در پاسخ به این سوال گفت که اقدامات مشابهی را در بارد برنامه‌ریزی کرده تا از اشتراک‌گذاری اطلاعات شخصی در طول مکالمه جلوگیری کند.

چت جی‌پی‌تی‏، دومین عامل مهمی که ممکن است توسط هوش مصنوعی برای حفظ حریم خصوصی ایجاد خطر کند را از طریق اطلاعات به اشتراک گذاشته‌شده مستقیم عنوان کرد.

خط‌مشی رازداری OpenAI به اطلاعات جمع‌آوری شده از کاربران اشاره می‌کند که می‌توانند قابل شناسایی باشند.

چت جی‌پی‌تی پس از راه‌اندازی به کاربر هشدار می‌دهد که ممکن است مکالمات توسط مربیان هوش مصنوعی برای بهبود سیستم‌ها بررسی شود.

در مقابل‏، بارد خط‌ مشی رازداری مستقلی ندارد اما از سند عمومی حریم خصوصی به اشتراک گذاشته شده توسط سایر محصولات گوگل استفاده می‌کند.

این شرکت گفت که مکالمات با بارد نباید در حساب گوگل کاربر ذخیره شود و کاربران می توانند مکالماتشان را حذف کنند.

«ریشی جتلی» استاد و محقق برجسته علوم انسانی در ویرجینیا در این زمینه گفت: کاربران باید در مورد سیاست‌های حفظ حریم خصوصی و رویه‌های حفاظت از داده‌ها آگاه باشند.

بر اساس صفحه پرسش‌های متداول سرویس چت جی‌پی‌تی استفاده از امکان مکالمات پاک، عملاً داده‌های کاربر را حذف نمی‌کند و OpenAI نیز قادر به حذف درخواست‌های خاص نیست.

در حالی که OpenAI کاربرانش را از اشتراک‌گذاری هر داده حساس منع می‌کند، ظاهراً تنها راه برای حذف اطلاعات شناسایی شخصیِ ارائه‌شده به چت جی‌پی‌تی، حذف حساب کاربر است که همه داده‌های مرتبط را برای همیشه حذف می‌کند.

در نتیجه برای آینده، بهتر است با این نوع ربات‌های چت با همان سوءظنی برخورد کنیم که کاربران باید با هر محصول فناوری دیگری رفتار کنند.

به گفته «مگا سریواستاوا»، کاربری که از این مدل‌های هوش مصنوعی استفاده می‌کند باید با این توقع وارد شود که هرگونه تعامل با مدل، نوعی بازی است که OpenAI یا هر یک از این شرکت‌ها می‌توانند از آن به نفع خود استفاده کنند.

برد لاتاری به کمک «ChatGPT»!

شنبه, ۱۹ فروردين ۱۴۰۲، ۰۴:۲۱ ب.ظ | ۰ نظر

یک مرد تایوانی ادعا می‌کند از فناوری «ChatGPT» برای تولید اعدادی استفاده کرده است که به او در برنده شدن قرعه‌کشی کمک کرده‌اند.

به گزارش ایسنا و به نقل از دیجیتال ترندز، «پاتاویکورن بونرین»(Patthawikorn Boonrin)، یک کاربر تایوانی فناوری «ChatGPT» اخیرا پس از به اشتراک گذاشتن جزئیات برنده شدن خود در لاتاری، در «تیک‌تاک»(TikTok) معروف شده است. بونرین در یک ویدئو، درباره نحوه استفاده از چت‌بات هوش مصنوعی شرکت «OpenAI» برای تولید اعدادی توضیح می‌دهد که آنها را برای شرکت در قرعه‌کشی و برنده شدن به کار گرفته است. راهبرد او شامل وارد کردن چند پرسش فرضی و تعدادی از اعداد برنده قبلی برای جستجوی ChatGPT است.

اعداد برنده بونرین برای قرعه‌کشی ۵۷، ۲۷، ۲۹ و ۹۹ بود و او ۲۰۰۰ بات تایلند معادل ۵۹ دلار آمریکا برنده شد. اگرچه این یک جایزه بزرگ نبود اما بونرین در مصاحبه با یک نشریه محلی گفت که از این راهبرد برای تولید اعداد قرعه‌کشی استفاده کرد و ChatGPT به او گفت که در مورد این روش، بیش از اندازه وسواس نداشته باشد و خاطرنشان کرد که برنده شدن در بخت‌آزمایی، یک شانس است. همچنین، ChatGPT به او پیشنهاد کرد که بیرون برود و کمی ورزش کند.

بونرین قصد دارد بیشتر در مورد تجربه خود در استفاده از ChatGPT برای تولید شماره‌های قرعه‌کشی صحبت کند. مطمئنا اگر بونرین یک برد دیگر و حتی بزرگتر به دست بیاورد، توجه بیشتری را به خود جلب خواهد کرد. بونرین ممکن است شرکت‌های قرعه‌کشی را به گفتگوی مداوم پیرامون اصول اخلاقی ChatGPT وارد کند.

از زمان آغاز کار ChatGPT در نوامبر ۲۰۲۲، نظرات متعددی درباره اخلاق و مشکلات مربوط به این فناوری وجود داشته است. موسساتی مانند کالج‌ها و دانشگاه‌ها، استفاده از این چت‌بات هوش مصنوعی را با این فرض که ممکن است سرقت ادبی و تقلب را در دانشگاه‌ها افزایش دهد، ممنوع کرده‌اند. در همین حال، چندین حوزه از جمله روزنامه‌نگاری، ارتباطات، هنر، فناوری و سایر صنایع از این خدمات استقبال کرده‌اند.

با وجود این، اجرای ChatGPT بدون حماقت نبوده است. مشخص شد انتشاراتی که هوش مصنوعی را برای تولید بی‌سروصدای مقالات به کار می‌برند، قطعاتی حاوی اطلاعات نادرست منتشر می‌کنند. آثار هنری که ظاهرا شبیه انسان هستند، اندام‌های لازم را ندارند و مدل زبانی GPT که توسط شرکت‌های دیگر استفاده می‌شود، زمانی که در معرض دید عموم قرار گرفت، نادرست عمل کرد.

نمی‌توان گفت که اگر افراد بیشتری سعی کنند ChatGPT را به عنوان روشی برای تولید اعداد قرعه‌کشی به کار ببرند، چه مشکلاتی ممکن است پیش بیاید.

تلاش چت جی‌پی‌تی برای رفع فیلتر در ایتالیا

شنبه, ۱۹ فروردين ۱۴۰۲، ۰۳:۳۷ ب.ظ | ۰ نظر

آژانس حفاظت از داده‌های ایتالیا گفت: شرکت OpenAI (سازنده چت جی‌پی‌تی) قرار است اقداماتی را در جهت رفع نگرانی‌هایی که منجر به ممنوعیت این فناوری در ایتالیا شده، ارائه دهد.
به گزارش خبرگزاری صداوسیما به نقل از رویترز، آژانس حفاظت از داده‌های ایتالیا گفت: OpenAI، سازنده چت جی پی تی، قصد دارد اقداماتی را برای رفع نگرانی‌هایی که منجر به ممنوعیت این فناوری در ایتالیا شده، ارائه دهد.

شرکت OpenAI تحت حمایت مایکروسافت، پس از آن که این آژانس هفته گذشته چت جی پی تی را به طور موقت محدود و تحقیقاتی را در مورد نقض مشکوک به قوانین حریم خصوصی آغاز کرد، چت جی پی تی را در ایتالیا آفلاین کرد.

این آژانس هفته گذشته OpenAI را متهم به اینکه سن کاربران چت جی پی تی را بررسی نکرده و عدم وجود هرگونه مبنای قانونی که جمع آوری و ذخیره گسترده داده‌های شخصی را توجیه کند، متهم کرد.

روز پنجشنبه این آژانس اعلام کرد که قصد ندارد مانع توسعه هوش مصنوعی شود، اما بر اهمیت احترام به قوانین با هدف حفاظت از اطلاعات شخصی شهروندان ایتالیایی و اروپایی تاکید کرد.

این آژانس گفت: OpenAI متعهد شد که در مورد نحوه مدیریت داده‌های کاربر و تایید سن کاربر شفاف‌تر عمل کند.

این شرکت هم گفت که سندی را در مورد اقدامات لازم برای پاسخگویی به درخواست‌های این آژانس ارسال خواهد کرد.

شرکت OpenAI یک پست وبلاگی با عنوان رویکرد ما به ایمنی هوش مصنوعی منتشر کرد و در آن گفت که در حال تلاش برای ایجاد سیاست‌های ظریف در برابر رفتار‌هایی است که نشان دهنده یک خطر واقعی برای مردم است.

در این بیانیه آمده: ما از داده‌ها برای فروش خدمات، تبلیغات یا ساختن پروفایل افراد استفاده نمی‌کنیم. ما از داده‌ها استفاده می‌کنیم تا مدل‌ها را برای افراد مفیدتر کنیم. برای مثال، چت جی پی تی با آموزش بیشتر در مورد مکالمه‌ای که مردم با آن دارند، بهبود می‌یابد. در حالی که برخی از داده‌های آموزشی ما شامل اطلاعات شخصی است که در اینترنت در دسترس است، ما می‌خواهیم مدل‌های ما در مورد جهان یاد بگیرند، نه افراد خصوصی.

این شرکت گفت: در صورت امکان اطلاعات شخصی را از مجموعه داده‌های خود حذف می‌کند.

ممنوعیت ایتالیا، حساسیت سایر تنظیم‌کننده‌های حریم خصوصی در اروپا را برانگیخته و در حال بررسی این هستند که آیا اقدامات سخت‌تر برای چت‌بات‌ها مورد نیاز است یا خیر.

در ماه فوریه، آژانس حفاظت از داده‌های ایتالیا شرکت ربات چت هوش مصنوعی Replika را از استفاده از اطلاعات شخصی کاربران ایتالیایی منع کرد و دلیل آن را خطراتی برای خردسالان و افراد احساسی دانست.

 

کار و بار سکه فیلترشکن فروش‌های ایتالیایی بعد از فیلتر یک اپلیکیشن

با محدود شدن دسترسی به «چت جی‌پی‌تی» در ایتالیا کاربران اینترنت در این کشور در به در دنبال فیلترشکن می‌گردند و جستجوی کلمه «VPN» رشدی باورنکردنی داشته است.

با فیلترشدن سرویس هوش مصنوعی محبوب «چت جی‌پی‌تی» در ایتالیا مردم این کشور بیش از هر زمانی دیگری اینترنت را برای یافتن فیلترشکن جستجو می‌کنند.

به گزارش خبرآنلاین، یک نهاد نظارتی در ایتالیا جمعه گذشته ممنوعیت فوری دسترسی به ربات چتِ محبوبِ مبتنی بر هوش مصنوعی ساخته شرکت آمریکایی «اُپن اِی. آی. / OpenAI» به دلیل ادعای نقض حریم خصوصی را صادر کرد.

حالا با محدود شدن دسترسی به این سرویس در ایتالیا کاربران اینترنت در این کشور در به در دنبال فیلترشکن می‌گردند و جستجوی کلمه «VPN» رشدی باورنکردنی داشته است.

روش پاسخ چت هوش مصنوعی به سؤالات

شنبه, ۱۹ فروردين ۱۴۰۲، ۰۳:۲۵ ب.ظ | ۰ نظر

این روزها در هر جمعی که باشید امکان ندارد حرف و حدیثی از هوش مصنوعی و چت‌جی‌پی‌تی نشنوید. برخی از افراد آن را یک اتفاق بسیار مهم و در واقع یک انقلاب در حوزه هوش مصنوعی می‌دانند و بسیاری حتی از سازوکار آن بی‌اطلاعند. در واقع ربات ChatGPT با درک بهتر زبان طبیعی انسان جهت ارائه پاسخ‌های دقیق‌ طراحی شده است.

تبیان نوشت: ChatGPT دستاورد شرکت تحقیقاتی OpenAI است که یک نمونه اولیه از چت‌بات دیالوگ‌ محور مبتنی بر هوش مصنوعی به حساب می‌آید که می‌تواند زبان طبیعی انسان را متوجه شود و متون نوشتاری بسیار دقیقی مشابه انسان تولید کند.
این دستاورد توانسته انقلابی در حوزه هوش مصنوعی ایجاد کند و  به کاربر این قابلیت را می‌دهد که با یک ربات صحبت کند و از او سوال بپرسد. این ربات به قدری پتانسیل بالایی دارد که توانسته به راحتی مقاله بنویسد، امتحان بدهد، ایمیل بفرستد و حتی مسائل پیچیده برنامه نویسی و ریاضیات را حل کند.

 

چت هوش مصنوعی چطور کار می‌کند؟

اما سؤالی که ذهن بسیاری از ما را درگیر کرده این است که این فناوری چگونه کار می‌کند و اصلا جواب این همه سوال را از کجا می‌آورد. اگر به صورت تخصصی بخواهیم جواب این پاسخ را بدهیم باید ابتدا اطلاعاتی درباره پردازش زبان طبیعی و مدل زبانی بزرگ داشته باشیم.
پردازش زبان طبیعی (Natural Language Processing) که به اختصار NLP نیز نامیده می‌شود، روشی است برای درک زبان انسانی برای رایانه؛ این علم یکی از زیر شاخه‌های دانش هوش مصنوعی محسوب می‌شود و به رایانه‌ها کمک می‌کند تا با آگاهی از چگونگی استفاده بشر از زبان، زبان انسانی را درک کند.
حال جدیدترین پیشرفت‌ها در حوزه پردازش زبان طبیعی مدل‌های زبانی بزرگ (Large language model) یا به اختصار LLM هستند. از این مدل‌های بزرگ زبانی می‌توان به LaMDA و یا GPT-3 اشاره کرد.
GPT-3 که مخفف Generative Pre-trained Transformer است، یک مدل زبانی به حساب می‌آید که از یادگیری عمیق برای تولید متنی شبیه انسان استفاده می‌کند. حال ChatGPT نیز در واقع مبتنی بر نسخه‌ی به‌روز شده GPT-3 است. LaMDA هم همان مدل زبانی است که چند ماه پیش، یکی از کارمندان گوگل بنام بلیک لموین مدعی شد این مدل زبانی خودآگاه است و به ادراک رسیده است. در واقع این کیفیت متن تولید شده توسط این مدل‌های زبانی و به ویژه GPT-3 به حدی بالا است که تعیین اینکه آیا توسط انسان نوشته شده‌است یا خیر، دشوار است.
حال برگردیم به موضوع اصلی، ChatGPT یک مدل زبان مبتنی بر ترانسفورماتور است که از تکنیک‌های یادگیری عمیق برای تولید متن استفاده می‌کند.
ترانسفورمر یا تبدیل کننده بنابر تعریف گوگل مدلی تولید می‌کند که می‌تواند برای خواندن کلمات پشت سرهم (مثلا یک جمله یا پاراگراف) آموزش داده شود و به نحوه‌ی ارتباط آن کلمات با یکدیگر را بررسی و سپس پیش‌بینی می‌کند که به‌نظرش، کلمات بعدی چه خواهند بود. به زبان ساده یعنی ترانسفورمر به جای بررسی کلمه به کلمه کل جملات را هم‌ زمان بررسی می‌کند و می‌تواند روابط بین آن‌ها را برای درک بهتر کلام ورودی و متناسب با موقعیتی که این جملات به‌کار رفته‌اند، مدل‌سازی کند.

 

این سیستم چطور پاسخ درست با جمله‌بندی مناسب ارائه می‌‌دهد؟

وقتی کاربر یک سؤال می‌پرسد و یا یک درخواستی دارد، چت جی‌پی‌تی آن را به عنوان اطلاعات ورودی دریافت می‌کند و از این اطلاعات برای ایجاد یک پاسخ منسجم و مرتبط با زمینه استفاده می‌کند. هوش مصنوعی از طریق استفاده از تکنیک‌های یادگیری عمیق، الگوریتم‌های آموزش داده شده و با استفاده از منبع عظیم داده‌های متنی که دارد، می‌تواند پاسخی را تولید کند که هم از نظر گرامری صحیح و هم از نظر معنایی معنی‌دار باشد. البته اکثر کارشناسان بر این باورند که این گونه سوال و جواب و شیوه پاسخگویی برای افراد عادی ساخته شده و نه متخصصان هر حوزه. در واقع اینگونه برداشت می‌شود که پاسخ‌های ارائه شده در صد در صد مواقع درست نیست و نباید در موارد تخصصی به آن تکیه کرد.

 

ChatGPT با موتور جستجو چه تفاوتی دارد؟

حال که تا حدودی با نحوه کار این ربات آشنا شدیم، این سؤال پدید می‌آید که پس چه تفاوتی با موتورهای جستجو دارد؟
هدف این چت‌بات گفتگو با کاربر طراحی شده در حالیکه موتور جستجو، فهرستی از داده‌های موجود بر روی شبکه اینترنت را تهیه می‌کند. یعنی ChatGPT توانایی جستجو در داده‌های موجود بر روی شبکه اینترنت را ندارد و از اطلاعاتی که برای آموزش آن استفاده شده و استفاده از منبع اطلاعاتش در ارائه خروجی استفاده می‌کند. در واقع تا عمق بسیار زیادی از کتاب‌ها، مقالات و محتواهای منتشر شده بر بستر اینترنت را تا پایان سال 2021 خوانده و ذخیره کرده است. برای درک این مطلب یک مثال می‌زنیم: فرض کنید می‌خواهید نتیجه یک مسابقه فوتبال را که ساعتی قبل به پایان رسیده بدانید و یا مثلا قیمت روز بیت کوین را بپرسید، قاعدتا پاسخ اشتباه می‌دهد، در صورتی که در کسری از ثانیه موتور جستجوی گوگل پاسخ صحیح را به شما ارائه می‌دهد.
البته ناگفته نماند نسخه حرفه‌ای‌تر ChatGPTکه اصطلاحا به آن Playground یا زمین بازی می‌گویند، به اینترنت متصل است، قابلیت جستجو و تنظیمات دارد ولی مانند ChatGPT رایگان نیست و هزینه اشتراک ماهانه دارد. ولی چیزی که این روزها اکثر افراد درباره آن صحبت می‌کنند، چت جی‌پی‌تی است که اطلاعاتش تا آخر 2021 بروز شده و نواقصی در خود دارد که نمی‌شود به طور کامل به پاسخ‌های آن اتکا کرد و بیشتر به عنوان یک مشاور کارایی دارد.

پایان پیام/ت

 

ورود علی بابا به میدان رقابت با ChatGPT

شنبه, ۱۹ فروردين ۱۴۰۲، ۰۳:۱۳ ب.ظ | ۰ نظر

شرکت علی‌بابا آزمایش مدل هوش مصنوعی خود را آغاز کرده است و می‌خواهد با این محصول به جنگ ChatGPT برود.
به گزارش خبرگزاری صدا و سیما، شرکت علی‌بابا، غول تجارت الکترونیک چین، درحال کار روی یک مدل هوش مصنوعی جدید است و از کاربران دعوت کرده تا به آزمایش چت‌بات آن‌ها موسوم به Tongyi Qianwen بپردازند. این چت‌بات در رقابت با ChatGPT ساخته شده که در ماه‌های اخیر توجهات بسیاری را به خود جلب کرده است.
براساس گزارش رویترز، علی‌بابا به‌دنبال شرکت‌هایی می‌گردد که حاضر به آزمایش چت‌بات هوش مصنوعی آن‌ها باشند. این چت‌بات ظاهراً نه برای عموم کاربران، بلکه با هدف استفاده تجاری توسط کسب‌وکار‌ها ساخته شده است. علی‌بابا در همین زمینه مکاتباتی را از طریق WeChat با شرکت‌ها انجام داده تا آزمایش این نرم‌افزار را شروع کنند.
خبرگزاری South China Morning Post نیز می‌گوید مشتریان تجاری این شرکت می‌توانند به‌وسیله اکانت رسمی WeChat کسب‌وکار ابری علی‌بابا به این چت‌بات دسترسی پیدا کنند. افرادی که مایل به انجام این کار هستند، می‌توانند شماره تلفن و آدرس ایمیل خود را در اختیار این شرکت قرار دهند تا با آن‌ها تماس برقرار شود.
درحال‌حاضر اطلاعات زیادی درباره قابلیت‌های Tongyi Qianwen در دسترس نیست، اما کسب‌وکار ابری علی‌بابا سه‌شنبه همین هفته رویدادی برگزار خواهد کرد تا به‌صورت رسمی از این چت‌بات پرده بردارد. پس از این مراسم می‌توانیم مقایسه دقیق‌تری بین این هوش مصنوعی، ChatGPT، بینگ مایکروسافت و بارد گوگل داشته باشیم.
با توجه به رقابت سنگین شرکت‌های فناوری در حوزه هوش مصنوعی، اگر Tongyi Qianwen برتری خاصی نسبت به محصولات رقبا داشته باشد، بقیه شرکت‌ها هم طبیعتاً بیکار نخواهند نشست و به‌دنبال توسعه مدل‌های خود می‌روند تا از این رقابت عقب نمانند.
بلومبرگ می‌گوید نام چت‌بات علی‌بابا با الهام از «منسیوس»، فیلسوف چینی، انتخاب شده است و ترجمه آن تقریباً معادل «حقیقت هزاران سؤال» است. از آنجایی که وب‌سایت مربوط به این سرویس تنها به زبان چینی در دسترس است، بعید به‌نظر می‌رسد که خود مدل هوش مصنوعی با زبان‌های دیگری عرضه شود.

تفاوت عکس‌های واقعی با عکس‌های هوش مصنوعی

جمعه, ۱۸ فروردين ۱۴۰۲، ۰۴:۳۸ ب.ظ | ۰ نظر

سیستم‌های تولید تصویر مبتنی بر هوش مصنوعی تشخیص عکس‌های جعلی را چنان سخت می‌کنند که برای شناسایی آن‌ها مجدد به هوش مصنوعی نیاز داریم.

به گزارش برنا؛ شاید عکس‌هایی را دیده باشید که چیز دیگری را نشان می‌دهند، مانند تصاویر بازداشت دونالد ترامپ، رئیس‌جمهور سابق آمریکا هفته گذشته یا یک کت سفید شیک و درخشان به تن پاپ در فرانسه.

این تصاویر ویروسی اخیر ثمره سیستم‌های هوش مصنوعی است که درخواست متنی کاربر را برای ایجاد تصاویر پردازش می‌کند. آن‌ها نشان می‌دهند که چگونه این برنامه‌ها به سرعت توسعه یافته و اکنون به اندازه‌ای قانع‌کننده هستند که یک ناظر را ناخواسته فریب دهند.

پس چگونه کاربران می‌توانند تصاویری را که ممکن است توسط یک سیستم هوش مصنوعی مانند DALL-E، Midjourney یا Stable Diffusion تولید شده باشد، تشخیص دهند؟ هر مولد تصویر هوش مصنوعی و هر تصویر از هر مولد مشخصی در میزان متقاعدکننده بودن و اینکه چه علائمی ممکن است الگوریتم خود را از بین ببرد، متفاوت است؛ به عنوان مثال، سیستم‌های هوش مصنوعی در طول تاریخ برای تقلید از دست‌های انسان تلاش کرده‌اند و زائده‌های درهم ریخته با ارقام بیش از حد تولید کرده‌اند. با این حال با پیشرفت فناوری، به نظر می‌رسد سیستم‌هایی مانند Midjourney V۵ این مشکل را برطرف کرده‌اند، حداقل در برخی نمونه‌ها. در کل کارشناسان می‌گویند تشخیص بهترین تصاویر از بهترین ژنراتور‌ها اگر غیرممکن نباشد، دشوار است.

شیام ساندار محقق دانشگاه ایالتی پنسیلوانیا که تاثیرات روانی فناوری‌های رسانه‌ای را مطالعه می‌کند، می‌گوید: «از نظر کاری که تولیدکنندگان تصویر هوش مصنوعی قادر به انجام آن هستند، بسیار شگفت‌انگیز است. در یک سال گذشته یک جهش بزرگ از نظر توانایی‌های تولید تصویر صورت گرفته است».
ساندار اشاره می‌کند که برخی از عوامل پشت این جهش در توانایی عبارتند از تعداد روزافزون تصاویر موجود برای آموزش چنین سیستم‌های هوش مصنوعی و همچنین پیشرفت در زیرساخت‌های پردازش داده و رابط‌هایی که این فناوری را برای کاربران عادی اینترنت قابل دسترسی می‌سازد. او می‌گوید نتیجه این است که تصاویری که به‌طور مصنوعی تولید می‌شوند همه جا هستند و تشخیص آن‌ها تقریبا غیرممکن است.

یکی از آزمایش‌های اخیر نشان داد که هوش مصنوعی چقدر می‌تواند فریب دهنده باشد. سوفی نایتینگل، روانشناس دانشگاه لنکستر در انگلیس که بر فناوری دیجیتال تمرکز دارد، پژوهشی را انجام داد مبنی بر اینکه آیا داوطلبان آنلاین می‌توانند بین عکس‌های گذرنامه مانند ایجاد شده توسط یک سیستم هوش مصنوعی به نام StyleGAN۲ و تصاویر واقعی تمایز قائل شوند. نتایج ناامیدکننده بود، حتی در اواخر سال ۲۰۲۱، زمانی که محققان این آزمایش را انجام دادند. نایتینگل می‌گوید: «به طور متوسط، مردم تقریبا قادر به تشخیص نبودند. اساسا ما در نقطه‌ای هستیم که آنقدر واقع‌بینانه است که مردم نمی‌توانند به طور قابل اعتماد تفاوت بین آن چهره‌های مصنوعی و چهره‌های واقعی را درک کنند». نایتینگل می‌گوید این احتمال قوی وجود دارد که افراد به دنبال استفاده از چنین برنامه‌ای برای اهداف پلید باشند.

در آزمایش دوم، محققان سعی کردند به افراد آزمایش کمک کنند تا توانایی‌های تشخیص هوش مصنوعی خود را بهبود بخشند. آن‌ها پس از پاسخ دادن شرکت‌کنندگان، هر پاسخ را درست یا غلط علامت‌گذاری کرده و شرکت‌کنندگان را با خواندن توصیه‌هایی برای تشخیص تصاویر تولید شده مصنوعی از قبل آماده کردند. این توصیه، مناطقی را که الگوریتم‌های هوش مصنوعی اغلب در آن‌ها تلو تلو می‌خورد و گوشواره‌های نامتناسب ایجاد می‌کنند، یا دندان‌های فرد را روی هم تار می‌کند، برجسته کرد. نایتینگل همچنین خاطرنشان می‌کند که الگوریتم‌ها اغلب برای ایجاد چیزی پیچیده‌تر از یک پس زمینه ساده تلاش می‌کنند، اما حتی با وجود این موارد، دقت شرکت‌کنندگان تنها حدود ۱۰ درصد افزایش یافت و سیستم هوش مصنوعی که تصاویر مورد استفاده در آزمایش را تولید می‌کند، از آن زمان به نسخه جدید و بهبود یافته ارتقاء یافته است.

از قضا با ادامه پیشرفت فناوری تولید تصویر، بهترین دفاع انسان‌ها در برابر فریب خوردن توسط یک سیستم هوش مصنوعی ممکن است یک سیستم هوش مصنوعی دیگر باشد: سیستمی که برای تشخیص تصاویر مصنوعی آموزش دیده است. کارشناسان می‌گویند با پیشرفت تولید تصویر هوش مصنوعی، الگوریتم‌ها برای شناسایی برخی از اثر انگشت‌های کوچک و در مقیاس پیکسلی ایجاد رباتیک مجهزتر از انسان‌ها هستند.

یونگ جائه لی، دانشمند کامپیوتر در دانشگاه ویسکانسین-مدیسون، می‌گوید: «ایجاد این برنامه‌های کارآگاه هوش مصنوعی مانند هر کار یادگیری ماشین دیگری عمل می‌کند. شما مجموعه‌ای از داده‌های تصاویر واقعی و نیز مجموعه داده‌ای از تصاویر تولید شده توسط هوش مصنوعی را جمع‌آوری می‌کنید، می‌توانید یک مدل یادگیری ماشینی برای تشخیص این دو آموزش دهید».

به گفته لی و دیگر کارشناسان، این سیستم‌ها دارای کاستی‌های قابل توجهی هستند. بیشتر چنین الگوریتم‌هایی بر روی تصاویر یک ژنراتور هوش مصنوعی خاص آموزش داده می‌شوند و قادر به شناسایی جعلی‌های تولید شده توسط الگوریتم‌های مختلف نیستند. اکثر آشکارساز‌ها همچنین فاقد رابط‌های کاربر پسندی هستند که افراد زیادی را وسوسه کرده است که این تصویر را امتحان کنند.

علاوه بر این، آشکارساز‌های هوش مصنوعی همیشه در تلاش هستند تا با تولیدکننده‌های تصویر هوش مصنوعی که برخی از آن‌ها الگوریتم‌های تشخیص مشابهی را در خود جای داده‌اند، اما از آن‌ها به عنوان راهی برای یادگیری نحوه کاهش خروجی جعلی خود استفاده می‌کنند. وائل عبدالمجید، دانشیار پژوهشی علوم کامپیوتر در دانشگاه کالیفرنیای جنوبی می‌گوید: نبرد بین سیستم‌های هوش مصنوعی که تصاویر تولید می‌کنند و سیستم‌های هوش مصنوعی که تصاویر تولید شده توسط هوش مصنوعی را تشخیص می‌دهند، یک مسابقه تسلیحاتی خواهد بود.

بعید است هیچ طرفی به این زودی برنده شود؛ هیچ رویکردی هرگز نمی‌تواند تک تک تصاویر تولید شده مصنوعی را ایجاد کند، اما این بدان معنا نیست که ما باید تسلیم شویم. او پیشنهاد می‌کند که پلتفرم‌های رسانه‌های اجتماعی باید شروع به مقابله با محتوای تولید شده توسط هوش مصنوعی در سایت‌های خود کنند، زیرا این شرکت‌ها نسبت به کاربران فردی برای پیاده‌سازی الگوریتم‌های تشخیص بهتر هستند.