ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۴۸۶ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

تحلیل


«ChatGPT» از پزشکان بهتر است

يكشنبه, ۱۰ ارديبهشت ۱۴۰۲، ۰۳:۳۲ ب.ظ | ۰ نظر

بررسی جدید پژوهشگران آمریکایی نشان داد که متخصصان مراقبت‌های بهداشتی در ۷۹ درصد مواقع، پاسخ‌های «ChatGPT» به پرسش‌های بیماران را به پاسخ‌های پزشکان ترجیح می‌دهند.
به گزارش ایسنا و به نقل از نوروساینس نیوز، پژوهشگران «دانشگاه کالیفرنیا سن‌دیگو»(UCSD)، پاسخ‌های کتبی پزشکان و چت‌بات «ChatGPT» را با پرسش‌های واقعی مقایسه کردند و دریافتند که گروهی از متخصصان مراقبت‌های بهداشتی دارای مجوز، پاسخ‌های ChatGPT را در ۷۹ درصد مواقع ترجیح می‌دهند و آنها را با کیفیت‌تر و همدلانه‌تر می‌دانند.

اگرچه دستیارهای هوش مصنوعی مانند ChatGPT جایگزین پزشکان نمی‌شوند اما این پژوهش نشان می‌دهد پزشکانی که با چنین فناوری‌هایی کار می‌کنند، ممکن است پزشکی را متحول سازند.

این پژوهش که به سرپرستی دکتر «جان آیرز»(John Ayers)، پژوهشگر «موسسه کوالکام»(Qualcomm Institute) در دانشگاه کالیفرنیا سن‌دیگو انجام شده است، نگاهی اجمالی را به نقش دستیاران هوش مصنوعی در پزشکی ارائه می‌دهد.

آیرز که معاون نوآوری در بخش بیماری‌های عفونی و بهداشت عمومی جهانی دانشکده پزشکی دانشگاه کالیفرنیا سن‌دیگو است، گفت: فرصت‌ برای بهبود مراقبت‌های بهداشتی با هوش مصنوعی، بسیار زیاد است. مراقبت تقویت‌شده با هوش مصنوعی، آینده پزشکی است.

آیا ChatGPT برای مراقبت بهداشتی آماده است؟

پژوهشگران تصمیم گرفتند در پژوهش جدید خود، به این پرسش پاسخ دهند که آیا ChatGPT می‌تواند به سوالاتی که بیماران برای پزشکان خود می‌فرستند، به دقت پاسخ دهد یا خیر. اگر پاسخ مثبت باشد، پس مدل‌های هوش مصنوعی را می‌توان در سیستم‌های سلامت ادغام کرد تا پاسخ‌های پزشک به پرسش‌های ارسالی بیماران را بهبود ببخشند و بار روزافزون پزشکان را کاهش دهند.

دکتر «دیوی اسمیت»(Davey Smith)، یکی از مدیران «موسسه پژوهش‌های بالینی آلتمن»(ACTRI) و استاد دانشکده پزشکی دانشگاه کالیفرنیا سن‌دیگو گفت: ChatGPT ممکن است بتواند در امتحان مجوز پزشکی موفق شود اما پاسخ‌گویی مستقیم به پرسش‌های بیمار همراه با دقت و همدلی، یک وضعیت متفاوت است.

دکتر «اریک لیز»(Eric Leas)، دانشیار مؤسسه کوالکام گفت: همه‌گیری کووید-۱۹، پذیرش مراقبت‌های بهداشتی مجازی را سرعت داد. اگرچه این امر، دسترسی به مراقبت را برای بیماران آسان‌تر می‌کند اما پزشکان زیر بار رگبار پیام‌های الکترونیکی بیماران قرار می‌گیرند که به دنبال مشاوره پزشکی هستند. این فشار کاری، رکورد سطح فرسودگی شغلی پزشکان را شکسته است.

برای به دست آوردن نمونه بزرگ و متنوعی از پرسش‌های مربوط به مراقبت‌های بهداشتی و پاسخ‌های پزشک که حاوی اطلاعات شخصی قابل شناسایی نبود، پژوهشگران به رسانه‌های اجتماعی روی آوردند که در آنها میلیون‌ها بیمار به طور عمومی پرسش‌های پزشکی را ارسال می‌کنند تا پزشکان به آنها پاسخ دهند. یکی از این رسانه‌ها، «اسک‌داکس»(AskDocs) شرکت «ردیت»(Reddit) است.

اسک‌داکس تقریبا ۴۵۲ هزار عضو دارد که پرسش‌های پزشکی خود را می‌فرستند و متخصصان تأییدشده مراقبت بهداشتی به آنها پاسخ‌ می‌دهند. اگرچه هر کسی می‌تواند به پرسش‌ها پاسخ دهد اما ناظران، اعتبار متخصصان مراقبت‌های بهداشتی را تأیید می‌کنند و پاسخ‌ها، سطح اعتبار پاسخ‌دهنده را نشان می‌دهند. نتیجه این روند، مجموعه گسترده و متنوعی از پرسش‌های پزشکی بیمار و پاسخ‌های ارائه‌ شده توسط متخصصان پزشکی مجاز است.

از آنجا که برخی از افراد ممکن است بپرسند آیا تبادل پرسش و پاسخ در رسانه‌های اجتماعی یک آزمون منصفانه است، اعضای گروه پژوهشی خاطرنشان کردند که این تبادلات، بازتابی از تجربه بالینی آنها به شمار می‌رود.

آنها به طور تصادفی، ۱۹۵ نمونه از گفت‌وگوهای اسک‌داکس را مورد بررسی قرار دادند که در آنها یک پزشک تاییدشده، به یک پرسش عمومی پاسخ داده بود. پژوهشگران، پرسش اصلی را در اختیار ChatGPT قرار دادند و از آن خواستند تا پاسخی را بنویسد.

گروهی متشکل از سه متخصص دارای مجوز مراقبت‌های بهداشتی، پرسش‌ها و پاسخ‌های مربوطه را ارزیابی کردند و متوجه نشدند که پاسخ از سوی یک پزشک ارائه شده یا ChatGPT پاسخ داده است. آنها پاسخ‌ها را براساس کیفیت اطلاعات و میزان همدلی مقایسه کردند و گفتند که کدام را ترجیح می‌دهند.

مشخص شد که گروه حرفه‌ای ارزیابی در ۷۹ درصد مواقع، پاسخ‌های ChatGPT را به پاسخ‌های پزشک ترجیح داده‌اند.

«جسیکا کلی»(Jessica Kelley)، پرستار شاغل در شرکت «Human Longevity» و از پژوهشگران این پروژه گفت: پیام‌های ChatGPT با اطلاعات دقیقی همراه بودند که نسبت به پاسخ‌های پزشک، جنبه‌های بیشتری از پرسش‌های بیمار را در بر داشت.

دکتر «آرون گودمن»(Aaron Goodman)، دانشیار بالینی دانشکده پزشکی دانشگاه کالیفرنیا سن‌دیگو و از پژوهشگران این پروژه گفت: هرگز تصور نمی‌کردم این را بگویم اما ChatGPT نسخه‌ای است که می‌خواهم به صندوق ورودی خود بدهم. این فناوری، نحوه حمایت از بیماران را تغییر خواهد داد.

این پژوهش، در مجله «JAMA Internal Medicine» به چاپ رسید.

با هوش مصنوعی می‌توانیم اجتهاد کنیم

جمعه, ۸ ارديبهشت ۱۴۰۲، ۰۴:۳۸ ب.ظ | ۰ نظر

رجبی عضو جامعه مدرسین حوزه علمیه قم گفت: زمینه‌های به وجود آمده پس از انقلاب اسلامی برای آشنایی طلاب با فناوری آی تی، افق کاربست هوش مصنوعی را امیدوار کننده و چشم انداز آن را نوید بخش کرده است؛ در گذشته این مسئله در حوزه علمیه کاملا مغفول بود، اما اکنون برخی از طلاب با هوش مصنوعی آشنایی مقدماتی پیدا کرده و مؤسسات مختلفی نیز در این زمینه فعالیت دارند.
عضو شورای عالی حوزه‌های علمیه گفت: اگر نسبت به دین و دفاع از ارزش‌های دینی، اسلامی و انسانی دغدغه داریم باید نسبت به علوم روز بویژه هوش مصنوعی مجهز و پیشران باشیم.

به گزارش خبرگزاری حوزه؛ آیت الله محمود رجبی رئیس مؤسسه آموزشی و پژوهشی امام خمینی (ره) شامگاه چهارشنبه در نشست هم‌اندیشی گفتمان علمی مطالعات بنیادین حوزه هوش مصنوعی که در سالن اندیشه این مؤسسه برگزار شد در سخنانی اظهار کرد: امروز فناوری‌های نوین به ویژه هوش مصنوعی به پیشرفت علوم شتاب داده و در کشور ما نیز به برکت انقلاب اسلامی این امر تحقق یافته است.

عضو جامعه مدرسین حوزه علمیه قم ادامه داد: زمینه‌های به وجود آمده پس از انقلاب اسلامی برای آشنایی طلاب با فناوری آی تی، افق کاربست هوش مصنوعی را امیدوار کننده و چشم انداز آن را نوید بخش کرده است؛ در گذشته این مسئله در حوزه علمیه کاملا مغفول بود، اما اکنون برخی از طلاب با هوش مصنوعی آشنایی مقدماتی پیدا کرده و مؤسسات مختلفی نیز در این زمینه فعالیت دارند.

وی افزود: در مراکز آموزشی واحد‌هایی برای آشنایی با این فناوری در نظر گرفته شده است و درک ثمرات آن برای بسیاری از حوزویان ملموس شده؛ با این حال هنوز با فضای عظیم این عرصه آشنایی کامل صورت نگرفته است. دغدغه بهره گیری از آی تی به عنوان یک نیاز و ضرورت در بخشی از بدنه حوزه نشان می‌دهد که زمینه برای وقوع جهش در این عرصه وجود دارد؛ البته از نظر سرمایه گذاری، مدیریت و برنامه ریزی نیاز به تلاش بیشتری وجود دارد.

استاد حوزه علمیه خاطرنشان کرد: بیست سال پیش، مؤسسه امام خمینی (ره) نشریه‌ای را در این باره منتشر کرد؛ البته هنوز فعالیت برنامه ریزی شده خاص در گروه‌های علمی مؤسسه در خصوص هوش مصنوعی با ظرفیت‌های امروزین آن صورت نگرفته، اما جسته و گریخته تحقیقاتی انجام شده که از جمله آن‌ها مقالاتی با عناوین؛ «ادراک بصری در هوش مصنوعی و فلسفه ذهن»، «مبانی معرفت شناختی و ذهن و هوش مصنوعی»، «متن کاوی موضوعی رایانه‌ای قرآن کریم برای کشف ارتباطات معنایی میان آیات بر مبنای تفسیر موضوعی» و «بررسی توان رقابت هوش مصنوعی با ذهن انسان از منظر قرآن کریم» است.

عضو شورای عالی حوزه‌های علمیه بیان کرد: البته در مؤسسه امام خمینی (ره) معاونت فناوری اطلاعات فعال است و پروژه‌های مختلفی را اجرا کرده و در دست اجرا دارد که مورد بهره‌برداری اساتید، محققان و دانش‌پژوهان و نیز بخش‌های مختلف اداری مؤسسه است؛ در مرکز دایرة‌المعارف نیز پروژه‌های ارزشمندی اجرا شده است که در انجام سرعت و دقت تحقیقات محققان آن مرکز تأثیر قابل توجه دارد.

وی با تقدیر از تلاش‌های آیت الله اعرافی مدیرحوزه‌های علمیه اظهارکرد: سال‌های متمادی است که با آیت‌الله اعرافی همکاری داشته‌ام؛ وی شخصی خوش‌فکر، خلاق، آینده‌نگر و مدیری توانمند است که اقدامات بزرگی را در کارنامه دارد؛ با توانمند‌هایی که در مدیریت حوزه دیده می‌شود، انتظار می‌رود کار‌های شایسته‌ای صورت بگیرد و حوزه در طول زمان، نه تنها سطح ضروری این فناوری را طی کند بلکه به سوی سطح مطلوب گام‌های ارزشمندی بردارد و در کاربست هوش مصنوعی و فناوری آی تی افق چشم‌انداز مطلوب و امیدوار کننده خواهد داشت البته اگر امکانات بیشتری فراهم شود، حرکت بهتری انجام خواهد شد؛ شورای عالی هم که نهاد بالادستی مدیریت حوزه است حتما به آیت‌الله اعرافی در این زمینه کمک و بستر‌های لازم را فراهم خواهد کرد.

آیت الله رجبی تصریح کرد:استفاده از هوش مصنوعی به عنوان یک ابزار نوین برای فرآیند اجتهاد، تولید علوم اسلامی و نظریه‌پردازی مفید می‌دانم؛ در نظریه‌پردازی هوش مصنوعی می‌تواند خدمات بسیار خوبی داشته باشد. اگر فناوری آی تی در اختیار محققان قرار بگیرد از لحاظ جامعیت، سرعت و دقت بسیار می‌تواند کمک کند؛ و علاوه بر امکان پیشگیری از بسیاری از خطا‌ها و دستیابی آسان، سریع و دقیق به داده‌های فراوان علمی، محققان این صرفه‌جویی زمانی را می‌توانند به تأملات علمی اختصاص دهند.

وی تأکید کرد: هوش مصنوعی کمک عظیمی به سایر کار ویژه‌های روحانیت می‌کند؛ از جمله در تبلیغ و برای فعالیت‌های فرهنگی بسیار پیش برنده، سرعت بخش و سامان دهنده است. جهان دائما در حال تحول است و این تحولات در جامعه ما و جهان اسلام اثر خودش را دارد؛ اگر حوزه علمیه نتواند پاسخگوی نیاز‌های نوظهور نظام و جوامع اسلامی باشد، از قافله تحولات عقب می‌ماند و به حاشیه رانده می‌شود.

عضوشورای عالی حوزه‌های علمیه افزود: جهت گیری نظام اسلامی به سمت تمدن نوین اسلامی و اداره جهان است؛ این کار بدون استفاده ابراز‌های نوین ممکن نیست از طرفی مطالبات از دانشمندان اسلامی هر روز، رو به افزایش است و از طرف دیگر نفوذ اسلام گسترده‌تر شده است و دشمنان هم تهاجم مضاعف خود را دارند؛ باید ابزار‌هایی داشته باشیم که پاسخگوی این حجم و این سطح از نیاز‌ها باشد.

رئیس مؤسسه آموزشی و پژوهشی امام خمینی (ره) بیان کرد: استکبار جهانی در عرصه فرهنگی یک جنگ تمام عیار را علیه مبانی و ارزش‌های اسلام و نظام اسلامی به راه انداخته است؛ آن‌ها از تمام ظرفیت فناوری‌های نوین در بالاترین سطح استفاده می‌کنند و ما نیز برای پیروزی باید مسلح به سلاح‌های نوین شویم.

 

  • هوش مصنوعی و مخاطرات

وی تصریح کرد: اگر انبوهی از اطلاعات در اختیار محقق قرار گیرد؛ انبوه خوانی بدون تعمق و تأمل از مخاطرات استفاده از فناوری آی تی و هوش مصنوعی خواهد بود؛ محقق نباید به داده‌های فروان به دست آمده از طریق فناوری اطلاعات اکتفا کرده و خیال کند که نیاز چندانی به تأملات عمیق ندارد؛ باید توجه داشت که فناوری، تنها زمینه را فراهم می‌کند و قدرت استنباط، نظریه‌پردازی و تجزیه و تحلیل که حرف اول را می‌زند، چیزی جدای از آن است.

آیت الله رجبی گفت: انحراف از مسیر و اهداف از دیگر مخاطرات این مسیر است؛ همه فعالیت‌های حوزوی برای تقرب به خداوند متعال صورت می‌گیرد و مخاطره غفلت از هدف، همواره و در همه حال مطرح است، ولی توانمندی‌های هوش مصنوعی می‌تواند یکی از معدات آن باشد و زمینه غفلت از هدف را فراهم کند.

عضوجامعه مدرسین حوزه افزود: در منابع اسلامی (آیات و روایات) که سر و کار روحانیون و از جمله محققان و مجتهدان با آن است، معرفت با اخلاق و معنویت عجین شده است؛ وقتی فناوری نوین تنها معلومات علمی را در اختیار محقق قرار می‌دهد، ممکن است از بعد معنوی غفلت شود که خطر جدی است و باید در خصوص آن چاره اندیشی شود. فعلا مدیریت فناوری‌های نوین و فضای مجازی در اختیار ما نیست و نمی‌توان فناوری‌های نوین را ایزوله کرد؛ از سوی دیگر دشمنان اسلام نیز توطئه‌های خودشان را با استفاده حداکثری از همین امکانات محقق می‌سازند که باید برنامه‌های لازم برای کنترل درونی محققان در نظر گرفته شود.

وی خواستار توجه و سرمایه گذاری نظام در خصوص توسعه و پیشرفت مطابق با موازین اخلاقی هوش مصنوعی شد.

مزایا و معایب هوش مصنوعی در حکمرانی و سرنوشت بشر

چهارشنبه, ۶ ارديبهشت ۱۴۰۲، ۰۴:۴۲ ب.ظ | ۰ نظر

حجت الاسلام دهداری به تشریح مسئله «هوش مصنوعی، مزایا و معایب در حکمرانی و سرنوشت بشر»، گفت: در آینده با مدلی روبرو می‌شویم که زندگی ما را تحت تاثیر قرار می‌دهد.
به گزارش رسا، حجت الاسلام هادی دهداری در نشست «هوش مصنوعی، مزایا و معایب در حکمرانی و سرنوشت بشر» از سلسله نشست‌های الگوی اسلامی ایرانی پیشرفت، با بیان اینکه هوش مصنوعی هنر آینده است که به وسیله آن می‌توان حکمرانی کرد، گفت: هوش مصنوعی از ۲۰۰ سال پیش و زمان «آمپر» مطرح شد. آمپر بعد از انقلاب صنعتی به دنبال این بود که راهی پیدا کند تا کار انسان راحت‌تر شود.

حجت الاسلام دهداری خاطرنشان کرد: در این میان فعل و انفعالات انسان بررسی شد به گونه‌ای که بتوان از ابزاری استفاده کرد تا به جای انسان این فعل و انفعالات را انجام داد. دوربین عکاسی در این میان نقش داشت و چند دهه بعد ابزاری مانند کامپیوتر شکل گرفت.

وی در ادامه افزود: شروع کار کامپیوتر با ترانزیستوری در مقیاس یک چراغ بود، در حالی که با پیشرفت‌های امروزه این تجهیزات بسیار، بسیار ریزتر شده است. در ابتدا انسان به دنبال این بود که با ابزاری خاص، جمع و تفریق انجام دهد، تلاش کرد و در ایجاد این ابزار موفق شد و رفته رفته در این مسیر دست به اقدامات بیشتری زد.

این پژوهشگر و برنامه نویس اظهار کرد: امروز انسان ابزارهایی برای تخیل کردن و ساخت تصاویر و... ایجاد کرده است. امروز با وجود ایجاد هوش مصنوعی، کامپیوتر می‌تواند ساعت‌ها با انسان صحبت کند و فرد متوجه این موضوع نشود. این سیر تحولی است که از زمان ساخت کامپیوتر ایجاد شده و امروز این ابزار محاسباتی هوشمندسازی شده، به درجه‌ بالایی از قدرت رسیده است که قابل مقایسه با گذشته نیست.

وی ادامه داد: شاید تا بیست سال آینده با کامپیوترهایی مواجه شویم که میلیاردها برابر بیشتر از کامپیوترهای امروزی از توانایی برخوردار هستند. این توانایی فقط در تحلیل داده نیست و بلکه در ذخیره اطلاعات نیز وجود دارد. همان طور که تا همین چند سال پیش فلاپی و پس از آن سی دی محل ذخیره اطلاعات بود اما امروز فلش‌های بسیار کوچک، حجم زیادی از اطلاعات را در خود ذخیره می‌کنند و این سیر تحولی به سرعت ادامه خواهد داشت.

حجت الاسلام دهداری تصریح کرد: امروز نرم افزارها و برنامه‌ نویسی‌ها به راحتی در دسترس هستند در حالی که در گذشته چنین نبود. این ابزار، امروز سهل الوصول شده است به گونه‌ای که برنامه‌ نویسی‌های قدرتمند سبب ایجاد ابزاری به نام جی پی تی شده است. چت جی پی تی یک تحلیل‌گر زبان است که کار خود را در سطح‌های پیچیده‌ای از نظر مفهومی در کسری از ثانیه انجام می‌دهد.

وی با بیان اینکه در هوش مصنوعی جدید، درک زبانی و درک معنایی بالا رفته است، گفت: در گذشته داده‌های کمی موجود بود اما امروز داده‌های کل وب که تاکنون به دست بشر بارگذاری شده می‌تواند در اختیار هوش مصنوعی قرار بگیرد و این می‌تواند به بهتر تحلیل کردن توسط آن کمک کند.

این پژوهشگر حوزه فناوری و هوش مصنوعی اظهار کرد: هوش مصنوعی وقتی با سوالی روبرو می‌شود به بانک اطلاعاتی خود مراجعه می‌کند و سرنخ را به دست می‌آورد و این جستجو همراه با فهم و درک کلمات و معنا رخ می‌دهد.

وی با بیان اینکه هوش مصنوعی محدود به چت جی پی تی نیست، خاطرنشان کرد: امروز با نوعی از هوش مصنوعی روبرو هستیم که با ما می‌تواند صحبت کند. در این میان می‌توان به اینترنت اشیا نیز اشاره کرد. در این میان ارتباط اشیا با هم به وسیله اینترنت صورت می‌گیرد و نتیجه آن تحلیل است. در اینجا انسان کنار گذاشته می‌شود و فرآیندها توسط اشیا صورت می‌گیرد. در واقع با هوش مصنوعی کنترل زندگی ما در اختیار نرم افزارها قرار می‌گیرد. این هوش در بسیاری از کارها مانند تشخیص بیماری به انسان کمک می‌کند.

حجت الاسلام دهداری تصریح کرد: ربات‌هایی که وارد زندگی ما می‌شوند بیشتر از یک وسیله هستند و پشت آن‌ها یک هوش مصنوعی قرار دارد. شاید در کشور خود کمتر با آن روبرو بوده‌ایم اما در آینده تکنولوژی در این زمینه بیش از این پیشرفت می‌کند و با اتفاقات خاصی در این زمینه روبرو می‌شویم.

وی با اشاره به مزایای هوش مصنوعی افزود: مزیت هوش مصنوعی این است که می‌تواند کارها را برای انسان ساده کند. هوش مصنوعی دستیار بسیار خوبی برای انسان است، به عنوان مثال می‌تواند یک دستیار قدرتمند برای یک برنامه‌نویس باشد.

این پژوهشگر و برنامه نویس گفت: نخستین عیبی که هوش مصنوعی دارد این است که شاید به علت کمبود داده‌ها، جواب‌های اشتباه به ما بدهد و این سبب گمراهی ما می‌شود. هوش مصنوعی می‌گوید که ما با همه رفیق هستیم، اما مبتنی بر اطلاعاتی که در کتابخانه‌اش موجود است به ما پاسخ می‌دهد. به عنوان مثال اگر سوال فقهی از او بپرسیم او پاسخ‌های اهل سنت به ما می‌دهد زیرا بیشترین اطلاعاتی که در کتابخانه‌اش موجود است اطلاعات اهل سنت است، بنابراین اطلاعاتی فیلتر شده به ما ارائه می‌کند و ما کنترلی روی آن نداریم.

وی با بیان اینکه با هوش مصنوعی مرجع‌های انسانی از بین می‌روند و قدرت فکر کردن از جامعه بشری گرفته می‌شود، گفت: اگر در زمان استفاده از اینستاگرام، داده‌های ورودی به ذهن انسان کنترل می‌شد حالا با هوش مصنوعی، اجازه فکر کردن از انسان گرفته می‌شود و این مصیبت، نظام آموزشی ما را دچار مشکل می‌کند.

حجت الاسلام دهداری تصریح کرد: بشر با ترسی به نام فقدان مواجه هست. اکنون با سوالاتی مواجهه می‌شویم در اخبار مبنی بر اینکه آیا هوش مصنوعی جای انسان را می‌گیرد؟ و گفته‌هایی از این قرار که زندگی انسان تحت اسارت هوش مصنوعی قرار خواهد گرفت. در واقع باید بگوییم دنیای امروز دنیای دولت‌ها نیست بلکه دنیای شرکت‌هاست بنابراین نمی‌توان با این روند مبارزه کرد.

وی ادامه داد: امروز با شرکت‌ها و کارخانه‌هایی مواجه هستیم که درآمدهایی بالاتر از کل بودجه کشور ما دارند. این شرکت‌ها در زندگی انسان دخالت کرده و سعی می‌کنند منافع خود را به زندگی ما تسری بدهند.

پژوهشگر حوزه فناوری و هوش مصنوعی عنوان کرد: ما در آینده با مدلی از هوش مصنوعی روبرو می‌شویم که زندگی ما را تحت تاثیر قرار می‌دهد. در گذشته اینستاگرام فکر ما را مدیریت می‌کرد اما امروز با شرکت‌های بزرگی روبرو می‌شویم که همه زندگی انسان را با هوش مصنوعی پیوند می‌دهند. این موضوع دست شرکت‌ها را در بحث حاکمیت باز می‌کند.

وی اضافه کرد: به عنوان مثال قانون‌هایی را قانون‌گذاران دنبال می‌کنند که شرکت‌هایی مانند همراه اول اجازه عملی شدن آن را نمی‌دهند مانند طرح صیانت از فضای مجازی. زیرا از نظر تکنیکی ما به آن‌ها وابسته هستیم و حمایت پشت صحنه نیز اجازه نمی‌دهد که در حکمرانی روند گذشته دنبال شود.

حجت الاسلام دهداری اظهار کرد: در دنیایی که کنترل زندگی بشر در دست هوش مصنوعی قرار می‌گیرد باید قدرت فکر کردن را حفظ کنیم و در این خصوص سرمایه گذاری کنیم. نباید اجازه بدهیم که صاحبان هوش مصنوعی کنترل زندگی ما را در اختیار بگیرند، در واقع باید با ترس خود به این مسئله بها بدهیم.

وی در ادامه افزود: شرکت‌های دانش بنیان باید حمایت جدی شوند تا مباحث علوم انسانی و فلسفی مرتبط با هوش مصنوعی مدیریت گردد، یعنی شرایط به گونه‌ای رقم بخورد که داده‌های هوش مصنوعی طبق آنچه که سازندگان آن می‌خواهند در اختیار ما قرار نگیرد و ما نیز در این میان با علوم و داده‌های خود تاثیرگذار باشیم.

حجت الاسلام دهداری گفت: از هم اکنون باید دست به کار شد و از این فرصت بهره برد. باید خود وارد میدان این تکنولوژی شویم که تا چند سال آینده مجبور به بستن چنین فضایی نشویم. شرکت‌هایی که اینگونه فناوری‌های پیشرفته را ایجاد می‌کنند باید حمایت شوند تا درگیر شرکت‌هایی که به دنبال ایجاد سلطه بر دنیا هستند نشویم.

استفاده از هوش مصنوعی در بانک اسلامی ابوظبی

چهارشنبه, ۶ ارديبهشت ۱۴۰۲، ۰۳:۴۴ ب.ظ | ۰ نظر

بانک اسلامی ابوظبی، هوش مصنوعی را در مرکز فرماندهی «ACE» خود قرار می‌دهد.
به گزارش کارگروه فناوری اطلاعات سایبربان؛ به گفته کارشناسان، ادغام هوش مصنوعی به نقطه‌ای رسیده است که بانک‌ها شروع به استقرار فناوری هوش مصنوعی در مقیاسی کرده‌اند تا مرتبط باقی بمانند.

بانک اسلامی ابوظبی (ADIB) یکی از بانک‌هایی است که هوش مصنوعی را در راهبرد و عملیات اصلی خود مرکزی می‌کند و توانایی بانک را برای دستیابی به 4 نتیجه کلیدی بهبود می‌بخشد : سود بالاتر، شخصی‌سازی، کارایی و چرخه‌های نوآوری سریع.

مرکز فرماندهی هوش مصنوعی بانک اسلامی ابوظبی، معروف به «ACE»، فعالیت‌های بانک را پوشش و حداکثر 25 داشبورد را به طور همزمان برای نقش‌های خاص در سازمان نمایش می‌دهد. هنگامی که صحبت از کمک به مدیریت کلاهبرداری و امنیت سایبری می‌شود، این مرکز می‌تواند بانک را برای جلوگیری از حملات سایبری و واکنش سریع و مؤثر به هرگونه نقض احتمالی قدرت دهد.

محمد عبدالباری (Mohamed Abdel Bary)، مدیر مالی گروه بانک اسلامی ابوظبی، گفت : «مرکز فرماندهی در برخورد با مشتریان به روشی بسیار شخصی‌تر کمک می‌کند و به آنها انتخاب‌ها، ایده‌ها و بینش‌هایی می‌دهد تا درست تصمیم‌گیری کنند. به طور خاص، کلان داده، تجزیه و تحلیل پیش‌بینی‌کننده را ترکیب و این داده‌ها را به بینش‌ها و تجربیات بسیار شخصی برای مشتریان تبدیل می‌کند. نتیجه این است که بانک اسلامی ابوظبی می‎تواند با یک کمپین متمرکز بر نیازهای مشتری وارد بازار شود.»

علاوه بر این، کارشناسان اعلام کردند که بخش بانکداری در امارات متحده عربی در حال استفاده از اتوماسیون فرآیند رباتیک (RPA) در مقیاس بزرگ برای خودکارسازی وظایف است که به آن‌ها اجازه می‌دهد روی کارهای مهم و با ارزش بالاتر تمرکز و در عین حال جریان‌های فرآیند دستی سطح بالا را خودکار کنند.

بانک اسلامی ابوظبی60 اتوماسیون فرآیند روباتیک را با استفاده از هوش مصنوعی برای وظایف عملیاتی، دستیاران مجازی یا رابط‌های مکالمه برای کمک به بخش‌های خدمات مشتری، علاوه بر تکنیک‌های یادگیری ماشینی برای شناسایی تقلب و پشتیبانی از تعهدنامه و مدیریت ریسک، به کار گرفته است.

باری اظهار داشت : «پتانسیل ایجاد ارزش قابل توجه است. این ارزش از افزایش شخصی‌سازی خدمات به مشتریان، کاهش هزینه‌ها از طریق کارایی‌های تولید شده با اتوماسیون بالاتر، کاهش نرخ خطا و استفاده بهتر از منابع و کشف فرصت‌های جدید و قبلاً محقق نشده مبتنی بر توانایی بهبود یافته برای پردازش و تولید داده‌ها ناشی می‌شود.»

ناشران یک مجله آلمانی که مصاحبه با مایکل شوماخر که با هوش مصنوعی نوشته شده بود را چاپ کردند، سردبیر را اخراج و از خانواده این راننده مسابقات اتومبیلرانی «فرمول یک»عذرخواهی کردند.
به گزارش مهر به نقل از رویترز، شوماخر که تاکنون ۷ بار قهرمان مسابقات شده و اکنون ۵۴ ساله است، پس از یک جراحت شدید مغزی هنگام اسکی در دسامبر ۲۰۱۳ میلادی تاکنون در انظار عمومی دیده نشده است.

خانواده او هفته جاری اعلام کردند یک دعوی حقوقی علیه هفته نامه «دی آکتوئل» (Die Aktuelle) اقامه می کنند که به گروه رسانه Funke تعلق دارد.

این گروه رسانه ای در بیانیه در وب سایت خود عذرخواهی کرده است.

د بیانکا پوهلمان مدیرعامل نشریات گروه در بخشی از بیانیه نوشته است: این گزارش نامتناسب و گمراه کننده هرگز نباید چاپ می شد. گزارش مذکور به هیچ وجه با استانداردهای خبرنگاری که ما و خوانندگان مان از Funke انتظار داریم همخوانی ندارد. انتشار این مقاله عواقب فردی برای پرسنل در برخواهد داشت.

آن هافمن، سردبیر «دی آکتوئل» که از سال ۲۰۰۹ مسئولیت روزنامه نگاری این روزنامه را بر عهده داشت، از امروز از وظایف خود برکنار می شود.

در جدیدترین شماره این مجله تصویری خندان از شوماخر روی جلد همراه با تیتر «مایکل شوماخر، نخستین مصاحبه» دیده می شود.

داخل مجله اظهارنظرهایی دیده می شد که توسط هوش مصنوعی تولید شده بود. خانواده شوماخر درباره وضعیت سلامت این راننده سابق مسابقات فرمول یک بسیار محرمانه رفتار می کنند.

آمریکا گروه ویژه «هوش مصنوعی» ایجاد می‌کند

يكشنبه, ۳ ارديبهشت ۱۴۰۲، ۰۷:۴۱ ب.ظ | ۰ نظر

وزیر امنیت داخلی ایالات متحده از تشکیل یک گروه عملیاتی ویژه مرتبط با هوش مصنوعی خبر داد.

الخاندرو مایورکاس هدف از ایجاد این گروه را سنجیدن چگونگی استفاده از هوش مصنوعی برای انجام بسیاری از کارها، از حفاظت از زیرساخت‌های حیاتی گرفته تا غربالگری محموله‌ها و تشخیص دادن محصولاتی که از راه بیگاری ساخته‌ شده‌اند، عنوان کرد.

به گزارش خبرگزاری رویترز، در حالی که هوش مصنوعی پدیده جدیدی نیست، ولی محبوبیت ناگهانی «چَت‌جی‌پی‌تی» بات مکالمه‌ای‌ شرکت «اوپِن‌اِی‌آی» در ماه‌های اخیر، مقامات را در سراسر جهان به تکاپو انداخته تا ببینند چگونه می‌توانند از این فناوری به بهترین شکل ممکن استفاده و از انتشار اطلاعات نادرست و فعالیت‌های جنایی جلوگیری کنند.

مایورکاس گفت که این فناوری «چشم‌انداز خطر [برای امنیت ملی ما] را به شدت تغییر خواهد داد.»

او افزود: «وزارتخانه ما در استفاده مسئولانه از هوش مصنوعی برای مصون‌کردن سرزمین و دفاع در برابر استفاده بدخواهانه از این فناوری تحول‌آفرین پیشگام خواهد بود.»

مایورکاس گفت این گروه عملیاتی ویژه همچنین چگونگی استفاده از هوش مصنوعی برای بهبود و پیشرفت کارهایی مثل غربالگری محموله‌های وارداتی به آمریکا و تشخیص و یافتن کالاهای غیرقانونی مانند فنتانیل و یا محصولات ساخته از طریق کار اجباری را بررسی خواهد کرد.

از دیگر تلاش‌های این گروه، به گفته مایورکاس، استفاده از هوش مصنوعی برای ایمن‌کردن شبکه‌های برق و سیستم‌های تامین آب است که بیم آن می‌رود هر دوی آنها از اهداف بالقوه دشمنان آمریکا باشند.

وزیر امنیت داخلی آمریکا گفت: «روند سریع دگرگونی فناوری – دقیقا همین لحظه‌ای که الان در آن هستیم – مستلزم آن است که ما نیز همین امروز عمل کنیم.»

مایورکاس گفت که هوش مصنوعی هنوز «در شرف شکوفایی» است و هنوز زود است که بگوییم آیا مضرات آن به فوایدش می‌چربد [یا نه.]»

چند شرکت هوش مصنوعی که چند ماه قبل هنرمندان به دلیل نقض قانون حق معنوی آثار از آن‌ها شکایت کرده بودند از دادگاه خواستند این شکایت را رد کند.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز، شرکت‌های Stability AI، Midjourney و DeviantArt به گروهی از هنرمندان که آن‌ها را به نقض گسترده قوانین حق معنوی آثار و حقوق انتشار عمومی آن‌ها در سیستم‌های هوش مصنوعی مولد متهم کرده بودند، حمله کردند. 
این شرکت‌ها از دادگاه فدرال سانفرانسیسکو خواستند که شکایت دسته جمعی پیشنهادی هنرمندان را با این استدلال که تصاویر ایجاد شده توسط هوش مصنوعی مشابه آثار هنرمندان نیست، رد کند. این شکایت به تصاویر خاصی که گفته می‌شود مورد سوء استفاده قرار گرفته، اشاره نکرده است. 
چند هنرمند در ماه ژانویه از این شرکت‌ها شکایت کردند. این هنرمندان ادعا کردند که کپی غیرمجاز آثارشان برای آموزش سیستم‌ها و ایجاد تصاویر تولید شده توسط هوش مصنوعی به سبک آنها، حقوق شان را نقض می‌کند.

ادامه حملات ایلان ماسک: چت‌جی‌پی‌تی دروغگوست

چهارشنبه, ۳۰ فروردين ۱۴۰۲، ۰۴:۴۵ ب.ظ | ۰ نظر

ایلان ماسک می‌گوید که رقیبی را برای چت‌جی‌پی‌تی که توسط مایکروسافت پشتیبانی می‌شود راه اندازی خواهد کرد.
به گزارش فارس به نقل از رویترز، ایلان ماسک گفت که پلتفرم هوش مصنوعی را راه اندازی خواهد کرد که آن را «TruthGPT» می نامد تا پیشنهادات مایکروسافت و گوگل را به چالش بکشد.

او از شرکت اپن‌ای‌آی تحت حمایت مایکروسافت، شرکتی که پشت ربات‌های چت‌جی‌پی‌تی است، به دلیل آموزش هوش مصنوعی برای دروغ گفتن انتقاد کرد و گفت که اپن‌ای‌آی اکنون به سازمان منبع بسته و انتفاعی تبدیل شده است که متحد نزدیک مایکروسافت است.

او همچنین لری پیج، یکی از بنیانگذاران گوگل را متهم کرد که ایمنی هوش مصنوعی را جدی نمی گیرد.

ماسک در مصاحبه‌ای با تاکر کارلسون از کانال فاکس نیوز که روز دوشنبه پخش شد، گفت: «من قصد دارم چیزی را شروع کنم که آن را «TruthGPT» می‌نامم، یا یک هوش مصنوعی حداکثر جویای حقیقت که تلاش می‌کند ماهیت جهان را درک کند.

او گفت TruthGPT ممکن است بهترین راه برای ایمنی باشد که بعید است انسان ها را نابود کند.

افراد آشنا به رویترز به رویترز گفتند که ماسک از محققان هوش مصنوعی شرکت آلفابت گوگل برای راه اندازی استارت آپی به عنوان رقیب اپن‌ای‌آی استفاده کرده است.

طبق یک پرونده ایالتی، ماسک ماه گذشته شرکتی به نام X.AI Corp را در نوادا ثبت کرد. این شرکت ماسک را به عنوان تنها مدیر و جرد برچال، مدیر عامل دفتر خانواده ماسک را به عنوان منشی معرفی کرد.

این اقدام پس از آن صورت گرفت که ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعت با اشاره به خطرات بالقوه برای جامعه خواستار توقف شش ماهه در توسعه سیستم‌های قدرتمندتر از GPT-4 شدند.

ماسک همچنین در مصاحبه با کارلسون هشدارهای خود را در مورد هوش مصنوعی تکرار کرد و گفت: هوش مصنوعی فوق‌العاده هوشمند می‌تواند به‌طور باورنکردنی خوب بنویسد و به طور بالقوه افکار عمومی را دستکاری کند.

او آخر هفته در توییتی نوشت که در زمان ریاست جمهوری باراک اوباما، رئیس جمهوری سابق ایالات متحده با او ملاقات کرده و گفته که واشنگتن باید مقررات هوش مصنوعی را وضع کند.

ماسک در سال 2015 شرکت اپن‌ای‌آی را بنیانگذاری کرد، اما در سال 2018 از هیئت مدیره شرکت کنار رفت. در سال 2019، او در توییتی نوشت که این شرکت را ترک کرده زیرا باید روی تسلا و اسپیس ایکس تمرکز می کرد.

شرکت مایکروسافت در ژانویه، از سرمایه‌گذاری چند میلیارد دلاری بیشتری روی اپن‌ای‌آی خبر داد که رقابت با گوگل را تشدید کرد و به رقابت برای جذب بودجه هوش مصنوعی در سیلیکون ولی دامن زد.

توصیه‌های مهم هنگام کار با چت‌جی‌پی‌تی

چهارشنبه, ۳۰ فروردين ۱۴۰۲، ۰۴:۴۲ ب.ظ | ۰ نظر

چت‌جی‌پی‌تی اکنون کاربران بسیاری را در دنیا پیدا کرده و توجه به مسائل حریم خصوصی در استفاده از این فناوری ضروری است.
به گزارش خبرگزاری صداوسیما به نقل از بی‌جی‌آر، چت‌جی‌پی‌تی همچنان برای مردم جذاب است، زیرا کاربران راه‌های جدیدی را برای استفاده از این فناوری پیدا کرده اند. محصولات رقیب نیز در دست ساخت هستند، از جمله بارد (Bard) و هوش مصنوعی جستجوی گوگل. علاوه بر این، هر شرکت بزرگ فناوری به دنبال ادغام چت‌جی‌پی‌تی یا انتشار نرم افزار هوش مصنوعی مشابه است.

چه بخواهید از چت‌جی‌پی‌تی اصلی یا یک محصول مشابه هوش مصنوعی استفاده کنید، باید از خود محافظت کنید. در ادامه، چهار نکته که باید هنگام استفاده از چت‌جی‌پی‌تی در نظر داشته باشید، گفته شده:

 

  • داده‌های شخصی خود را با چت‌جی‌پی‌تی به اشتراک نگذارید

شرکت اوپن ای آی (OpenAI) تمام داده‌هایی را که می‌تواند برای آموزش چت‌جی‌پی‌تی جمع آوری می‌کند. چت‌جی‌پی‌تی همچنین از داده‌هایی که در چت‌ها وارد می‌کنید استفاده می‌کند، بنابراین جزئیات شخصی را در مکالمه وارد نکنید. همه چیز ذخیره می‌شود و حریم خصوصی چت‌جی‌پی‌تی در حال حاضر عالی نیست. شما هرگز نمی‌توانید از OpenAI بخواهید که آن داده‌ها را حذف کند.

ایتالیا و کانادا اولین کشور‌هایی بودند که چت‌جی‌پی‌تی را در رابطه با مسائل حریم خصوصی مورد بررسی قرار دادند.

برنامه‌های نامعتبر چت‌جی‌پی‌تی را نصب نکنید

چت‌جی‌پی‌تی به قدری پیشرفته است که می‌تواند کدنویسی بدافزاری هم کند. اما هکر‌ها برای هدف قرار دادن شما با بدافزاری که بدون کمک چت‌جی‌پی‌تی ایجاد کرده‌اند، به هوش مصنوعی نیاز ندارند.

گزارش‌های مختلف، جزئیات حملات بدافزار مبتنی بر چت‌جی‌پی‌تی را که در حال حاضر رخ می‌دهند، شرح داده‌اند و نتایج نشان می‌دهد، همه آن‌ها به طور مشابه عمل می‌کنند. کاربران ناآگاه بر این باورند که برنامه‌های واقعی را روی رایانه‌های خود نصب می‌کنند. اما آن‌ها برنامه‌های جعلی چت‌جی‌پی‌تی با بدافزار دریافت می‌کنند که داده‌های آن‌ها را می‌دزدد.

برنامه‌های چت‌جی‌پی‌تی را از منابع نامعتبر نصب نکنید. قبل از دانلود و نصب هر چیزی روی دستگاه خود آن را بررسی کنید.

 

  • از چت‌جی‌پی‌تی منبع بخواهید

همیشه از چت‌جی‌پی‌تی بخواهید منابعی را برای ادعا‌هایی که ارائه می‌کند همراه با پیوند‌ها ارائه کند. به این ترتیب، می‌توانید اطمینان حاصل کنید که آنچه این فناوری به شما می‌گوید دقیق است. همانطور که هوش مصنوعی ممکن است فوق العاده هوشمند باشد، هنوز قابل اعتماد نیست. هنگام پاسخ دادن به سؤالات اشتباه می‌کند و این چیزی است که همیشه باید به خاطر بسپارید.

چت‌جی‌پی‌تی و هر محصول هوش مصنوعی دیگری می‌تواند اطلاعاتی را ارائه دهد که صحیح نیست. شرکت اوپن ای آی باید به قابلیت اطمینان این ربات بپردازد، به خصوص که برخی از کاربران در حال بررسی شکایات علیه چت‌جی‌پی‌تی هستند.

 

  • قوانین کپی رایت را فراموش نکنید

از آنجایی که شرکت اوپن ای آی به چت‌جی‌پی‌تی داده‌های زیادی را برای آموزش مدل زبان می‌دهد، ربات همه چیز را به خاطر می‌آورد. این شامل مطالبی می‌شود که ممکن است تحت حمایت حق نسخه برداری باشند. اما از نگاه چت‌جی‌پی‌تی، این مهم نخواهد بود. ممکن است ربات محتوای آثار محافظت شده را کلمه به کلمه نمایش دهد.

اگر محتوای دارای حق نسخه‌برداری که چت‌جی‌پی‌تی به شما می‌دهد استفاده کنید، ممکن است قانون حق نسخه‌برداری را نقض کرده باشید.

۳ دلیل که چت‌بات‌ها را فاجعه امنیتی می‌کند

چهارشنبه, ۳۰ فروردين ۱۴۰۲، ۰۲:۵۴ ب.ظ | ۰ نظر

سعید میرشاهی – مدل‌های رایانه‌ای کلان‌زبان، (Large language models) مملو از آسیب‌پذیری‌های امنیتی هستند اما هنوز در مقیاس وسیع در محصولات فناوری جاسازی می‌شوند. مدل‌های زبانی هوش مصنوعی در حال حاضر درخشان‌ترین و هیجان‌انگیزترین پدیده فناوری هستند اما این مدل‌ها، مستعد ایجاد یک مشکل بزرگ جدید هستند:

کنترل تاکسی‌های تهران با هوش مصنوعی

سه شنبه, ۲۹ فروردين ۱۴۰۲، ۰۹:۳۷ ق.ظ | ۰ نظر

مدیر عامل سازمان تاکسیرانی شهر تهران با بیان اینکه هشتاد هزار تاکسی با هوش مصنوعی در پایتخت کنترل می‌شود، گفت: قرار است که ۴۰ پروژه تحولی در سازمان تاکسیرانی برای ارتقای بهره‌وری رانندگان و بهبود خدمت‌رسانی اجرا شود.
به گزارش خبرگزاری صدا وسیما، مهدی وحدت‌کار افزود: ۴۰ پروژه کوچک و بزرگ برای سازمان تاکسیرانی تعریف شده است تا بتوانیم نحوه نظارت را تغییر دهیم. باید از تکنولوژی‌های جدید استفاده کنیم. می‌خواهیم نرم‌افزار‌هایی روی گوشی‌های رانندگان تاکسی نصب کنیم یا تجهیزاتی بر روی تاکسی‌ها نصب شود تا براساس این مدل نظارت بر تاکسیرانی فراهم شود.
وی با بیان اینکه ۷۸ هزار و ۷۸۴ تاکسی در تهران وجود دارد که قطعا نظارت بر روی تمام آن‌ها سخت است، گفت:  قرار است که تاکسی‌ها را نظارت کنیم. به عنوان مثال یک تاکسی گردشی داریم که شاید هر جایی دیدیم بگوید در حال جابجایی مسافر هستم یا به منزل می‌روم و ... ما باید ابزار‌هایی داشته باشیم که تاکسی‌ها خدمت‌رسانی به مردم کنند به همین دلیل می‌خواهیم از روش‌های اینترنتی استفاده کنیم تا بدانیم تاکسی کجاست.
وی در ادامه درباره هوشمندسازی تاکسی ها تصریح کرد: ما بحث شاتل سرویس را داریم. مبدأ و مقصد مشخص است و این مبدأ و مقصد براساس نیاز مسافر صورت می‌گیرد. مثلا ما چند نقطه اضطراری را مشخص می‌کنیم و در ساعات پیک تعدادی ون را به آن نقطه اضافه می‌کنیم. این ون‌ها به مرکز کنترل تاکسیرانی متصل هستند. به ون‌ها اعلام می‌شود که به فلان مرکز از دحام برود و مسافر را جابجا کند. سناریو چیده می‌شود و در ون‌ها به صورت هوشمند به محل‌های پرازدحام اعزام می‌شوند و ما می‌توانیم با این کار مشکل را برطرف کنیم.
وحدت‌کار ادامه داد: مثلا به یک ون اعلام می‌شود که به میدان ونک برود و مسافران را به مقصد سیدخندان برساند و به ون بعدی مقصد دیگری می‌دهد. در اصل یک هوش مصنوعی است و ما این کار را توسط شرکت‌های دانش‌بنیان انجام می‌دهیم. ون‌ها به زودی به تهران می‌آیند و این کار را اجرایی خواهیم کرد.
مدیر عامل سازمان تاکسیرانی شهر تهران درباره افرادی هم که تاکسی دارند، اما برای جابه جایی مسافر از آن استفاده نمی‌کنند، گفت: تعدادی تاکسی در تهران وجود دارد که در خدمت مردم نیست. پدیده‌ای که سالهاست با آن مواجه بوده‌ایم. برخی افراد تاکسیران نیستند، اما تاکسی را گرفتند و از مزایای آن استفاده می‌کنند. با این روش نظارت دیگر تاکسیران واقعی مشخص خواهد شد.
وی همچنین با بیان اینکه تاکسی بانوان قرار است به صورت ۲۴ ساعته باشد و دائما سرویس‌دهی کند و پیگیری‌هایی صورت گرفته و به زودی این امر هم اجرا می‌شود، گفت: تعاملاتی نیز  با تاکسی‌های اینترنتی داشته‌ایم. جلسات مفصلی گذاشته‌ایم. تصور اینکه بر روی یک مسافر دو نفر بجنگند درست نیست. ما جلساتی گذاشته‌ایم و مدل‌های تعاملی استخراج شده است.
وی افزود: احتمالا به زودی امکان واگذاری سهام برخی از تاکسی‌های اینترنتی به راننده‌های تاکسی فراهم می‌شود. تاکسیران می‌تواند با سرویس‌دهی بخشی از سهام شرکت را داشته باشد البته به هر میزانی که توانایی دارد. تعاملات اولیه صورت گرفته، اما هنوز نهایی نشده است. ما همچنین بر روی مدل کسب و کار برنامه ریزی کنیم.

درخواست آلمان برای اعمال سریع مقررات هوش مصنوعی

دوشنبه, ۲۸ فروردين ۱۴۰۲، ۰۴:۵۵ ب.ظ | ۰ نظر

وزیر دیجیتال فدرال آلمان خواستار اعمال مقررات سریع اتحادیه اروپا برای کاربرد هوش مصنوعی و تنظیم این فن آوری جدید و انطباق آن با ارزش‌های اروپایی شد.
به گزارش تسنیم به نقل از "ان تی وی" آلمان، ایتالیا اولین کشور غربی است که ChatGPT را به دلیل نگرانی‌های فزاینده مسدود کرد" . فولکر ویسینگ"، وزیر دیجیتال فدرال آلمان فکر می‌کند که این راه اشتباه است و برای مقابله با هوش مصنوعی بر استراتژی متفاوتی تکیه می‌کند.

وزیر دیجیتال آلمان خواستار مقررات سریع اتحادیه اروپا برای کاربردهای هوش مصنوعی شده است. ویزینگ در گفتگویی با نشریه بیلد آلمان گفت: هوش مصنوعی وارد زندگی روزمره شده است و زندگی ما را به طور اساسی تغییر خواهد داد. اتحادیه اروپا باید به سرعت به این موضوع واکنش نشان دهد. همچنین وزارت کشور فدرال آلمان خواهان یک چارچوب قانونی شفاف در این راستا است.

ویزینگ گفت: ما باید اکنون عاقلانه واکنش نشان دهیم و هوش مصنوعی را به طور معقولی تنظیم کنیم، قبل از اینکه برای این کار خیلی دیر شود. این کار نباید دوباره سال‌ها طول بکشد. باید اطمینان حاصل شود که این فناوری جدید تنها در صورتی قابل استفاده است که به ارزش‌های اروپایی مانند دموکراسی، شفافیت و بی طرفی پایبند باشد.

وزیر دیجیتال آلمان در عین حال نسبت به مقررات افراطی هشدار داد و از ایتالیا برای مسدود کردن برنامه ChatGPT در آنجا انتقاد کرد. وی در این باره گفت: اگر همه کشورهای اروپایی از این مثال پیروی کنند، ما هیچ برنامه کاربردی هوش مصنوعی را توسعه نخواهیم داد. پس ما در این صورت در آینده فقط با سیستم‌های چینی و آمریکایی سرو کار خواهیم داشت.

این مقام آلمانی گفت: سیستم های توتالیتر می خواستند از هوش مصنوعی برای محدود کردن آزادی استفاده کنند. وی گفت: ما نباید میدان را به آنها بسپاریم. ما به برنامه‌های کاربردی هوش مصنوعی اروپایی نیاز داریم که بر اساس یک مبنای قانونی قابل اعتماد ایجاد شوند. مردم نمی‌خواهند بدون این فناوری کار کنند. ممنوعیت راه کاملاً اشتباهی است.

یک سخنگوی وزارت کشور فدرال آلمان هم به «هندلزبلات» گفت که استفاده از هوش مصنوعی پتانسیل بسیار خوبی دارد. وی گفت: با این حال، ایجاد تعادل بین باز بودن به نوآوری و یک چارچوب قانونی روشن ضروری است.

برنامه‌های مبتنی بر هوش مصنوعی مانند ChatGPT با کمک هوش مصنوعی محتوا تولید می‌کنند. کاربران می‌توانند دستورات یا جملاتی را مشخص کنند که سیستم‌های مربوطه به‌طور مستقل آن‌ها را با کمک حجم وسیعی از داده‌های اینترنت تکمیل می‌کنند.

نتایج جدیدترین نظر سنجی هم نشان می دهد که اکثر شهروندان آلمانی از قوانین سختگیرانه تر برای توسعه هوش مصنوعی حمایت می‌کنند.

اکثریت آلمانی‌ها خواهان قوانین واضح برای هوش مصنوعی هستند. رئیس پارلمان آلمان نیز مقامات امنیتی و دادستان‌های عمومی را در این راستا مسئول ارزیابی کرده است.

هوش مصنوعی مشاور قابل اعتماد پزشکان است

دوشنبه, ۲۸ فروردين ۱۴۰۲، ۰۴:۰۰ ب.ظ | ۰ نظر

تیمی از محققان در تازه‌ترین مطالعات خود به بررسی قابل اعتماد بودن توصیه‌های پزشکی هوش مصنوعی پرداختند.
به گزارش خبرگزاری صدا و سیما بیمارستان‌ها شروع به استفاده از «ابزار‌های پشتیبانی تصمیم» با هوش مصنوعی کرده‌اند که می‌توانند بیماری را تشخیص دهند، درمان را پیشنهاد کرده و یا نتیجه جراحی را پیش‌بینی کنند، اما هیچ الگوریتمی همیشه درست نیست، بنابراین چگونه پزشکان می‌دانند چه زمانی به توصیه‌های هوش مصنوعی اعتماد کنند.

یک مطالعه جدید به رهبری کیان یانگ، استادیار علوم اطلاعات در کالج محاسباتی و علوم اطلاعات کورنل آن اس بورز، نشان می‌دهد که اگر ابزار‌های هوش مصنوعی بتوانند مانند یک همکار به پزشک مشاوره دهند، در آن صورت پزشکان بهتر می‌توانند مزایای توصیه هوش مصنوعی را بسنجند.

محققان مطالعه جدید را با عنوان «استفاده از ادبیات زیست پزشکی برای کالیبره کردن اعتماد پزشکان به سیستم‌های پشتیبانی تصمیم گیری هوش مصنوعی» در آوریل در کنفرانس CHI انجمن ماشین‌های محاسباتی در مورد عوامل انسانی در سیستم‌های محاسباتی ارائه خواهند کرد.

یانگ گفت: پیش از این، بیشتر محققان هوش مصنوعی با توضیح نحوه عملکرد الگوریتم زیربنایی یا داده‌هایی که برای آموزش هوش مصنوعی استفاده شده‌اند، به پزشکان کمک کرده‌اند تا پیشنهادات ابزار‌های پشتیبانی تصمیم را ارزیابی کنند، اما آموزش در مورد چگونگی پیش‌بینی‌های هوش مصنوعی کافی نبود. بسیاری از پزشکان تلاش می‌کردند دریابند آیا این ابزار در آزمایش‌های بالینی تایید شده است یا خیر که معمولا با این ابزار‌ها اتفاق نمی‌افتد.

یانگ گفت: «وظیفه اصلی یک پزشک یادگیری نحوه عملکرد هوش مصنوعی نیست. اگر بتوانیم سیستم‌هایی بسازیم که بر اساس نتایج کارآزمایی‌های بالینی و مقالات ژورنالی که اطلاعات قابل اعتمادی برای پزشکان هستند، به تایید پیشنهاد‌های هوش مصنوعی کمک کند، می‌توانیم به آن‌ها کمک کنیم تا بفهمند که آیا هوش مصنوعی احتمالا برای هر مورد خاص درست است یا خیر».

بنا بر  اعلام مدیکال اکسپرس ‎ برای توسعه این سیستم، محققان ابتدا با ۹ پزشک در طیف وسیعی از تخصص‌ها و سه کتابدار بالینی مصاحبه کردند. آن‌ها دریافتند هنگامی که پزشکان در مورد روش صحیح اقدام با هم اختلاف نظر دارند، نتایج حاصل از تحقیقات زیست پزشکی مرتبط و مطالعات موردی را با در نظر گرفتن کیفیت هر مطالعه و میزان تطبیق آن با مورد مورد نظر پیگیری می‌کنند.

یانگ و همکارانش نمونه اولیه ابزار تصمیم گیری بالینی خود را ساختند که این فرآیند را با ارائه شواهد زیست پزشکی در کنار توصیه هوش مصنوعی تقلید می‌کند. آن‌ها از GPT-۳ برای یافتن و خلاصه کردن تحقیقات مرتبط استفاده کردند.

یانگ گفت: «ما سیستمی ساختیم که اساسا سعی می‌کند ارتباطات بین فردی پزشکان را بازسازی کند و همان نوع شواهد را از ادبیات بالینی برای حمایت از پیشنهاد هوش مصنوعی به دست آورد.

رابط ابزار پشتیبانی تصمیم، اطلاعات بیمار، تاریخچه پزشکی و نتایج آزمایش‌ها را از یک طرف، با تشخیص شخصی یا پیشنهاد درمانی هوش مصنوعی از سوی دیگر و به دنبال آن مطالعات بیوپزشکی مربوطه فهرست می‌کند. در پاسخ به بازخورد پزشک، محققان یک خلاصه کوتاه برای هر مطالعه اضافه کردند که جزئیات جمعیت بیمار، مداخلات پزشکی و نتایج بیمار را برجسته می‌کرد تا پزشکان بتوانند به سرعت مهم‌ترین اطلاعات را جذب کنند.

تیم تحقیقاتی ابزار‌های پشتیبانی تصمیم گیری اولیه را برای سه تخصص عصب شناسی، روانپزشکی و مراقبت‌های تسکینی توسعه دادند و از سه پزشک از هر تخصص خواستند تا نمونه اولیه را با ارزیابی موارد نمونه آزمایش کنند.

در مصاحبه‌ها، پزشکان گفتند از شواهد بالینی قدردانی می‌کنند، آن‌ها را بصری و قابل درک می‌دانند و آن را به توضیح عملکرد درونی هوش مصنوعی ترجیح می‌دهند.

یانگ گفت: «این یک روش بسیار قابل تعمیم است. این نوع رویکرد می‌تواند برای همه تخصص‌های پزشکی و سایر کاربرد‌هایی که به شواهد علمی نیاز است، مانند پلتفرم‌های پرسش و پاسخ برای پاسخ‌گویی به سوالات بیمار یا حتی بررسی خودکار واقعیت‌های اخبار مرتبط با سلامت، کار کند. امیدوارم که آن را در انواع مختلف سیستم‌های هوش مصنوعی که در حال توسعه هستند تعبیه شده ببینم تا بتوانیم آن‌ها را برای تمرین بالینی مفید کنیم»

تلاش دولت‌ها برای مقررات‌گذاری ChatGPT

يكشنبه, ۲۷ فروردين ۱۴۰۲، ۰۴:۱۲ ب.ظ | ۰ نظر

در پی رشد فزاینده چت‌جی‌پی‌تی در جهان نگرانی‌هایی پیرامون سیستم‌های هوش مصنوعی ایجاد شده و کشور‌های مختلف در تلاش تنظیم قوانینی برای این فناوری هستند.

به گزارش خبرگزاری صداوسیما به نقل از رویترز، پیشرفت‌های سریع در هوش مصنوعی مانند چت‌جی‌پی‌تی که توسط مایکروسافت پشتیبانی می‌شود، تلاش‌های دولت‌ها را برای توافق روی قوانین حاکم بر استفاده از فناوری پیچیده می‌کند.

آژانس حفاظت از داده‌های ایتالیا اعلام کرد در صورتی که شرکت آمریکایی OpenAI تا پایان آوریل از خواسته‌های حفاظت از داده‌ها و حریم خصوصی پیروی کند، ممنوعیت موقت فناوری هوش مصنوعی چت‌جی‌پی‌تی را لغو خواهد کرد.

در ادامه آخرین اقداماتی که نهاد‌های حاکم ملی و بین المللی برای تنظیم ابزار‌های هوش مصنوعی انجام داده اند، گفته شده:

استرالیا

سخنگوی وزارت علوم و صنعت این کشور در ۱۲ آوریل گفت: دولت درباره نحوه پاسخگویی به هوش مصنوعی از نهاد اصلی مشاوره علمی استرالیا درخواست مشاوره کرده و در حال بررسی مراحل بعدی است.

انگلیس

این کشور در ماه مارس اعلام کرد قصد دارد به جای ایجاد یک نهاد جدید، مسئولیت مدیریت هوش مصنوعی را بین تنظیم‌کننده‌های حقوق بشر، سلامت و ایمنی و رقابت تقسیم کند.

چین

تنظیم گر فضای مجازی چین در ۱۱ آوریل از پیش‌نویس اقداماتی برای مدیریت خدمات هوش مصنوعی مولد پرده برداری کرد و گفت: از شرکت‌ها می‌خواهد تا ارزیابی‌های امنیتی را قبل از ارائه خدمات به مردم به مقامات ارائه کنند.

دفتر اقتصاد و فناوری اطلاعات چین در ماه فوریه اعلام کرد: پکن، پایتخت چین، از شرکت‌های پیشرو در ساخت مدل‌های هوش مصنوعی که می‌توانند چت‌جی‌پی‌تی را به چالش بکشند، حمایت خواهد کرد.

اتحادیه اروپا

قانونگذاران اتحادیه اروپا در حال بحث درباره معرفی قانون هوش مصنوعی اتحادیه اروپا هستند که بر هرکسی که محصول یا خدماتی را ارائه می‌دهد که از هوش مصنوعی استفاده می‌کند، حکومت می‌کند. این قانون سیستم‌هایی را که می‌توانند خروجی‌هایی مانند محتوا، پیش‌بینی‌ها، توصیه‌ها یا تصمیم‌گیری‌های تأثیرگذار بر محیط‌ها ایجاد کنند، پوشش می‌دهد.

قانون‌گذاران پیشنهاد کرده‌اند که ابزار‌های هوش مصنوعی مختلف براساس سطح ریسک درک شده، از کم تا غیرقابل قبول طبقه‌بندی شوند.

فرانسه

ناظر حریم خصوصی این کشور (CNIL) در ۱۱ آوریل گفت: در حال بررسی چندین شکایت در مورد چت‌جی‌پی‌تی پس از ممنوعیت موقت این فناوری در ایتالیا به دلیل مشکوک به نقض قوانین حفظ حریم خصوصی است.

مجلس ملی فرانسه در ماه مارس استفاده از نظارت تصویری هوش مصنوعی را در بازی‌های المپیک ۲۰۲۴ پاریس، بدون توجه به هشدار‌های گروه‌های حقوق مدنی مبنی بر اینکه این فناوری تهدیدی برای آزادی‌های مدنی است، تصویب کرد.

ایتالیا

ایتالیا در ۳۱ مارس پس از اینکه آژانس ملی داده، نگرانی‌هایی را درباره نقض احتمالی حریم خصوصی و عدم تأیید سن کاربران ۱۳ ساله یا بالاتر، همانطور که درخواست کرده بود، ابراز و یک ممنوعیت موقت برای چت‌جی‌پی‌تی OpenAI اعمال کرد.

روز چهارشنبه، آژانس حفاظت از داده‌های این کشور، مهلتی تا پایان آوریل برای OpenAI تعیین کرد تا خواسته‌های خود در مورد حفاظت از داده‌ها و حریم خصوصی را قبل از از سرگیری این سرویس در کشور برآورده کند.

ژاپن

وزیر تحول دیجیتال تارو کونو در ۱۰ آوریل گفت که خواهان نشست آتی وزرای دیجیتال G۷ است. این جلسه برای بحث در مورد فناوری‌های هوش مصنوعی از جمله چت‌جی‌پی‌تی و صدور یک پیام یکپارچه G۷ برای ۲۹ تا ۳۰ آوریل تعیین شده است.

اسپانیا

این کشور در ۱۱ آوریل به رویترز گفت: آژانس حفاظت از داده‌های اسپانیا از ناظر حریم خصوصی اتحادیه اروپا خواسته تا نگرانی‌های مربوط به حریم خصوصی چت‌جی‌پی‌تی را ارزیابی کند.

آمریکا

دولت آمریکا در ۱۱ آوریل اعلام کرد در پس ابهامات و سوالاتی که درخصوص تأثیر هوش مصنوعی بر امنیت ملی و نظام آموزش وجود دارد، به دنبال وضع قوانینی درباره سیستم‌های هوش مصنوعی است. جو بایدن قبلا به مشاوران علم و فناوری گفته بود که هوش مصنوعی می‌تواند در رسیدگی به بیماری‌ها و تغییرات آب و هوایی کمک کند، اما رسیدگی به خطرات بالقوه برای جامعه، امنیت ملی و اقتصاد نیز مهم است.

کشور ایران با توجه به وسعت، شرایط اقلیمی‌و جغرافیایی و همچنین جمعیت رو به پیری، نیازمند بکارگیری خدمات و راهکارهای فناورانه برای ارایه خدمات درمانی از دسترسی به سوابق پزشکی بیماران گرفته، تا معاینات پزشکی و حتی اجرای عمل‌های جراحی و در یک کلام تحقق مقوله «مراقبت‌های بهداشتی از راه دور» یا Remote healthcare  است.
به گزارش آی‌تی آنالیز، فارغ از شرایط خاص و آتی کشور، ایران اکنون یکی از قطب‌های مهم گردشگری درمانی در منطقه به شمار می‌رود که سالانه پذیرای گردشگران زیادی از کشورهای همسایه و دیگر نقاط دنیا برای انجام عمل‌های جراحی و درمانی است که فرصت‌های درآمدی مهمی‌را در اختیار کشور قرار داده است.
این در حالیست که یکی از مهم‌ترین موارد استفاده فناوری نسل پنجم که با ادامه گسترش این فناوری در سراسر جهان در حال ظهور است، ارایه انواع مراقبت‌های پزشکی از راه دور است.
چراکه مزیت‌های عمده شبکه‌های 5G در ارایه انواع خدمات و نظارت از راه دور شامل عواملی نظیر اتصالات با پهنای باند سریع و کم‌تاخیر، امنیت و اطمینان بیشتر در ارتباطات و همچنین افزایش ظرفیت برای تعداد دستگاه‌های متصل در هر کیلومتر مربع است.
به عبارت دیگر با اتکا به این فناوری، پزشکان و بیماران می‌توانند مشاوره ویدیویی در زمان واقعی داشته باشند و به سوابق پزشکی و نتایج آزمایشات از هر کجا دسترسی داشته باشند. همین مزیت نیز می‌تواند دسترسی به مراقبت را به ویژه برای کسانی که در مناطق روستایی یا مناطق محروم هستند بهبود بخشد. 
اگرچه پیش از این تجربه پیاده‌سازی نخستین «جراحی از راه دور» در ایران همپای کشورهای تکنولوژیک و توسعه‌یافته مبتنی بر شبکه پرسرعت و 5G  توسط همراه اول محقق شد تا این اقدام گواهی عملی و اجرایی بر امکان تحقق این کاربری مهم بر بستر شبکه نسل پنجم باشد.



نکته قابل توجه آنکه همراه اول از سال‌های گذشته تحقق این کاربرد مهم بر بستر شبکه نسل پنج را در دستور کار گذاشته بود و سرانجام  یوزکیس 5G جراحی از راه دور را برای نخستین بار در نمایشگاه تلکام 1397 رونمایی کرد و در تاریخ دوم تیرماه سال 1400 نیز نخستین جراحی واقعی رباتیک از راه دور در ایران با سامانه «جراحی از راه دور» بومی‌و از فاصله ۷ کیلومتری بین بیمارستان‌های امام‌خمینی (ره) و سینا بر روی یک حیوان انجام شد.
در آن مقطع با بیان اینکه برای انجام آن جراحی مهم، پهنای باند 5 گیگابیت در ثانیه آماده شده بود که عملا حدود 20 درصد آن مصرف شد، آمادگی همراه اول برای انجام عمل‌های جراحی توسط پزشکان روی انسان، آن هم در آینده نزدیک و بر بستر این اپراتور رسما اعلام شد.


•    فرصت تلفیق نسل 5 و هوش مصنوعی
اکنون اما در کنار فناوری پیشران و تحول‌گرایانه نسل 5 یک فرصت تاریخی دیگر نیز در اختیار کشور قرار گرفته است؛ تلفیق نسل پنج و هوش مصنوعی.
 هوش مصنوعی امروزه با رشدی انفجاری در کشورها و عرصه‌های مختلف مواجه شده است و با توجه به کاربردهای موثر و متنوع آن تا کنون صدها میلیارد دلار در دنیا روی این فناوری سرمایه‌گذاری شده است.
در نامه‌ای که اخیرا در The Lancet Infectious Diseases منتشر شده است، پزشکان انگلیسی در همکاری با دانشگاه لیورپول، تحقیقات متعدد و پیچیده‌ای روی هوش مصنوعی کردند که در نتیجه آن، پزشکان از عملکرد دقیق هوش مصنوعی در تشخیص عفونت و تجویز دارو حیرت زده شدند.


لذا چندان تعجب آور نیست که هوش مصنوعی می‌تواند در مراقبت‌های بهداشتی از راه دور نیز نقش مهمی‌ داشته باشد. 
به عبارت دیگر با تجزیه و تحلیل مقادیر زیادی از داده‌های بیمار، الگوریتم‌های هوش مصنوعی می‌توانند به ارائه‌دهندگان مراقبت‌های بهداشتی در شناسایی الگوها و تشخیص دقیق‌تر کمک کنند. 
چت ربات‌ها و دستیاران مجازی مجهز به هوش مصنوعی نیز می‌توانند توصیه‌های پزشکی اولیه را به بیماران ارایه دهند و به آنها کمک کنند تا سلامت خود را به طور موثرتری از خانه مدیریت کنند. 
همچنین سیستم‌های نظارت از راه دور بیمار که از هوش مصنوعی استفاده می‌کنند می‌توانند علائم حیاتی بیمار را ردیابی کنند و در صورت تشخیص هر گونه ناهنجاری نسبت به ارایه‌دهندگان مراقبت‌های بهداشتی هشدار دهند. 
هوش مصنوعی همچنین می‌تواند برای کشف و توسعه دارو مورد استفاده قرار گیرد و به محققان این امکان را می‌دهد که مجموعه داده‌های عظیمی ‌را تجزیه و تحلیل کنند و درمان‌های جدید بالقوه را سریعتر از همیشه شناسایی کنند. 
به طور کلی، هوش مصنوعی پتانسیل بهبود کیفیت مراقبت‌های بهداشتی از راه دور را با ارایه مراقبت‌های شخصی‌تر، بهبود تشخیص‌ها و حمایت از تصمیم‌گیری در زمان واقعی توسط متخصصان مراقبت‌های بهداشتی دارد. 

 

•    زمان بهره‌گیری از تجربیات ملی
لذا با توجه به اهمیت و وابستگی فناوری هوش مصنوعی در تحقق خدمات درمانی از راه دور به شبکه‌های پرسرعت و پیشرفته نسل 5 و همچنین اجرای موفق یکی از بالاترین اقدامات در علم پزشکی، یعنی جراحی رباتیک از راه دور بر بستر شبکه همراه اول که نیازمند سرعت مطمئن و بالا بود، پرسش اصلی اینجاست که آیا زمان آن نرسیده که ما نیز حاصل این تجربیات و دستاوردهای ملی را را با هوش مصنوعی تلفیق کنیم؟ 


در همین حال اگر نمونه موفق اجرای نخستین جراحی رباتیک از راه دور بر بستر شبکه نسل 5 همراه اول، آن هم حدود 2 سال قبل را نداشتیم، این موضوع بیشتر جنبه تئوریک و شعاری داشت، اما با توجه به انجام این مهم، تقاضا و انتظار برای حمایت از توسعه و گسترش همزمان شبکه 5G و فناوری هوش مصنوعی در کشور بیش از پیش است.
به عبارت دیگر با توجه به نیاز به سرمایه‌گذاری‌ها و برنامه‌ریزی‌های کلان برای آینده نه چندان دور، اکنون یک فرصت و مسوولیت تاریخی به عهده متولیان عرصه ارتباطات و اپراتورهای ارتباطی کشور است.
مساله دیگر اینجاست که امکان ارایه مشاوره و خدمات درمانی و پزشکی از راه دور، با توجه به سابقه، توانمندی و تجربیات شناخته شده ایران در دنیا، این فرصت تنها محدود به جغرافیای کشور نمانده و در صورت فراهم‌سازی شبکه و زیرساخت‌های ارتباطی پرسرعت و قابل اتکا در کشور، امکان ارایه «مراقبت‌های بهداشتی از راه دور» به انبوهی از متقاضیان در دیگر نقاط دنیا نیز فراهم شده و فرصت‌های اقتصادی و تجربی زیادی برای کشور به ارمغان خواهد داشت.
لذا در این راه مسوولیت متولیان و رگولاتورهای عرصه ارتباطات کشور، رفع موانع و تسهیل هر چه بیشتر زمینه شتابدهی به توسعه فناوری‌های 5G و هوش مصنوعی است و مسوولیت اپراتورهای موبایل کشور (همراه اول و ایرانسل) نیز برنامه‌ریزی و سرمایه‌گذاری‌های کلان در اجرای زمینه‌ها و زیرساخت‌های تحقق این فناوری‌ها است.


•    الزامات هوشمندسازی اپراتورها
در گام نخست اما تحقق این مهم با توجه به ماموریت و عملکرد اپراتورها، ابتدا نیازمند هوشمندسازی شبکه خود این اپراتورهاست.
امروزه اپراتورهای موبایل دیگر محدود به ارایه خدمات اولیه تلفن و اینترنت نیستند و اکنون صنعت مخابرات در مرکز رشد فناوری قرار دارد که توسط خدمات باند پهن موبایل و5G  در عصر اینترنت اشیا (IoT) رهبری می‌شود. 
لذا با توجه به برآوردها، هدف‌گذاری‌ها، سرمایه‌گذاری‌ها و مسیر حرکت اپراتورهای بزرگ دنیا، انتظار می‌رود این رشد به دلیل پذیرش سریع هوش مصنوعی (AI) در صنعت مخابرات ادامه یابد. 


بر اساس برآوردها اندازه بازار جهانی هوش مصنوعی در ارتباطات از راه دور، از 11.89 میلیارد دلار در سال 2020 تا سال 2027 به 14.99 میلیارد دلار خواهد رسید.
این در حالیست که بر اساس روند و تجربه اپراتورهای بزرگ دنیا، استفاده از هوش مصنوعی منجر به تحقق مواردی نظیر بهینه سازی شبکه، پیش‌بینی و اجرای تعمیرات، بکارگیری دستیاران مجازی برای پشتیبانی از مشتری، پیاده‌سازی اتوماسیون فرآیندهای رباتیک، جلوگیری از وقوع کلاهبرداری‌ها، و افزایش درآمد در شبکه اپراتورهای موبایل می‌شود. آن هم در شرایطی که با سیل روزافزون فرصت‌ها و تقاضا برای استفاده از زیرساخت‌های فراهم شده بر بستر فناوری نسل 5 و هوش مصنوعی از سوی مشترکان و متقضیان مواجه هستند.
در همین راستا اگرچه همراه اول به عنوان پیشران ارتباطات و فناوری کشور اقدامات گسترده‌ای برای سرمایه‌گذاری، پیاده‌سازی و گسترش کاربردهای مبتنی بر فناوری‌های نسل 5 و هوش مصنوعی را در دستور کار داشته و عملیاتی کرده است، لیکن همانطور که ذکر شد با توجه به جایگاه و نقش کلیدی دو اپراتور اصلی کشور یعنی همراه اول و ایرانسل در تلفیق نسل 5 و هوش مصنوعی و بکارگیری آن در «مراقبت‌های بهداشتی از راه دور» که یکی از نیازهای حساس و مهم ایران در آینده نه چندان دور است، تصمیمات مهم متولیان عرصه ارتباطات از یک سو و اقدامات این دو اپراتور از سوی دیگر، از اهمیتی تاریخی برای کشور برخوردار است.

از ChatGPT استفاده کنیم یا نه؟

يكشنبه, ۲۷ فروردين ۱۴۰۲، ۰۲:۰۵ ب.ظ | ۰ نظر

عباس پورخصالیان - اظهار نظر دربارۀ معایب و مزایای چَتباتِ ChatGPT (که روبات گفتگوکنندۀ برخط با کاربران است) پنج ماه است که موضوع روز و دستور کار شوراها و کمیسیون‌های سیاست گذاری در اتحادیۀ اروپا است، و از

شروط ایتالیا برای رفع فیلتر ChatGPT

شنبه, ۲۶ فروردين ۱۴۰۲، ۰۶:۵۳ ب.ظ | ۰ نظر

منبع: مهر
آژانس حفاظت از داده‌های ایتالیا فهرستی از شرایط فعال شدن ربات هوش مصنوعی گپ چت جی پی تی را اعلام کرده است که باید تا ۳۰ آوریل برآورده شوند.
به گزارش مهر به نقل از رویترز، ایتالیا به علت نگرانی از برخی سوءاستفاده‌ها از چت جی پی تی و تبعات آن، برای فیلترینگ این ابزار اقدام کرده بود.
تقریباً دو هفته پیش OpenAI که مورد حمایت شرکت مایکروسافت است در ایتالیا فیلتر شد. این کشور به طور موقت پردازش اطلاعات شخصی توسط آن را محدود کرد و تحقیقاتی را در مورد نقض مشکوک قوانین حریم خصوصی توسط چت جی پی تی آغاز کرد.
این نهاد موسوم به گارانته در بیانیه‌ای در روز چهارشنبه مجموعه‌ای از خواسته‌های خود برای رفع فیلتر چت جی پی تی را مطرح کرد.
 سخنگوی ایتالیایی مایکروسافت در این مورد گفت: "ما خوشحالیم که ایتالیا در حال بررسی تصمیم خود است و مشتاقانه منتظر همکاری با آنها هستیم تا به زودی دوباره ChatGPT را در اختیار مشتریان خود در ایتالیا قرار دهیم."
 این نهاد از OpenAI خواست ابزاری فراهم کند تا همه افرادی که داده‌هایشان در چت جی پی تی مورد استفاده است، بتوانند درخواست تصحیح یا حذف داده‌های شخصی خود که به‌طور نادرست توسط این سرویس ایجاد شده‌اند را مطرح کنند. OpenAI همچنین باید به غیر کاربران اجازه دهد تا «به روشی ساده و در دسترس» با پردازش داده‌های شخصی خود برای اجرای الگوریتم‌های چت جی پی تی مخالفت کنند.
 همچنین از این شرکت خواسته شده تا تا پایان سپتامبر یک سیستم تأیید سن را راه اندازی کند تا دسترسی کاربران زیر ۱۳ سال به چت جی پی تی ممنوع شود.

چاک شومر، رهبر اکثریت سنا، روز پنجشنبه گفت که تلاش‌هایی را برای ایجاد قوانینی در مورد هوش مصنوعی برای رسیدگی به نگرانی‌های امنیت ملی و آموزش آغاز کرده است.
به گزارش خبرگزاری صداوسیما به نقل از رویترز، چاک شومر، رهبر اکثریت سنا گفت: تلاش‌هایی را برای ایجاد قوانینی درمورد هوش مصنوعی برای رسیدگی به نگرانی‌های امنیت ملی و آموزش آغاز کرده، زیرا استفاده از برنامه‌هایی مانند ChatGPT در حال گسترش است.

شومر که یک دموکرات است در بیانیه‌ای گفت: چارچوبی را تهیه و منتشر کرده که یک رژیم نظارتی جدید را ترسیم می‌کند که از آسیب‌های بالقوه فاجعه‌بار به کشور ما جلوگیری کرده و همزمان تضمینی برای پیشرفت و پیشروی آمریکا در این فناوری تحول‌آفرین است.

چت جی پی تی، یک برنامه هوش مصنوعی که به تازگی توجه عموم را به دلیل توانایی در نوشتن سریع پاسخ به طیف گسترده‌ای از سوالات جلب کرده است. این فناوری با بیش از ۱۰۰ میلیون کاربر فعال ماهانه به سریع‌ترین برنامه مصرف کننده در تاریخ تبدیل شده است.

طرح شومر به تایید کنگره و کاخ سفید نیاز دارد و ممکن است ماه‌ها یا بیشتر طول بکشد. با این حال این اقدام، ملموس‌ترین گامی است که دولت آمریکا ممکن است مقررات جدیدی برای رسیدگی به نگرانی‌های فزاینده در مورد هوش مصنوعی مولد اتخاذ کند.

شومر گفت: برای پیشی گرفتن از این فناوری جدید قدرتمند ضروری است تا از آسیب‌های بالقوه گسترده به جامعه و امنیت ملی جلوگیری و در عوض از آن با پیشبرد قوانین قوی و دو حزبی استفاده کنیم.

پیشنهاد شومر از شرکت‌ها می‌خواهد که به کارشناسان مستقل اجازه دهند تا قبل از انتشار عمومی یا به‌روزرسانی، فناوری‌های هوش مصنوعی را بررسی و آزمایش کنند و به کاربران اجازه دسترسی به یافته‌ها را بدهند. او هنوز پیش نویس قانونی را تنظیم نکرده است.

شومر به انتشار رویکرد خود در این هفته برای تنظیم هوش مصنوعی اشاره کرد و آن را زنگ بیدارباشی برای ملت خواند. او گفت: برای آمریکا ضروری است که قوانین حاکم بر چنین فناوری تحول آفرینی را رهبری و شکل دهد و به چین اجازه ندهد در نوآوری پیشروی کند.

جو بایدن هفته گذشته گفت: باید دید آیا هوش مصنوعی خطرناک است یا خیر. او گفت: به نظر من، شرکت‌های فناوری مسئولیت دارند که از ایمن بودن محصولاتشان قبل از عمومی کردن آن‌ها مطمئن شوند. وزارت بازرگانی روز سه شنبه اعلام کرد: به دنبال نظرات عمومی در مورد اقدامات بالقوه پاسخگویی برای هوش مصنوعی است

تنظیم‌کننده فضای سایبری چین هم از پیش‌نویس اقداماتی برای مدیریت خدمات هوش مصنوعی مولد پرده برداری کرد و گفت که از شرکت‌ها می‌خواهد ارزیابی‌های امنیتی را قبل از ارائه خدمات به عموم به مقامات ارائه کنند.

شرکت مایکروسافت یک سرمایه گذار بزرگ در OpenAI است که چت جی پی تی را ایجاد کرد. یک شرکت نرم‌افزاری و گوگل هم میلیارد‌ها دلار برای هوش مصنوعی سرمایه‌گذاری کرده‌اند تا در میان رقابت شدید در سیلیکون ولی، برتری پیدا کند.

این سه شرکت هنوز درباره طرح شومر اظهار نظر نکردند.

رتبه دوم عربستان در آگاهی اجتماعی هوش مصنوعی

شنبه, ۲۶ فروردين ۱۴۰۲، ۰۴:۵۹ ب.ظ | ۰ نظر

به گفته کارشناسان، عربستان سعودی رتبه دوم جهانی را در آگاهی جامعه از هوش مصنوعی دارد.
به گزارش سایبربان؛ خبرگزاری عربستان سعودی (SPA) گزارش داد که این کشور در رتبه دوم آگاهی اجتماعی از هوش مصنوعی در جهان قرار دارد.

بررسی شاخص هوش مصنوعی در ششمین ویرایش آن، که به‌وسیله دانشگاه استنفورد (Stanford) آمریکا منتشر شد، نشان داد که میزان اعتماد شهروندان سعودی در برخورد با محصولات و خدمات هوش مصنوعی در این کشور بسیار زیاد است.

این کشور پس از چین قرار گرفت که از نظر مثبت‌اندیشی و خوش‌بینی شهروندان سعودی نسبت به محصولات و خدمات هوش مصنوعی ارائه شده در عربستان در مراحل فعلی و آینده رتبه اول را به خود اختصاص داد.

نظرسنجی شامل تعدادی معیار بود که مهم‌ترین آنها میزان دانش جامعه از مزایا و ارزش محصولات و خدمات هوش مصنوعی بود.

عربستان سعودی در مقام اول جهان، برابر با چین و بالاتر از کره جنوبی و آمریکا، در پرسشی در مورد تأثیر مثبت محصولات و خدمات هوش مصنوعی بر زندگی پاسخ دهندگان در نظرسنجی طی 3 تا 5 سال آینده قرار گرفت.

زمانی که این پرسش مطرح می‌شود که آیا محصولات و خدمات هوش مصنوعی زندگی پاسخگویان را آسان‌تر می‌کند یا خیر، عربستان سعودی در رتبه دوم جهان، بالاتر از کره جنوبی و برزیل، قرار گرفت.

همچنین زمانی که از پاسخ دهندگان در مورد دانش آنها درباره مزایا و ارزش محصولات و خدمات هوش مصنوعی پرسیده شد، در سطح جهانی بالاتر از هند، فرانسه و روسیه در رتبه دوم قرار گرفت.

کارشناسان معتقدند که تلاش‌ها در عربستان سعودی برای توسعه هوش مصنوعی متوقف نمی‌شود و ریاض در سال 2021 اعلام کرد که قصد دارد 400 شرکت در زمینه هوش مصنوعی تأسیس کند و در جذب سرمایه‌گذاری در این زمینه طی 10 سال آینده، حدود 80 میلیارد ریال سعودی مشارکت داشته باشد.

عبدالله بن شرف الغامدی (Abdullah bin Sharaf Al-Ghamdi)، رئیس اداره اطلاعات و هوش مصنوعی عربستان سعودی، در سال 2022 گفت که تا سال 2024، 70 درصد مؤسسات در این کشور از زیرساخت‌های مبتنی بر هوش مصنوعی و خدمات ابری هوشمند برای فعال کردن هوش مصنوعی استفاده خواهند کرد.

به گفته الغامدی، بیش از 50 درصد سازمان‌ها از خدمات هوش مصنوعی میزبانی شده استفاده می‌کنند و تا سال 2023 مجموعه‌های کاربردی خود را افزایش می‌دهند.

ارتش رژیم صهیونیستی فناوری هوش مصنوعی میدان نبرد را با ادعای مقابله با حماس و محافظت در برابر تهدید ایران ایجاد می‌کند.
به گزارش سایبربان؛ ارتش رژیم صهیونیستی بر این باور است که ادغام هوش مصنوعی (AI) در عملیات‌های نظامی یک جهش به جلو است، اما محققان نگرانی‌هایی را در مورد تشدید بالقوه هوش مصنوعی در میدان نبرد مطرح کرده‌اند.

اوری (Uri)، رئیس بخش داده و هوش مصنوعی، بخش تحول دیجیتال، به فاکس نیوز دیجیتال گفت : «ارتش اسرائیل پتانسیل زیادی برای یک جهش رو به جلو وجود دارد. هرکسی که بخواهد چنین تغییری ایجاد کند با چالش بزرگی روبرو است.»

به گزارش اورشلیم پست، ارتش اسرائیل در ماه فوریه امسال اعلام کرد که استفاده از هوش مصنوعی را در عملیات‌های خود آغاز کرده و روش‌های دیجیتال جدید به تولید 200 دارایی هدف جدید در طی یک عملیات 10 روزه در سال 2021 کمک کرد تا با موفقیت حداقل 2 فرمانده حماس را هدف قرار دهد.

یوآو (Yoav)، فرمانده علوم داده و هوش مصنوعی در مورد این عملیات ادعا کرد : «شکستن سد انسانی را به خاطر بسپارید؛ مواقعی بود که تقریباً یک سال برای ما زمان برد. چگونه این کار را انجام دهیم؟ ما زیر گروه‌های اصلی را می‌گیریم، حلقه نزدیک آنها [ارتباطات شخصی] و ویژگی‌های مربوطه را محاسبه، نتایج را رتبه‌بندی، آستانه‌ها را تعیین و از بازخورد افسران اطلاعاتی برای بهبود الگوریتم استفاده می‌کنیم.»

وی خاطرنشان کرد که ارتش اسرائیل حداقل یک فرمانده موشکی جوخه حماس و یکی از واحدهای موشکی ضد تانک حماس را از این طریق پیدا کرده است. او از جنگ 2021 غزه به عنوان نخستین جنگ دیجیتال یاد کرد و اظهار داشت که افسران چند پیشرفت بزرگ را مشاهده و سیستم ‌ا را 150 بار در 10 روز به‌روزرسانی کرده‌اند.

بحث آزاد در مورد استفاده ارتش اسرائیل از هوش مصنوعی باعث نگرانی 2 محقق به نام‌های تال میمران (Tal Mimran) و لیور واینشتاین (Lior Weinstein) از دانشگاه عبری اورشلیم شد. این زوج عجله برای پذیرش هوش مصنوعی را «نابه‌هنگام» نامیدند و هشدار دادند که استفاده از هوش مصنوعی به «احتیاط بیشتری» در هنگام استقرار ابزارها نیاز دارد.

یکی از نگرانی‌هایی که محققان در مقاله‌شان در وب‌سایت مؤسسه لیبر (Lieber) وست پوینت (West Point) منتشر کرده‌اند، بر عدم شفافیت در مورد چگونگی دستیابی هوش مصنوعی به نتیجه‌گیری‌های آنها، که اسرائیل براساس آن عمل می‌کند و همچنین نگرانی‌هایی مبنی بر اینکه چنین ابزارهایی ممکن است از سوی شرکای نظامی خصوصی مورد سوءاستفاده قرار گیرد، تمرکز کرده است.

به گفته محققان، بسیار مهم است که اسرائیل از این فناوری علیه چه کسی استفاده می‌کند و استفاده از آن علیه کشوری با فناوری‌های پیشرفته دیگر مانند ایران در مقابل ساکنان کرانه باختری بر «ادراکی» که پیرامون استفاده از این ابزارها ایجاد می‌شود، تأثیر می‌گذارد.

علاوه بر این، آنها استدلال کردند که استفاده از ابزارهای هوش مصنوعی گروه‌های دشمن را دعوت می‌کند تا از این ابزارها نیز علیه ارتش اسرائیل و شهروندان اسرائیلی استفاده کنند، با این استدلال که کاربرد ارتش اسرائیل استفاده متقابل از این ابزارها را توجیه می‌کند.

اوری این مسائل را به عنوان بخشی از چالش بزرگ تصدیق و تأکید کرد که عنصر انسانی برای استفاده منصفانه و ادغام فناوری هوش مصنوعی حیاتی است.

وی افزود : «ماهیت تحول دیجیتال تغییر این سازمان است. ما و بسیاری از ارگان‌هایی که با یکدیگر همکاری می‌کنند، به یک ارتباط نیاز داریم و سپس تحول آغاز می‌شود. بخشی از آن صحبت کردن به یک زبان است، بخشی از آن درک بزرگی فرصت و نوع تغییر است. ما به دنبال جایگزینی افراد نیستیم، بلکه به دنبال بهبود و ارتقای سطح اثربخشی عملیاتی هستیم. در شمارش شما به عنوان یک انسان محدودیتی وجود دارد که می‌توانید پردازش کنید.»

نگرانی آمریکا از ورود چین به هوش مصنوعی

جمعه, ۲۵ فروردين ۱۴۰۲، ۰۴:۲۱ ب.ظ | ۰ نظر

اعلام کشور چین برای توسعه هوش مصنوعی نگرانی‌هایی را در آمریکا و اروپا ایجاد کرده و درخواست‌هایی را برای اعمال مقررات و ممنوعیت ها علیه این جریان ایجاد کرده است.
به گزارش تسنیم به نقل از "ان تی وی" آلمان، کشور چین می خواهد از توسعه هوش مصنوعی حمایت کند . این بیانیه باعث نگرانی اروپا و ایالات متحده شده است و فراخوان های اعمال مقررات یا ممنوعیت ها بلندتر می شود.

به این ترتیب دستورات برنامه‌ریزی شده چین برای جهت‌گیری ایدئولوژیک سیستم‌های هوش مصنوعی آن، به درخواست‌ها در غرب برای تنظیم این صنعت به سرعت در حال تحول دامن زده است.

فلوریان تورسکی، وزیر امور مربوط به دیجیتالی سازی اتریش در این باره گفت که در صورت اجرای این طرح‌ها، لازم است سیستم‌های هوش مصنوعی ایجاد شده در چین از بازار اتحادیه اروپا حذف و در اروپا ممنوع شوند.

"چاک شومر"، رهبر اکثریت مجلس سنای ایالات متحده، همچنین به چین اشاره کرد و از نیاز به اقدام سریع با توجه به تأثیر هوش مصنوعی بر جامعه آمریکا و اقتصاد جهانی صحبت کرده و تاکید کرد که او در حال تدارک یک طرح غیرحزبی برای این منظور است.

تنظیم‌کننده اینترنت چین، CAC، روز سه‌شنبه اعلام کرد که از توسعه هوش مصنوعی مولد برای مثال، نوع فناوری ChatGPT پشتیبانی می‌کند . در این بیانیه آمده است: با این حال، محتوای متناظر باید با ارزش های اساسی سوسیالیستی مطابقت داشته باشد. بنابراین، ارائه‌دهندگان باید در قبال داده‌ها مسئول باشند و در صورت عدم رعایت قوانین باید منتظر مجازات باشند.

"تورسکی" اعلامیه چین را تهدیدی برای دموکراسی خوانده و گفت: هوش مصنوعی نباید از هیچ ایدئولوژی تحمیلی دولتی پیروی کند. این منجر به ورود سیستم های هوش مصنوعی چینی به اروپا می شود که ردپای ایدئولوژیک حزب کمونیست چین را دارند. بنابراین وی از کمیسیون اتحادیه اروپا خواسته است تا مجموعه قوانین مربوط به قانون هوش مصنوعی را در اسرع وقت تکمیل کند. این مسئله در نظر گرفته شده است تا اطمینان حاصل شود که از پتانسیل هوش مصنوعی می توان به طور ایمن استفاده کرد. تورسکی توضیح داد که نمی توان تا اوایل سال 2025 برای مقررات اتحادیه اروپا صبر کرد. دو سال پیش، کمیسیون اتحادیه اروپا اولین پیش‌نویس این قانون را با هدف محافظت از شهروندان در برابر خطرات هوش مصنوعی ارائه کرد.

به گفته وی با این حال، به دلیل توسعه سریع، امیدها برای توافق در سطح اتحادیه اروپا از بین رفت.

به گفته دفتر شومر، ایالات متحده ماه هاست در مورد یک چارچوب اساسی برای مقررات بحث کرده است و کارشناسان برجسته هوش مصنوعی نیز در این کار حضور داشتند. هدف ارائه مشخصاتی است که بتوان آن را با پیشرفت‌های بعدی تطبیق داد. در ابتدا هیچ نظری از سوی جمهوری خواهان وجود نداشت. آنها اکثریت مجلس نمایندگان را در اختیار دارند و به طور سنتی در مورد مقررات ایالتی تردید دارند. روز سه‌شنبه، دولت جو بایدن، رئیس‌جمهور آمریکا اولین گام‌ها را به سوی دستورالعمل‌های ممکن برداشت و اعلام کرد که یک کمیته مشورتی در وزارت بازرگانی خواستار بیانیه‌های عمومی درباره مکانیسم پاسخگویی برای هوش مصنوعی شد.

هوش مصنوعی مولد از طریق ChatGPT هلدینگ مایکروسافت OpenAI موجی در سیاست و تجارت ایجاد کرده است. به عنوان مثال، این برنامه می تواند به سوالات پاسخ دهد یا متون کامل را بر اساس چند کلمه کلیدی ایجاد کند. مقادیر زیاد و از پیش تغذیه شده متن به عنوان پایه عمل می کند. نگرانی هایی در مورد پاسخ های نادرست و حفاظت از داده ها در این تکنولوژی وجود دارد. ChatGPT در ایتالیا مسدود شده است. . افسر حفاظت از داده های فرانسه CNIL هم این اقدام را در دستور کار قرار داده است. در آلمان، وزارت دیجیتال فدرال این ممنوعیت را رد می کند.

استفاده و سواستفاده ایرانی‌ها از ChatGPT

سه شنبه, ۲۲ فروردين ۱۴۰۲، ۰۲:۱۸ ب.ظ | ۰ نظر

عباس پورخصالیان – تا پیش از معرفی چَتباتِ OpenAI در اکتبر سال 2022، برترینِ فراورده‌های هوش مصنوعی، روبات‌هایی خودکار بودند. عروس روبات‌های خودکار نیز خودروهای خودرانِ ساخت کارخانۀ تسلای ایلان ماسک

اپراتورها و آینده هوش مصنوعی در ایران

سه شنبه, ۲۲ فروردين ۱۴۰۲، ۱۱:۴۷ ق.ظ | ۰ نظر

هوش مصنوعی یا به اختصار AI اکنون وارد فاز رشد انفجاری خود شده و آینده بسیاری از فناوری‌های دیگر نیز بر پایه همین فناوری شکل می‌گیرد.  

توانایی هوش مصنوعی در هک نیمی از پسوردها

يكشنبه, ۲۰ فروردين ۱۴۰۲، ۰۶:۲۷ ب.ظ | ۰ نظر

متخصصان از مدل هوش مصنوعی سخن به میان می آورند که توان شکستن نیمی از پسوردهای موجود روی کرۀ زمین در کمتر از یک دقیقه را دارد!

به گزارش برنا، هوش مصنوعی (Artificial Intelligence) مولد تاکنون کاربرد های بسیاری برای کاربران داشته است. برخی از این کارکردها امکان دارد بسیار خطرناک باشند. طبق گزارش ۹to5Mac، سرویس مبتنی بر هوش مصنوعی به نام PassGAN قادر است نیمی از پسوردها را تنها کمتر از یک دقیقه تشخیص دهد. همچنین رمز عبور ۷۱ درصد از آن ها در کمتر از یک روز شناسایی شد.

ماه گذشته مایکروسافت (Microsoft) ضمن اشاره به خطرات هوش مصنوعی در آینده از سرویس جدیدی به نام Security Copilot رونمایی کرد که میتواند از بروز این خطرات جلوگیری کند. همچنین پژوهشگران امنیتی می توانند در مقابل سواستفاده از تجهیزات مدرن از این قابلیت استفاده کنند. یک شرکت امنیتی به نام Home security Heroes در این مورد تحقیقاتی را انجام داده است. این شرکت با این مطالعه چهره ترسناک و قدرتمند هوش مصنوعی مولد را نشان داده است. در این تحقیق از سیستم PassGAN و حدود ۱۵ میلیون نام کاربری و رمز عبور استفاده شد.

پس از این موضوع محققان امنیتی بطور دستی رمزهای عبور شکسته شده را مورد بررسی قرار دادند. البته PassGAN میتواند بطور خودکار در فهرست های فاش شده به سراغ توزیع رمزهای عبور واقعی رفته و آن ها را یاد بگیرد.

کاربران برای ایمن داشتن حساب های کاربری خود باید از رمز عبورهای ایمن تر استفاده کنند. یک رمز عبور ایمن شامل ۱۲ کاراکتر است که در آن حروف کوچک و بزرگ، عدد و نمادها استفاده شده باشد. این رمز عبورها به راحتی رمزهای عبور ساده تشخیص داده نخواهند شد.

۱۰ شغل در معرض خطر با هوش مصنوعی

يكشنبه, ۲۰ فروردين ۱۴۰۲، ۰۶:۱۱ ب.ظ | ۰ نظر

در مطلب زیر به بررسی قربانیان نگون بخت انقلاب تکنولوژی ۲۰۲۳ پرداخته‌ایم.
این روزها به هر طرف که نگاه می‌کنید صحبت از هوش مصنوعی است. همان طور که متاورس(محیط‌های مجازی سه بعدی، شبیه به زندگی واقعی) در سال ۲۰۲۲ بسیار بر سر زبانها بود، امسال نیز هوش مصنوعی روی کار آمده است؛ نوآوری تکنولوژیکی که یا نحوه زندگی ما را بهبود می‌بخشد یا آن را تهدید خواهد کرد.

اگرچه زندگی دوم (به انگلیسیSecond Life، یک دنیای مجازی است که در آن کاربران کامپیوتر می‌توانند یک شخصیت مجازی بسازند و زندگی مجازی را تجربه کنند) به واقعیت تبدیل نشد، اما احتمالا هوش مصنوعی بسیار تأثیرگذارتر خواهد بود. برخی آن را با ظهور اتوماسیون در چند دهه اخیر مقایسه می‌کنند، که در آن تمام صنایع توسط ماشین‌های روباتیک و خودکار تغییر شکل دادند. هوش مصنوعی نیز خبر از همین سرنوشت برای مشاغل اداری را می‌دهد و طبق گزارش اخیر گلدمن ساکس، تخمین زده می‌شود که هوش مصنوعی جایگزین ۳۰۰ میلیون کارگر انسانی شود. در اینجا به بررسی ۱۰ شغلی می‌پردازیم که هوش مصنوعی می تواند آنها را کاملا نابود کند.

 

۱- حسابدارها

گام بعدی در توسعه مدل‌های جدید هوش مصنوعی، آموزش برنامه‌های تخصصی‌تر خواهد بود، تا آنها بتوانند بجای آموزش در طیف وسیعی از داده‌ها، مسیرهای هدفمندتری را دنبال کنند. یکی از هدفمندترین و امیدوارکننده‌ترین این مسیرها، ساختن یک هوش مصنوعی برای انجام وظایف اصلی حسابداری است. شغل حسابداران محدود به قوانینی واضح و قابل درک است، و این دقیقا همان چیزی است که برای آموزش یک هوش مصنوعی استفاده می‌کنید.

در حال حاضر شرکت‌های حسابداری مانند Sage برای خودکار سازی فرآیندهای خود از هوش مصنوعی استفاده می‌کنند و با پایدار و قابل اعتماد شدن این الگوریتم‌ها، نیاز به نیروی کار انسانی کاهش می‌یابد. اتوماسیون، کار حسابدارانی که در سطوح پایین کار می‌کنند را حذف خواهد کرد و این صنعت تنها به حسابرسان و ناظران ارشد برای بررسی کارهای انجام شده توسط هوش مصنوعی نیاز خواهد داشت.

 

۲- مدیران محتوا

در مورد بار عاطفی محتوای شبکه‌های اجتماعی مانند فیس‌بوک و توییتر مطالب زیادی نوشته شده است. موضوعی که ناظران محتوای خود را مجبور می‌کنند تا عکس‌ها، ویدیوها و سایر محتواهای وحشتناک را فیلتر کنند تا بقیه، آنها را نبینند. بخش قابل توجهی از این کار قبلاً توسط الگوریتم‌های هوش مصنوعی بررسی شده است، اما اغلب، تصمیم نهایی باید توسط یک انسان گرفته شود. طبیعتا با پیشرفت این برنامه‌ها، تعداد تصمیمات انسانی کاهش می‌یابد و هوش مصنوعی روز به روز دقیق و دقیق تر می‌شود. با اینکه ما هرگز دوست نداریم کسی شغل خود را از دست بدهد، اما هر چقدر تعداد افرادی که مجبور هستند این اصلاحات وحشتناک را انجام دهند کمتر شود، بهتر است.

 

۳- معاونان و مشاوران حقوقی

این ایده قبلا مطرح شده که به هوش مصنوعی اجازه داده شود تا در دادگاه‌ها حاضر شده و پرونده‌ها را دنبال کنند، اما هنوز مطمئن نیستیم که هیچ الگوریتمی آماده باشد تا در مقابل یک قاضی حاضر شود و یا حتی مشتری را پیدا نخواهید کرد که دفاع از پرونده خود را به دست یک هوش مصنوعی بسپارد. اما احتمالا زمانی که وکلا بفهمند تا چه حد می‌توانند از هوش مصنوعی در بررسی رویه قضایی برای تهیه خلاصه پرونده‌ها و احکامی که به آن استناد می‌کنند استفاده کنند، رده‌های پایین‌تر شغلی در این زمینه، احساس آسیب‌پذیری خواهند کرد. هیچ پرونده‌ای بدون بررسی پیشینه‌های تاریخی و بدون کمک یک تیم که این کار را انجام دهند به دادگاه نخواهد رفت، و این کاری است که ماشین‌ها در انجام آن فوق‌العاده هستند. البته برای این شغل بخشی وجود دارد که نیاز به تفسیر دارد، و این کار را می‌توان به اعضای ارشد تیم سپرد.

 

۴- تصحیح کنندگان

همه می‌دانیم که توانایی ChatGPT برای تولید متون خوانا ثابت شده است، اما کیفیت واقعی آن متون می‌تواند بسیار ضعیف باشد. با این حال، از هوش مصنوعی می‌توان به عنوان یک مصحح برای متونی که توسط انسان‌ها نوشته شده است استفاده کرد. روش کار به این صورت است که در نرم‌افزارهایی مانند Google Docs که برای نوشتن و پردازش متون استفاده می‌شوند، زیر کلماتی که املای آنها غلط است یک خط قرمز کشیده می‌شود، و تصحیح این غلط‌ها، کاری است که به طور سنتی توسط انسان‌ها انجام می‌شده است. اما با گسترده شدن مجموعه داده‌های هوش مصنوعی، آنها می‌توانند به خوبی از عهده انجام این کار بربیایند.

 

۵- معامله گران

درک جریان آشفته بازارهای مالی کار سختی است، و افرادی که در راس این مشاغل هستند اغلب بر اساس غریزه و ادراک عمل می‌کنند. اما معامله‌گران سهام بانک‌های بزرگ، که در سطح مبتدی هستند و به تازگی از دانشگاه بازرگانی خارج شده‌اند، بیشتر وقت خود را صرف مدل‌سازی پیش‌بینی در برنامه اکسل و انجام مدیریت داده‌ها می‌کنند. این کاری نیست که اتکای زیادی به محاسبات مغز انسان داشته باشد، و انجام آن توسط هوش مصنوعی کارآمدتر خواهد بود؛ زیرا احتمال خطا کاهش یافته و هوش مصنوعی می‌تواند مدل‌سازی‌های مقایسه‌ای پیچیده‌تری را انجام دهد. افرادی با مشاغل سطح بالاتر و کسانی که در این بانک‌ها و صندوق‌ها نقش مهم‌تری دارند همچنان مورد نیاز خواهند بود، اما افراد پایین این هرم باید آماده باشند تا هوش مصنوعی خیلی زود جای آنها را بگیرد.

 

۶- تایپیست‌ها(کسانی که گفتار را به متن تبدیل می‌کنند)

این جایگزینی از مدت‌ها قبل آغاز شده است، زیرا الگوریتم‌های تشخیص صدا در دهه‌های گذشته با سرعت خیره‌کننده‌ای پیشرفت کرده‌اند. سیستم‌های تبدیل گفتار به متن برای اولین بار در سال ۱۹۵۲عرضه شدند، اما یادگیری ماشینی مدرن، سیستم‌ها را قادر ساخته تا مجموعه داده‌های عظیمی از گفتار انسان را برای ایجاد رونویسی صوتی فوق‌العاده دقیق و سریع دریافت کنند. مشاغل زیادی از جمله وکالت و روزنامه‌نگاری، به تایپ و تبدیل فایل‌های صورتی به نوشتاری وابسته هستند، و در آینده‌ای نزدیک تمام این کارها توسط ماشین‌ها انجام خواهند شد.

 

۷- طراحان گرافیک

از بین رفتن این شغل بسیار دردناک است، اما این واقعیت تلخی است که در حال وقوع است. مدل‌های هوش مصنوعی قبلاً توانایی ایجاد تصاویر در سبک‌های مختلف را نشان داده‌اند. طراحی گرافیکی، که اصول خاصی از رنگ، ترکیب و خوانایی را رعایت می کند، فرصت‌های زیادی برای آزمون و خطا داشته است. تصور کنید بتوانید یک متن و چند عکس را به یک هوش مصنوعی طراح بدهید و این هوش مصنوعی ده‌ها طرح مختلف برای یک مجله، بیلبورد، یا مطالب تصویری به شما ارائه دهد. وقتی مشتری طرحی را انتخاب می‌کند، تبدیل طرح انتخابی او به یک فایل نهایی و آماده چاپ کاری ساده است. ممکن است که "تخیلات" از بین رفته باشد، اما اکثریت قریب به اتفاق مشتریان طراحی، در وهله اول خواهان تخیل نیستند.

 

۸- خدمات مشتری(خدمات پس از فروش)

یکی از سرگرمی‌های آمریکایی‌ها شکایت از خدمات پس از فروش است، فرقی نمی‌کند که این خدمات از خارج برای آنها مهیا شود یا حتی ارائه‌دهنده آن انسان نباشد. همانطور که نرم‌افزارهای تبدیل متن به گفتار سریعتر و پیشرفته‌تر می‌شوند، پس باید انتظار داشته باشید کسی که آن طرف خط تلفن پاسخگوی شماست، هوش مصنوعی است. سرمایه‌گذاری بر روی هوش مصنوعی بسیار آسان‌تر از مرکز تماسی است که بسته به تعدادی از عوامل خارجی، هزینه‌های کارکنان آن غیرقابل پیش‌بینی است. همه ما به شنیدن پیغام‌های صوتی، هنگام تماس با شرکت‌ها و وصل شدن به منوهای مختلف پاسخگویی آنها آشنا هستیم و به آنها عادت کرده‌ایم. استفاده از سرویس خدمات مشتری که بصورت هوش مصنوعی باشد، گامی اجتناب ناپذیر است و صنایع نیز موافق این موضوع هستند.

 

۹- سربازان

تلفات جانی در عملیات نظامی، بار سنگینی برای یک کشور است. به همین دلیل است که استفاده از وسایل نقیله‌ای که از راه دور توسط انسان‌ها هدایت می‌شوند و همچنین سایر پیشرفت‌های تکنولوژیکی، به شکل چشم‌گیری افزایش یافته است. همچنین کسانی که به میدان‌های جنگ می‌روند، دچار آسیب‌های روانی می‌شوند که باید بتوانیم از وقوع آنها جلوگیری کنیم. تجهیزات جنگی خودکار، پدیده‌ای جدید نیستند. اما پیشرفت‌های فناوری، این امکان را ایجاد کرده تا هواپیماهای بدون سرنشین و سایر سلاح‌های جنگی، بتوانند بدون نظارت انسانی تصمیم گیری کرده و بجنگند. ممکن است جنگ جهانی سوم، جنگی بین ماشین‌ها با یکدیگر، یا جنگ ماشین‌ها با ما باشد!

 

۱۰- نویسندگان

تصور نکنید که همه متخصصان واژه‌شناس در دنیا، توسط قدرت هوش مصنوعی بیکار خواهند شد. هوش مصنوعی هنوز این توانایی را ندارد که بتواند رمانی ارزشمند در مورد شرایط انسان‌ها بنویسد. اما می‌تواند نوشته‌های زیادی فقط برای پر کردن فضای رسانه‌ها، جلب رضایت موتورهای جستجو و شاید برای ارائه اطلاعات مفید تولید کند. برخی از رسانه‌ها قبلاً از برنامه‌هایی مانند ChatGPT برای نوشتن مقالات و پست‌های وبلاگ استفاده می‌کردند. با اینکه آنها تابحال به نتایج عالی نرسیده‌اند، اما در حال نزدیک شدن به نتیجه دلخواه هستند. اگر برای شما حجم مطالب تولیدی مهمتر از کیفیت است، هوش مصنوعی پیشنهاد جذابی برایتان خواهد بود. فقط امیدوار باشید که یک هوش مصنوعی کلماتی را که در حال حاضر مشغول خواندن آن هستید را ننوشته باشد!

منبع: خبرآنلاین

آلمان به دنبال ممنوعیت چت جی‌پی‌تی است

يكشنبه, ۲۰ فروردين ۱۴۰۲، ۰۵:۴۷ ب.ظ | ۰ نظر

ایتالیا نخستین کشور غربی بود که ربات چت جی‌پی‌تی را ممنوع کرد، با این حال، این برنامه در کشور‌هایی مانند چین، ایران، کره شمالی و روسیه نیز از دسترس خارج است.
به گزارش خبرگزاری صداوسیما، به نقل از پایگاه اینترنتی ایندیپندنت، در پی اقدام ایتالیا برای ممنوعیت ربات چت هوش مصنوعی جی‌پی‌تی، آلمان نیز درنظر دارد به دلیل نگرانی درمورد حریم خصوصی، استفاده از آن را ممنوع کند.

«اولریش کلبر» رئیس حفاظت از داده‌های کشور آلمان، به روزنامه هندلسبلات (Handelsblatt) گفت به دنبال ممنوعیت این ربات چت هوش مصنوعی در ایتالیا در هفته گذشته، ناظران آلمانی با همتایان ایتالیایی خود در ارتباط هستند.

کلبر گفت: «دراصل، احتمال دارد چنین اقدامی در آلمان نیز صورت بگیرد.

پس از آنکه مقام‌های حفاظت داده‌های ایتالیا به نتیجه رسیدند که این سامانه ربات چت هوش مصنوعی مبنای قانونی مناسبی برای جمع‌آوری اطلاعات شخصی افرادی که از آن استفاده می‌کنند ندارد، آن را مسدود کردند.

اوپن ای‌آی سازنده چت جی‌پی‌تی برای کمک به الگوریتم هوش مصنوعی که پاسخ‌ها را تولید می‌کند، داده‌هایی را جمع‌آوری می‌کند.

مقام‌های ایتالیایی همچنین اوپن ای‌آی را متهم کردند که بررسی‌های تایید سنی را برای کاربران چت‌جی‌پی‌تی انجام نداده است، چون کاربران جوان احتمالا در معرض «پاسخ‌های نامناسب» قرار دارند.

اداره حفاظت از داده‌های ایتالیا (GPDP) گفت که اوپن ای‌آی برای توجیه «جمع‌آوری و ذخیره انبوه داده‌های شخصی به منظور «آموزش» الگوریتم‌های زیربنایی عملکرد این پلتفرم» هیچ مبنای قانونی ندارد.

به نوشته ایندیپندنت، گویا سایر مقام‌های حفاظت داده‌های اروپایی، از جمله ناظران فرانسه و ایرلند نیز با سازمان حفاظت داده‌های ایتالیا در ارتباط هستند.

سخنگوی کمیسیون حفاظت داده‌های ایرلند (DPC) به خبرگزاری رویترز گفت: «ما با ناظر ایتالیایی تماس داریم تا مبنای اقدام آن‌ها را بفهمیم. ما با تمام مقام‌های حفاظت از داده‌های اتحادیه اروپا درمورد این موضوع همکاری خواهیم کرد».

ایندیپندنت در ادامه نوشت: ایتالیا نخستین کشور غربی بود که چت جی‌پی‌تی را ممنوع کرد، با این حال، این برنامه در کشور‌هایی مانند چین، ایران، کره شمالی و روسیه که بسیاری از برنامه‌های آمریکا در آن مسدود است، نیز از دسترس خارج است.

سازمان مصرف‌کنندگان اروپایی (BEUC) از اتحادیه اروپا خواست خطر‌های چت جی‌پی‌تی و ربات‌های مشابه چت را برای مصرف‌کنندگان اروپایی بررسی کند. اوپن ای‌آی به درخواست ایندیپندنت برای ابراز نظر درمورد این ممنوعیت پاسخ نداد.

این شرکت به‌دنبال ممنوعیت چت جی‌پی‌تی در ایتالیا آن را در این کشور مسدود کرد و دیگر اطلاعات کاربران ایتالیایی را پردازش نمی‌کند.

خطرات چت‌ربات‌های هوش مصنوعی برای حریم خصوصی

يكشنبه, ۲۰ فروردين ۱۴۰۲، ۰۵:۳۸ ب.ظ | ۰ نظر

ربات‌های چت هوش مصنوعی، از نظر استانداردهای فنی نسبتاً قدیمی هستند، اما جدیدترین محصول که توسط چت جی‌پی‌تی و بارد هدایت می‌شود، بسیار قوی‌تر از اجداد خود فعالیت می‌کنند.

به گزارش خبرگزاری صداوسیما به نقل از انگجت، انفجار اخیر در توسعه هوش مصنوعی نگرانی‌هایی را در مورد اطلاعات نادرست، سرقت ادبی و تولید بدافزارها ایجاد کرده است.

اکنون این سوال مطرح می‌شود که هوش مصنوعی ممکن است چه مشکلاتی برای حریم خصوصی کاربران عادی اینترنت ایجاد کند؟ به گفته کارشناسان، پاسخ این سوال تا حد زیادی به نحوه آموزش این ربات‌ها و میزان برنامه‌ریزی ما برای تعامل با آنها بستگی دارد.

چت‌ربات‌های هوش مصنوعی به منظور تکرار تعاملات شبیه انسان بر روی مقادیر انبوه داده آموزش می‌بینند.

«مگا سریواستاوا» دانشجوی دکترای دپارتمان علوم کامپیوتر استنفورد و عضو سابق هوش مصنوعی مایکروسافت ریسرچ، در این باره می‌گوید: این مدل‌ها در حال واکاوی مجموعه بزرگی از داده‌های در دسترس عموم در اینترنت هستند.

حتی اگر دسترسی به این اطلاعات برای کاربران معمولی دشوار باشد، این امکان وجود دارد که توسط ربات‌چت ذخیره شود.

«دیو لی» ستون‌نویس نشریه بلومبرگ در توییتر نوشت: وقتی شخصی از چت جی‌پی‌تی خواست تا در پلتفرم پیام‌رسانی رمزگذاری‌شده چت کند، شماره تلفن دقیق او را ارائه کرد.

وقتی از OpenAI، شرکت سازنده چت جی‌پی‌تی پرسیدیم که چه اقداماتی برای محافظت از حریم خصوصی داده‌ها انجام می‌دهد‏، پاسخی نداد.

بنابراین ما بهترین کار را انجام دادیم و از خود چت جی‌پی‌تی پرسیدیم. چت جی‌پی‌تی به ما گفت که برنامه‌ریزی شده تا از استانداردهای اخلاقی و قانونی که از حریم خصوصی و اطلاعات شخصی کاربران محافظت می‌کند، پیروی کند و به اطلاعات شخصی دسترسی ندارد.

گوگل هم در پاسخ به این سوال گفت که اقدامات مشابهی را در بارد برنامه‌ریزی کرده تا از اشتراک‌گذاری اطلاعات شخصی در طول مکالمه جلوگیری کند.

چت جی‌پی‌تی‏، دومین عامل مهمی که ممکن است توسط هوش مصنوعی برای حفظ حریم خصوصی ایجاد خطر کند را از طریق اطلاعات به اشتراک گذاشته‌شده مستقیم عنوان کرد.

خط‌مشی رازداری OpenAI به اطلاعات جمع‌آوری شده از کاربران اشاره می‌کند که می‌توانند قابل شناسایی باشند.

چت جی‌پی‌تی پس از راه‌اندازی به کاربر هشدار می‌دهد که ممکن است مکالمات توسط مربیان هوش مصنوعی برای بهبود سیستم‌ها بررسی شود.

در مقابل‏، بارد خط‌ مشی رازداری مستقلی ندارد اما از سند عمومی حریم خصوصی به اشتراک گذاشته شده توسط سایر محصولات گوگل استفاده می‌کند.

این شرکت گفت که مکالمات با بارد نباید در حساب گوگل کاربر ذخیره شود و کاربران می توانند مکالماتشان را حذف کنند.

«ریشی جتلی» استاد و محقق برجسته علوم انسانی در ویرجینیا در این زمینه گفت: کاربران باید در مورد سیاست‌های حفظ حریم خصوصی و رویه‌های حفاظت از داده‌ها آگاه باشند.

بر اساس صفحه پرسش‌های متداول سرویس چت جی‌پی‌تی استفاده از امکان مکالمات پاک، عملاً داده‌های کاربر را حذف نمی‌کند و OpenAI نیز قادر به حذف درخواست‌های خاص نیست.

در حالی که OpenAI کاربرانش را از اشتراک‌گذاری هر داده حساس منع می‌کند، ظاهراً تنها راه برای حذف اطلاعات شناسایی شخصیِ ارائه‌شده به چت جی‌پی‌تی، حذف حساب کاربر است که همه داده‌های مرتبط را برای همیشه حذف می‌کند.

در نتیجه برای آینده، بهتر است با این نوع ربات‌های چت با همان سوءظنی برخورد کنیم که کاربران باید با هر محصول فناوری دیگری رفتار کنند.

به گفته «مگا سریواستاوا»، کاربری که از این مدل‌های هوش مصنوعی استفاده می‌کند باید با این توقع وارد شود که هرگونه تعامل با مدل، نوعی بازی است که OpenAI یا هر یک از این شرکت‌ها می‌توانند از آن به نفع خود استفاده کنند.

برد لاتاری به کمک «ChatGPT»!

شنبه, ۱۹ فروردين ۱۴۰۲، ۰۴:۲۱ ب.ظ | ۰ نظر

یک مرد تایوانی ادعا می‌کند از فناوری «ChatGPT» برای تولید اعدادی استفاده کرده است که به او در برنده شدن قرعه‌کشی کمک کرده‌اند.

به گزارش ایسنا و به نقل از دیجیتال ترندز، «پاتاویکورن بونرین»(Patthawikorn Boonrin)، یک کاربر تایوانی فناوری «ChatGPT» اخیرا پس از به اشتراک گذاشتن جزئیات برنده شدن خود در لاتاری، در «تیک‌تاک»(TikTok) معروف شده است. بونرین در یک ویدئو، درباره نحوه استفاده از چت‌بات هوش مصنوعی شرکت «OpenAI» برای تولید اعدادی توضیح می‌دهد که آنها را برای شرکت در قرعه‌کشی و برنده شدن به کار گرفته است. راهبرد او شامل وارد کردن چند پرسش فرضی و تعدادی از اعداد برنده قبلی برای جستجوی ChatGPT است.

اعداد برنده بونرین برای قرعه‌کشی ۵۷، ۲۷، ۲۹ و ۹۹ بود و او ۲۰۰۰ بات تایلند معادل ۵۹ دلار آمریکا برنده شد. اگرچه این یک جایزه بزرگ نبود اما بونرین در مصاحبه با یک نشریه محلی گفت که از این راهبرد برای تولید اعداد قرعه‌کشی استفاده کرد و ChatGPT به او گفت که در مورد این روش، بیش از اندازه وسواس نداشته باشد و خاطرنشان کرد که برنده شدن در بخت‌آزمایی، یک شانس است. همچنین، ChatGPT به او پیشنهاد کرد که بیرون برود و کمی ورزش کند.

بونرین قصد دارد بیشتر در مورد تجربه خود در استفاده از ChatGPT برای تولید شماره‌های قرعه‌کشی صحبت کند. مطمئنا اگر بونرین یک برد دیگر و حتی بزرگتر به دست بیاورد، توجه بیشتری را به خود جلب خواهد کرد. بونرین ممکن است شرکت‌های قرعه‌کشی را به گفتگوی مداوم پیرامون اصول اخلاقی ChatGPT وارد کند.

از زمان آغاز کار ChatGPT در نوامبر ۲۰۲۲، نظرات متعددی درباره اخلاق و مشکلات مربوط به این فناوری وجود داشته است. موسساتی مانند کالج‌ها و دانشگاه‌ها، استفاده از این چت‌بات هوش مصنوعی را با این فرض که ممکن است سرقت ادبی و تقلب را در دانشگاه‌ها افزایش دهد، ممنوع کرده‌اند. در همین حال، چندین حوزه از جمله روزنامه‌نگاری، ارتباطات، هنر، فناوری و سایر صنایع از این خدمات استقبال کرده‌اند.

با وجود این، اجرای ChatGPT بدون حماقت نبوده است. مشخص شد انتشاراتی که هوش مصنوعی را برای تولید بی‌سروصدای مقالات به کار می‌برند، قطعاتی حاوی اطلاعات نادرست منتشر می‌کنند. آثار هنری که ظاهرا شبیه انسان هستند، اندام‌های لازم را ندارند و مدل زبانی GPT که توسط شرکت‌های دیگر استفاده می‌شود، زمانی که در معرض دید عموم قرار گرفت، نادرست عمل کرد.

نمی‌توان گفت که اگر افراد بیشتری سعی کنند ChatGPT را به عنوان روشی برای تولید اعداد قرعه‌کشی به کار ببرند، چه مشکلاتی ممکن است پیش بیاید.

تلاش چت جی‌پی‌تی برای رفع فیلتر در ایتالیا

شنبه, ۱۹ فروردين ۱۴۰۲، ۰۳:۳۷ ب.ظ | ۰ نظر

آژانس حفاظت از داده‌های ایتالیا گفت: شرکت OpenAI (سازنده چت جی‌پی‌تی) قرار است اقداماتی را در جهت رفع نگرانی‌هایی که منجر به ممنوعیت این فناوری در ایتالیا شده، ارائه دهد.
به گزارش خبرگزاری صداوسیما به نقل از رویترز، آژانس حفاظت از داده‌های ایتالیا گفت: OpenAI، سازنده چت جی پی تی، قصد دارد اقداماتی را برای رفع نگرانی‌هایی که منجر به ممنوعیت این فناوری در ایتالیا شده، ارائه دهد.

شرکت OpenAI تحت حمایت مایکروسافت، پس از آن که این آژانس هفته گذشته چت جی پی تی را به طور موقت محدود و تحقیقاتی را در مورد نقض مشکوک به قوانین حریم خصوصی آغاز کرد، چت جی پی تی را در ایتالیا آفلاین کرد.

این آژانس هفته گذشته OpenAI را متهم به اینکه سن کاربران چت جی پی تی را بررسی نکرده و عدم وجود هرگونه مبنای قانونی که جمع آوری و ذخیره گسترده داده‌های شخصی را توجیه کند، متهم کرد.

روز پنجشنبه این آژانس اعلام کرد که قصد ندارد مانع توسعه هوش مصنوعی شود، اما بر اهمیت احترام به قوانین با هدف حفاظت از اطلاعات شخصی شهروندان ایتالیایی و اروپایی تاکید کرد.

این آژانس گفت: OpenAI متعهد شد که در مورد نحوه مدیریت داده‌های کاربر و تایید سن کاربر شفاف‌تر عمل کند.

این شرکت هم گفت که سندی را در مورد اقدامات لازم برای پاسخگویی به درخواست‌های این آژانس ارسال خواهد کرد.

شرکت OpenAI یک پست وبلاگی با عنوان رویکرد ما به ایمنی هوش مصنوعی منتشر کرد و در آن گفت که در حال تلاش برای ایجاد سیاست‌های ظریف در برابر رفتار‌هایی است که نشان دهنده یک خطر واقعی برای مردم است.

در این بیانیه آمده: ما از داده‌ها برای فروش خدمات، تبلیغات یا ساختن پروفایل افراد استفاده نمی‌کنیم. ما از داده‌ها استفاده می‌کنیم تا مدل‌ها را برای افراد مفیدتر کنیم. برای مثال، چت جی پی تی با آموزش بیشتر در مورد مکالمه‌ای که مردم با آن دارند، بهبود می‌یابد. در حالی که برخی از داده‌های آموزشی ما شامل اطلاعات شخصی است که در اینترنت در دسترس است، ما می‌خواهیم مدل‌های ما در مورد جهان یاد بگیرند، نه افراد خصوصی.

این شرکت گفت: در صورت امکان اطلاعات شخصی را از مجموعه داده‌های خود حذف می‌کند.

ممنوعیت ایتالیا، حساسیت سایر تنظیم‌کننده‌های حریم خصوصی در اروپا را برانگیخته و در حال بررسی این هستند که آیا اقدامات سخت‌تر برای چت‌بات‌ها مورد نیاز است یا خیر.

در ماه فوریه، آژانس حفاظت از داده‌های ایتالیا شرکت ربات چت هوش مصنوعی Replika را از استفاده از اطلاعات شخصی کاربران ایتالیایی منع کرد و دلیل آن را خطراتی برای خردسالان و افراد احساسی دانست.

 

کار و بار سکه فیلترشکن فروش‌های ایتالیایی بعد از فیلتر یک اپلیکیشن

با محدود شدن دسترسی به «چت جی‌پی‌تی» در ایتالیا کاربران اینترنت در این کشور در به در دنبال فیلترشکن می‌گردند و جستجوی کلمه «VPN» رشدی باورنکردنی داشته است.

با فیلترشدن سرویس هوش مصنوعی محبوب «چت جی‌پی‌تی» در ایتالیا مردم این کشور بیش از هر زمانی دیگری اینترنت را برای یافتن فیلترشکن جستجو می‌کنند.

به گزارش خبرآنلاین، یک نهاد نظارتی در ایتالیا جمعه گذشته ممنوعیت فوری دسترسی به ربات چتِ محبوبِ مبتنی بر هوش مصنوعی ساخته شرکت آمریکایی «اُپن اِی. آی. / OpenAI» به دلیل ادعای نقض حریم خصوصی را صادر کرد.

حالا با محدود شدن دسترسی به این سرویس در ایتالیا کاربران اینترنت در این کشور در به در دنبال فیلترشکن می‌گردند و جستجوی کلمه «VPN» رشدی باورنکردنی داشته است.

روش پاسخ چت هوش مصنوعی به سؤالات

شنبه, ۱۹ فروردين ۱۴۰۲، ۰۳:۲۵ ب.ظ | ۰ نظر

این روزها در هر جمعی که باشید امکان ندارد حرف و حدیثی از هوش مصنوعی و چت‌جی‌پی‌تی نشنوید. برخی از افراد آن را یک اتفاق بسیار مهم و در واقع یک انقلاب در حوزه هوش مصنوعی می‌دانند و بسیاری حتی از سازوکار آن بی‌اطلاعند. در واقع ربات ChatGPT با درک بهتر زبان طبیعی انسان جهت ارائه پاسخ‌های دقیق‌ طراحی شده است.

تبیان نوشت: ChatGPT دستاورد شرکت تحقیقاتی OpenAI است که یک نمونه اولیه از چت‌بات دیالوگ‌ محور مبتنی بر هوش مصنوعی به حساب می‌آید که می‌تواند زبان طبیعی انسان را متوجه شود و متون نوشتاری بسیار دقیقی مشابه انسان تولید کند.
این دستاورد توانسته انقلابی در حوزه هوش مصنوعی ایجاد کند و  به کاربر این قابلیت را می‌دهد که با یک ربات صحبت کند و از او سوال بپرسد. این ربات به قدری پتانسیل بالایی دارد که توانسته به راحتی مقاله بنویسد، امتحان بدهد، ایمیل بفرستد و حتی مسائل پیچیده برنامه نویسی و ریاضیات را حل کند.

 

چت هوش مصنوعی چطور کار می‌کند؟

اما سؤالی که ذهن بسیاری از ما را درگیر کرده این است که این فناوری چگونه کار می‌کند و اصلا جواب این همه سوال را از کجا می‌آورد. اگر به صورت تخصصی بخواهیم جواب این پاسخ را بدهیم باید ابتدا اطلاعاتی درباره پردازش زبان طبیعی و مدل زبانی بزرگ داشته باشیم.
پردازش زبان طبیعی (Natural Language Processing) که به اختصار NLP نیز نامیده می‌شود، روشی است برای درک زبان انسانی برای رایانه؛ این علم یکی از زیر شاخه‌های دانش هوش مصنوعی محسوب می‌شود و به رایانه‌ها کمک می‌کند تا با آگاهی از چگونگی استفاده بشر از زبان، زبان انسانی را درک کند.
حال جدیدترین پیشرفت‌ها در حوزه پردازش زبان طبیعی مدل‌های زبانی بزرگ (Large language model) یا به اختصار LLM هستند. از این مدل‌های بزرگ زبانی می‌توان به LaMDA و یا GPT-3 اشاره کرد.
GPT-3 که مخفف Generative Pre-trained Transformer است، یک مدل زبانی به حساب می‌آید که از یادگیری عمیق برای تولید متنی شبیه انسان استفاده می‌کند. حال ChatGPT نیز در واقع مبتنی بر نسخه‌ی به‌روز شده GPT-3 است. LaMDA هم همان مدل زبانی است که چند ماه پیش، یکی از کارمندان گوگل بنام بلیک لموین مدعی شد این مدل زبانی خودآگاه است و به ادراک رسیده است. در واقع این کیفیت متن تولید شده توسط این مدل‌های زبانی و به ویژه GPT-3 به حدی بالا است که تعیین اینکه آیا توسط انسان نوشته شده‌است یا خیر، دشوار است.
حال برگردیم به موضوع اصلی، ChatGPT یک مدل زبان مبتنی بر ترانسفورماتور است که از تکنیک‌های یادگیری عمیق برای تولید متن استفاده می‌کند.
ترانسفورمر یا تبدیل کننده بنابر تعریف گوگل مدلی تولید می‌کند که می‌تواند برای خواندن کلمات پشت سرهم (مثلا یک جمله یا پاراگراف) آموزش داده شود و به نحوه‌ی ارتباط آن کلمات با یکدیگر را بررسی و سپس پیش‌بینی می‌کند که به‌نظرش، کلمات بعدی چه خواهند بود. به زبان ساده یعنی ترانسفورمر به جای بررسی کلمه به کلمه کل جملات را هم‌ زمان بررسی می‌کند و می‌تواند روابط بین آن‌ها را برای درک بهتر کلام ورودی و متناسب با موقعیتی که این جملات به‌کار رفته‌اند، مدل‌سازی کند.

 

این سیستم چطور پاسخ درست با جمله‌بندی مناسب ارائه می‌‌دهد؟

وقتی کاربر یک سؤال می‌پرسد و یا یک درخواستی دارد، چت جی‌پی‌تی آن را به عنوان اطلاعات ورودی دریافت می‌کند و از این اطلاعات برای ایجاد یک پاسخ منسجم و مرتبط با زمینه استفاده می‌کند. هوش مصنوعی از طریق استفاده از تکنیک‌های یادگیری عمیق، الگوریتم‌های آموزش داده شده و با استفاده از منبع عظیم داده‌های متنی که دارد، می‌تواند پاسخی را تولید کند که هم از نظر گرامری صحیح و هم از نظر معنایی معنی‌دار باشد. البته اکثر کارشناسان بر این باورند که این گونه سوال و جواب و شیوه پاسخگویی برای افراد عادی ساخته شده و نه متخصصان هر حوزه. در واقع اینگونه برداشت می‌شود که پاسخ‌های ارائه شده در صد در صد مواقع درست نیست و نباید در موارد تخصصی به آن تکیه کرد.

 

ChatGPT با موتور جستجو چه تفاوتی دارد؟

حال که تا حدودی با نحوه کار این ربات آشنا شدیم، این سؤال پدید می‌آید که پس چه تفاوتی با موتورهای جستجو دارد؟
هدف این چت‌بات گفتگو با کاربر طراحی شده در حالیکه موتور جستجو، فهرستی از داده‌های موجود بر روی شبکه اینترنت را تهیه می‌کند. یعنی ChatGPT توانایی جستجو در داده‌های موجود بر روی شبکه اینترنت را ندارد و از اطلاعاتی که برای آموزش آن استفاده شده و استفاده از منبع اطلاعاتش در ارائه خروجی استفاده می‌کند. در واقع تا عمق بسیار زیادی از کتاب‌ها، مقالات و محتواهای منتشر شده بر بستر اینترنت را تا پایان سال 2021 خوانده و ذخیره کرده است. برای درک این مطلب یک مثال می‌زنیم: فرض کنید می‌خواهید نتیجه یک مسابقه فوتبال را که ساعتی قبل به پایان رسیده بدانید و یا مثلا قیمت روز بیت کوین را بپرسید، قاعدتا پاسخ اشتباه می‌دهد، در صورتی که در کسری از ثانیه موتور جستجوی گوگل پاسخ صحیح را به شما ارائه می‌دهد.
البته ناگفته نماند نسخه حرفه‌ای‌تر ChatGPTکه اصطلاحا به آن Playground یا زمین بازی می‌گویند، به اینترنت متصل است، قابلیت جستجو و تنظیمات دارد ولی مانند ChatGPT رایگان نیست و هزینه اشتراک ماهانه دارد. ولی چیزی که این روزها اکثر افراد درباره آن صحبت می‌کنند، چت جی‌پی‌تی است که اطلاعاتش تا آخر 2021 بروز شده و نواقصی در خود دارد که نمی‌شود به طور کامل به پاسخ‌های آن اتکا کرد و بیشتر به عنوان یک مشاور کارایی دارد.

پایان پیام/ت

 

ورود علی بابا به میدان رقابت با ChatGPT

شنبه, ۱۹ فروردين ۱۴۰۲، ۰۳:۱۳ ب.ظ | ۰ نظر

شرکت علی‌بابا آزمایش مدل هوش مصنوعی خود را آغاز کرده است و می‌خواهد با این محصول به جنگ ChatGPT برود.
به گزارش خبرگزاری صدا و سیما، شرکت علی‌بابا، غول تجارت الکترونیک چین، درحال کار روی یک مدل هوش مصنوعی جدید است و از کاربران دعوت کرده تا به آزمایش چت‌بات آن‌ها موسوم به Tongyi Qianwen بپردازند. این چت‌بات در رقابت با ChatGPT ساخته شده که در ماه‌های اخیر توجهات بسیاری را به خود جلب کرده است.
براساس گزارش رویترز، علی‌بابا به‌دنبال شرکت‌هایی می‌گردد که حاضر به آزمایش چت‌بات هوش مصنوعی آن‌ها باشند. این چت‌بات ظاهراً نه برای عموم کاربران، بلکه با هدف استفاده تجاری توسط کسب‌وکار‌ها ساخته شده است. علی‌بابا در همین زمینه مکاتباتی را از طریق WeChat با شرکت‌ها انجام داده تا آزمایش این نرم‌افزار را شروع کنند.
خبرگزاری South China Morning Post نیز می‌گوید مشتریان تجاری این شرکت می‌توانند به‌وسیله اکانت رسمی WeChat کسب‌وکار ابری علی‌بابا به این چت‌بات دسترسی پیدا کنند. افرادی که مایل به انجام این کار هستند، می‌توانند شماره تلفن و آدرس ایمیل خود را در اختیار این شرکت قرار دهند تا با آن‌ها تماس برقرار شود.
درحال‌حاضر اطلاعات زیادی درباره قابلیت‌های Tongyi Qianwen در دسترس نیست، اما کسب‌وکار ابری علی‌بابا سه‌شنبه همین هفته رویدادی برگزار خواهد کرد تا به‌صورت رسمی از این چت‌بات پرده بردارد. پس از این مراسم می‌توانیم مقایسه دقیق‌تری بین این هوش مصنوعی، ChatGPT، بینگ مایکروسافت و بارد گوگل داشته باشیم.
با توجه به رقابت سنگین شرکت‌های فناوری در حوزه هوش مصنوعی، اگر Tongyi Qianwen برتری خاصی نسبت به محصولات رقبا داشته باشد، بقیه شرکت‌ها هم طبیعتاً بیکار نخواهند نشست و به‌دنبال توسعه مدل‌های خود می‌روند تا از این رقابت عقب نمانند.
بلومبرگ می‌گوید نام چت‌بات علی‌بابا با الهام از «منسیوس»، فیلسوف چینی، انتخاب شده است و ترجمه آن تقریباً معادل «حقیقت هزاران سؤال» است. از آنجایی که وب‌سایت مربوط به این سرویس تنها به زبان چینی در دسترس است، بعید به‌نظر می‌رسد که خود مدل هوش مصنوعی با زبان‌های دیگری عرضه شود.

تفاوت عکس‌های واقعی با عکس‌های هوش مصنوعی

جمعه, ۱۸ فروردين ۱۴۰۲، ۰۴:۳۸ ب.ظ | ۰ نظر

سیستم‌های تولید تصویر مبتنی بر هوش مصنوعی تشخیص عکس‌های جعلی را چنان سخت می‌کنند که برای شناسایی آن‌ها مجدد به هوش مصنوعی نیاز داریم.

به گزارش برنا؛ شاید عکس‌هایی را دیده باشید که چیز دیگری را نشان می‌دهند، مانند تصاویر بازداشت دونالد ترامپ، رئیس‌جمهور سابق آمریکا هفته گذشته یا یک کت سفید شیک و درخشان به تن پاپ در فرانسه.

این تصاویر ویروسی اخیر ثمره سیستم‌های هوش مصنوعی است که درخواست متنی کاربر را برای ایجاد تصاویر پردازش می‌کند. آن‌ها نشان می‌دهند که چگونه این برنامه‌ها به سرعت توسعه یافته و اکنون به اندازه‌ای قانع‌کننده هستند که یک ناظر را ناخواسته فریب دهند.

پس چگونه کاربران می‌توانند تصاویری را که ممکن است توسط یک سیستم هوش مصنوعی مانند DALL-E، Midjourney یا Stable Diffusion تولید شده باشد، تشخیص دهند؟ هر مولد تصویر هوش مصنوعی و هر تصویر از هر مولد مشخصی در میزان متقاعدکننده بودن و اینکه چه علائمی ممکن است الگوریتم خود را از بین ببرد، متفاوت است؛ به عنوان مثال، سیستم‌های هوش مصنوعی در طول تاریخ برای تقلید از دست‌های انسان تلاش کرده‌اند و زائده‌های درهم ریخته با ارقام بیش از حد تولید کرده‌اند. با این حال با پیشرفت فناوری، به نظر می‌رسد سیستم‌هایی مانند Midjourney V۵ این مشکل را برطرف کرده‌اند، حداقل در برخی نمونه‌ها. در کل کارشناسان می‌گویند تشخیص بهترین تصاویر از بهترین ژنراتور‌ها اگر غیرممکن نباشد، دشوار است.

شیام ساندار محقق دانشگاه ایالتی پنسیلوانیا که تاثیرات روانی فناوری‌های رسانه‌ای را مطالعه می‌کند، می‌گوید: «از نظر کاری که تولیدکنندگان تصویر هوش مصنوعی قادر به انجام آن هستند، بسیار شگفت‌انگیز است. در یک سال گذشته یک جهش بزرگ از نظر توانایی‌های تولید تصویر صورت گرفته است».
ساندار اشاره می‌کند که برخی از عوامل پشت این جهش در توانایی عبارتند از تعداد روزافزون تصاویر موجود برای آموزش چنین سیستم‌های هوش مصنوعی و همچنین پیشرفت در زیرساخت‌های پردازش داده و رابط‌هایی که این فناوری را برای کاربران عادی اینترنت قابل دسترسی می‌سازد. او می‌گوید نتیجه این است که تصاویری که به‌طور مصنوعی تولید می‌شوند همه جا هستند و تشخیص آن‌ها تقریبا غیرممکن است.

یکی از آزمایش‌های اخیر نشان داد که هوش مصنوعی چقدر می‌تواند فریب دهنده باشد. سوفی نایتینگل، روانشناس دانشگاه لنکستر در انگلیس که بر فناوری دیجیتال تمرکز دارد، پژوهشی را انجام داد مبنی بر اینکه آیا داوطلبان آنلاین می‌توانند بین عکس‌های گذرنامه مانند ایجاد شده توسط یک سیستم هوش مصنوعی به نام StyleGAN۲ و تصاویر واقعی تمایز قائل شوند. نتایج ناامیدکننده بود، حتی در اواخر سال ۲۰۲۱، زمانی که محققان این آزمایش را انجام دادند. نایتینگل می‌گوید: «به طور متوسط، مردم تقریبا قادر به تشخیص نبودند. اساسا ما در نقطه‌ای هستیم که آنقدر واقع‌بینانه است که مردم نمی‌توانند به طور قابل اعتماد تفاوت بین آن چهره‌های مصنوعی و چهره‌های واقعی را درک کنند». نایتینگل می‌گوید این احتمال قوی وجود دارد که افراد به دنبال استفاده از چنین برنامه‌ای برای اهداف پلید باشند.

در آزمایش دوم، محققان سعی کردند به افراد آزمایش کمک کنند تا توانایی‌های تشخیص هوش مصنوعی خود را بهبود بخشند. آن‌ها پس از پاسخ دادن شرکت‌کنندگان، هر پاسخ را درست یا غلط علامت‌گذاری کرده و شرکت‌کنندگان را با خواندن توصیه‌هایی برای تشخیص تصاویر تولید شده مصنوعی از قبل آماده کردند. این توصیه، مناطقی را که الگوریتم‌های هوش مصنوعی اغلب در آن‌ها تلو تلو می‌خورد و گوشواره‌های نامتناسب ایجاد می‌کنند، یا دندان‌های فرد را روی هم تار می‌کند، برجسته کرد. نایتینگل همچنین خاطرنشان می‌کند که الگوریتم‌ها اغلب برای ایجاد چیزی پیچیده‌تر از یک پس زمینه ساده تلاش می‌کنند، اما حتی با وجود این موارد، دقت شرکت‌کنندگان تنها حدود ۱۰ درصد افزایش یافت و سیستم هوش مصنوعی که تصاویر مورد استفاده در آزمایش را تولید می‌کند، از آن زمان به نسخه جدید و بهبود یافته ارتقاء یافته است.

از قضا با ادامه پیشرفت فناوری تولید تصویر، بهترین دفاع انسان‌ها در برابر فریب خوردن توسط یک سیستم هوش مصنوعی ممکن است یک سیستم هوش مصنوعی دیگر باشد: سیستمی که برای تشخیص تصاویر مصنوعی آموزش دیده است. کارشناسان می‌گویند با پیشرفت تولید تصویر هوش مصنوعی، الگوریتم‌ها برای شناسایی برخی از اثر انگشت‌های کوچک و در مقیاس پیکسلی ایجاد رباتیک مجهزتر از انسان‌ها هستند.

یونگ جائه لی، دانشمند کامپیوتر در دانشگاه ویسکانسین-مدیسون، می‌گوید: «ایجاد این برنامه‌های کارآگاه هوش مصنوعی مانند هر کار یادگیری ماشین دیگری عمل می‌کند. شما مجموعه‌ای از داده‌های تصاویر واقعی و نیز مجموعه داده‌ای از تصاویر تولید شده توسط هوش مصنوعی را جمع‌آوری می‌کنید، می‌توانید یک مدل یادگیری ماشینی برای تشخیص این دو آموزش دهید».

به گفته لی و دیگر کارشناسان، این سیستم‌ها دارای کاستی‌های قابل توجهی هستند. بیشتر چنین الگوریتم‌هایی بر روی تصاویر یک ژنراتور هوش مصنوعی خاص آموزش داده می‌شوند و قادر به شناسایی جعلی‌های تولید شده توسط الگوریتم‌های مختلف نیستند. اکثر آشکارساز‌ها همچنین فاقد رابط‌های کاربر پسندی هستند که افراد زیادی را وسوسه کرده است که این تصویر را امتحان کنند.

علاوه بر این، آشکارساز‌های هوش مصنوعی همیشه در تلاش هستند تا با تولیدکننده‌های تصویر هوش مصنوعی که برخی از آن‌ها الگوریتم‌های تشخیص مشابهی را در خود جای داده‌اند، اما از آن‌ها به عنوان راهی برای یادگیری نحوه کاهش خروجی جعلی خود استفاده می‌کنند. وائل عبدالمجید، دانشیار پژوهشی علوم کامپیوتر در دانشگاه کالیفرنیای جنوبی می‌گوید: نبرد بین سیستم‌های هوش مصنوعی که تصاویر تولید می‌کنند و سیستم‌های هوش مصنوعی که تصاویر تولید شده توسط هوش مصنوعی را تشخیص می‌دهند، یک مسابقه تسلیحاتی خواهد بود.

بعید است هیچ طرفی به این زودی برنده شود؛ هیچ رویکردی هرگز نمی‌تواند تک تک تصاویر تولید شده مصنوعی را ایجاد کند، اما این بدان معنا نیست که ما باید تسلیم شویم. او پیشنهاد می‌کند که پلتفرم‌های رسانه‌های اجتماعی باید شروع به مقابله با محتوای تولید شده توسط هوش مصنوعی در سایت‌های خود کنند، زیرا این شرکت‌ها نسبت به کاربران فردی برای پیاده‌سازی الگوریتم‌های تشخیص بهتر هستند.

ثبت نخستین شکایت حقوقی از ChatGPT

جمعه, ۱۸ فروردين ۱۴۰۲، ۰۴:۲۱ ب.ظ | ۰ نظر

یک شهردار استرالیایی اولین شکایت حقوقی جهان از ChatGPT را تنظیم می‌کند.
به گزارش فارس به نقل از رویترز، یک شهردار منطقه ای استرالیایی گفت که اگر ChatGPT ادعاهای نادرست مبنی بر گذراندن دوران محکومیت به دلیل رشوه خواری را تصحیح نکند، ممکن است از شرکت OpenAI (سازنده چت بات ChatGPT) شکایت کند.

برایان هود که در نوامبر گذشته به عنوان شهردار شایر هپبورن در 120 کیلومتری شمال غربی ملبورن انتخاب شد، زمانی که مردم به او گفتند ChatGPT به دروغ او را به عنوان یکی از طرفین مجرم در یک رسوایی رشوه خواری خارجی یکی از شرکت های تابعه بانک مرکزی استرالیا در اوایل دهه 2000معرفی کرده، نگران شهرت خود شد.

وکلای مدافع او گفتند که هود برای شرکت تابعه، Note Printing استرالیا کار می کرد، اما فردی بود که به مقامات در مورد پرداخت رشوه به مقامات خارجی برای برنده شدن در قراردادهای چاپ ارز اطلاع داد و هرگز متهم به جرم نشد.

وکلای دادگستری گفتند که در 21 مارس نامه ای نگران کننده به OpenAI مالک ChatGPT ارسال کردند که به این شرکت 28 روز فرصت دادند تا خطاها را برطرف کند یا با شکایت احتمالی افترا روبرو شود.

وکلا گفتند که OpenAI که در سانفرانسیسکو مستقر است، هنوز به نامه حقوقی هود پاسخ نداده است.

اگر هود شکایت کند، احتمالاً اولین بار است که شخصی از مالک ChatGPT به دلیل ادعاهای مطرح شده توسط این چت بات شکایت می کند.

پرداخت خسارت افترا در استرالیا به طور کلی حدود 400هزار دلار استرالیا (269,360 دلار) است.

اگر هود شکایتی را ارائه کند، ChatGPT را متهم می کند که با عدم ارائه اطلاعات درست به کاربران احساس نادرستی می دهد.

بیل گیتس اعلام کرد که فراخوان‌ها برای توقف هوش مصنوعی، چالش‌ها را حل نمی‌کند.
به گزارش فارس به نقل از رویترز، بیل گیتس، یکی از بنیانگذاران مایکروسافت، به رویترز گفت که درخواست‌ها برای توقف توسعه هوش مصنوعی چالش‌های پیش رو را حل نمی‌کند.

گیتس گفت که بهتر است روی بهترین روش استفاده از پیشرفت‌های هوش مصنوعی تمرکز کنیم، زیرا درک اینکه چگونه یک مکث می‌تواند در سطح جهانی چالش را حل کند دشوار است.

مصاحبه او با رویترز پس از یک نامه سرگشاده انجام شد که هفته گذشته منتشر و توسط ایلان ماسک و بیش از هزار کارشناس هوش مصنوعی امضا شد. این نامه خواستار توقف فوری در توسعه سیستم‌هایی GPT-4 جدید متعلق به شرکت OpenAI شد.

گیتس روز دوشنبه گفت: «فکر نمی‌کنم درخواست از یک گروه خاص برای توقف، چالش‌ها را حل کند.» وی افزود واضح است که مزایای زیادی در هوش مصنوعی وجود دارد؛ آنچه که باید انجام دهیم این است که نقاط دشوار را شناسایی کنیم.

در حالی که گیتس از حامیان خوش‌بینانه هوش مصنوعی بوده و آن را مانند اینترنت یا تلفن‌های همراه، انقلابی توصیف کرده است. مایکروسافت همواره  با سرمایه‌گذاری چند میلیارد دلاری در OpenAI، مالک ChatGPT، به دنبال پیشی گرفتن از همتایان خود بوده است.

او یک روز قبل از انتشار نامه سرگشاده، در وبلاگی با عنوان «عصر هوش مصنوعی» گفت که معتقد است باید از هوش مصنوعی برای کمک به کاهش برخی از بدترین نابرابری های جهان استفاده شود. گیتس گفت من واقعاً نمی‌دانم که آیا همه کشورهای جهان موافقت می‌کنند که هوش مصنوعی متوقف شود. اما نظرات متفاوت زیادی در این زمینه وجود دارد.

هشدار بایدن: از امنیت هوش مصنوعی مطمئن شوید

چهارشنبه, ۱۶ فروردين ۱۴۰۲، ۰۷:۳۷ ب.ظ | ۰ نظر

جو بایدن، رئیس‌جمهور آمریکا می‌گوید شرکت‌های فناوری باید مطمئن شوند که محصولات هوش مصنوعی آن‌ها قبل از عرضه ایمن شده است.

سرپوش - «جو بایدن»، رئیس‌جمهور آمریکا، دیروز با مشاورانی در حوزه علم و فناوری دیدار کرد تا ریسک‌ها و فرصت‌های توسعه هوش مصنوعی را بررسی کند. او در این نشست گفت شرکت‌های فناوری وظیفه دارند تا پیش از عرضه عمومی محصولات، از ایمنی آن‌ها اطمینان یابند.

به گزارش رویترز، بایدن گفت هوش مصنوعی می‌تواند برای کمک به حل چالش‌های سختی مثل بیماری‌ها و تغییرات اقلیمی مفید باشد، اما درعین‌حال باید پاسخی برای ریسک‌های احتمالی علیه جامعه، اقتصاد و امنیت ملی هم داشته باشد.

کاخ سفید می‌گوید رئیس‌جمهور ایالات‌متحده از این جلسه برای تأکید بر اهمیت حفاظت از حقوق و ایمنی مردم برای توسعه مسئولانه فناوری استفاده کرد. او همچنین یک‌بار دیگر خواستار تصویب قوانینی از سوی کنگره برای دفاع از کودکان و مقابله با گردآوری اطلاعات کاربران توسط شرکت‌های فناوری شد.

 

جو بایدن: هوش مصنوعی می‌تواند خطرناک باشد

بایدن در پاسخ به این سؤال که آیا به نظر او هوش مصنوعی فناوری خطرناکی است یا نه، گفت: «باید دید. می‌تواند خطرناک باشد.» او همچنین در ابتدای این جلسه گفت: «به نظر من شرکت‌های فناوری مسئولیت دارند تا مطمئن شوند که محصولاتشان پیش از عرضه عمومی ایمن هستند.»

رئیس‌جمهور آمریکا گفت تجربه شبکه‌های اجتماعی نشان داده است که عرضه یک فناوری بدون در نظر گرفتن تدابیر ایمنی می‌تواند چقدر آسیب‌زننده باشد. او مدعی شد که این فناوری‌ها چگونه بر سلامت روان و احساسات کاربران به‌خصوص جوانان اثر منفی گذاشته‌اند.

سهام شرکت‌های فعال در حوزه هوش مصنوعی پیش از جلسه جو بایدن افت قابل‌توجهی داشت. البته کلیت بازار در روز سه‌شنبه شرایط مناسبی را پشت سر نگذاشت. این جلسه با همراهی گروهی از دانشگاهیان و مدیران گوگل و مایکروسافت برگزار شد تا درباره ریسک و فرصت‌های هوش مصنوعی بحث شود.

 

آلمان هم احتمالاً مانند ایتالیا استفاده از ChatGPT را ممنوع می‌کند

هفته گذشته، آژانس حفاظت از داده‌های ایتالیا تصمیم گرفت استفاده از ChatGPT را به‌دلیل نگرانی‌های مربوط به حفظ حریم خصوصی داده‌ها ممنوع کند. اکنون به‌نظر می‌رسد که آلمان نیز قصد دارد به‌عنوان دومین کشور چنین تصمیمی بگیرد.

«اولریش کلبر»، کمیسر آلمان برای حفاظت از داده‌ها، در مصاحبه‌ای با روزنامه محلی Handelsblatt (به نقل از NeoWin) گفت که رگولاتورهای این کشور درحال مذاکره و گفت‌وگو با رگولاتورهای دولت ایتالیا درباره ممنوعیت ChatGPT بوده‌اند. کلبر در مصاحبه خود اعلام کرد: «اصولاً چنین اقدامی در آلمان نیز امکان‌پذیر است.»

دولت ایتالیا زمانی تصمیم به ممنوعیت ChatGPT گرفت که آژانس حفاظت از داده‌های این کشور گفته بود که این مدل هوش مصنوعی احتمالاً قوانین مربوط به جمع‌آوری داده‌ها را نقض می‌کند. همچنین ادعا کرد که OpenAI نظارتی بر استفاده از این سرویس توسط کودکان زیر ۱۳ سال ندارد. شرایط خدمات این چت‌بات هوش مصنوعی استفاده از آن توسط کودکان آن گروه سنی را ممنوع می‌کند.

پس از ممنوعیت ChatGPT در ایتالیا، «ماتئو سالوینی»، معاون نخست‌وزیر این کشور، اظهار داشت که این اقدام برای آژانس ناظر بر جمع‌آوری داده‌ها یک امر «ریاکارانه» بوده است. او اشاره کرد که سرویس‌های آنلاین دیگری نیز وجود دارند که قوانین جمع‌آوری داده‌ها و حفظ حریم خصوصی را نقض می‌کنند، اما مانند ChatGPT مسدود نشده‌اند.

 

احتمال ممنوعیت ChatGPT در کشورهای دیگر

علاوه بر آلمان، کشورهای دیگری نیز درحال گفت‌وگو با رگولاتورهای ایتالیا در مورد اقدامات خود هستد. سخنگوی کمیسر حفاظت از داده‌های ایرلند نیز اعلام کرد که آن‌ها درحال بررسی اقدامات ایتالیا برای ChatGPT هستند و «با تمام مقامات حفاظت از داده اتحادیه اروپا در رابطه با این موضوع در تماس خواهند بود». دولت فرانسه نیز درباره این تصمیم با ایتالیا در تماس بوده است.

OpenAI از زمان اعلام ممنوعیت در ایتالیا، ۲۰ روز فرصت دارد تا نحوه برنامه‌ریزی خود برای تطبیق با قوانین حریم خصوصی اتحادیه اروپا را اعلام کند و در غیر این صورت، استارتاپ آمریکایی ممکن است مجبور شود تا ۴ درصد از درآمد جهانی خود را به‌عنوان جریمه پرداخت کند.

نگرانی یوروپل از هوش مصنوعی

چهارشنبه, ۹ فروردين ۱۴۰۲، ۰۵:۱۹ ب.ظ | ۰ نظر

آژانس پلیس اتحادیه اروپا "یوروپل" هشدار داد که محصولات هوش مصنوعی مانند "ChatGPT" توسط کلاه‌برداران مورد استفاده برای انجام جرایم سایبری قرار گرفته‌اند.

بر اساس گزارش دویچه وله از آژانس پلیس اتحادیه اروپا (یوروپل) مستقر در لاهه، احتمال سوء استفاده از هوش مصنوعی برای کلاه‌برداری، جرایم گوناگون و اعمال خلاف‌کاری‌های سایبری، به طور گسترده قابل مشاهده است.

یوروپل معتقد است که وضعیت فعلی در فضای مجازی پیرامون استفاده کاربران از محصولات هوش مصنوعی، مانند برنامه و نرم‌افزار "ChatGPT" باعث ایجاد یک "چشم انداز تیره" شده است.

بر این اساس، پیشرفت چشمگیر مهارت‌های ربات‌های هوش مصنوعی "نه تنها برای بهبود زندگی بشر، بلکه برای فریب دادن آنها نیز مورد استفاده قرار خواهند گرفت."

آزمایشگاه ویژه یوروپل که بر روی بررسی نوآوری‌های جدید متمرکز است، نرم‌افزار ChatGPT را به عنوان شناخته‌شده‌ترین ربات مخصوص چت که کاربران از آن استفاده می‌کنند، مورد تحقیقات و بررسی خود قرار داده است.

این نرم‌افزار قادر است با استفاده از هوش مصنوعی به صورت خودکار، متن طراحی کند و بنویسد.

ChatGPT می‌تواند بر اساس دستورات یا جملاتی که کاربران تعیین و مشخص می‌کنند، به‌طور مستقل و با کمک از حجم وسیع داده‌های موجود در اینترنت، نتیجه‌های مورد نظر را تولید کند.

در سال‌‌های گذشته، وقتی که نرم‌افزار "Chatbot" برای نخستین بار وارد بازار شد و مورد استفاده قرار گرفت،‌ کاربران به سرعت از توانایی‌های این برنامه در زمینه پاسخ‌دادن به پرسش‌های پیچیده و سخت، کدنویسی و حتی دریافت جواب‌های صحیح برای قبولی در امتحانات، شگفت‌زده شدند.

حال آژانس پلیس اتحادیه اروپا هشدار داده است که حال برای کلاه‌برداران نیز این امکان بوجود آمده است تا با استفاده از ChatGPT، "فرآیند دستیابی به اطلاعات برای انجام جرم را به شدت سریع‌تر" کنند. 

یوروپل در ضمن اشاره کرده است که Chatbot می‌تواند به عنوان مثال اطلاعاتی را پیرامون "نحوه ورود به منزل برای سرقت، فعالیت‌های تروریستی، جرایم سایبری و تعرض جنسی به کودکان» ارائه دهد.

گفته می‌شود که این نرم‌افزاز همچنین قابلیت ارائه جمله‌بندی‌های خاص از سبک‌‌‌های متفاوت زبان‌ها را نیز دارد.

آژانس پلیس اتحادیه اروپا همچنین یادآور شد که قابلیت‌های هوش مصنوعی "هنوز در مراحل ابتدایی خود است و انتظار می‌رود که پیشرفت کند."

نامه متخصصان برای توقف توسعه هوش مصنوعی

چهارشنبه, ۹ فروردين ۱۴۰۲، ۰۴:۳۰ ب.ظ | ۰ نظر

پس از معرفی هوش مصنوعی ChatGPT و درک و دریافت پتانسیل‌های مفید و مخرب آن، حالا بیش از 1100 نفر از جمله افراد سرشناس نامه‌ای سرگشاده را امضا کرده‌اند که در آن از همه آزمایشگاه‌های هوش مصنوعی خواسته شده فوراً حداقل به مدت 6 ماه پروسه آموزش مدل‌های خود را متوقف کنند.

تا زمان نگارش این مطلب، بیش از 1100 امضاکننده از عموم گرفته تا افراد شاخصی چون ایلان ماسک، استیو وزنیاک و تریستان هریس، کارزاری امضا کرده‌اند که در آن از همه آزمایشگاه‌های هوش مصنوعی می‌خواهد فوراً حداقل به مدت 6 ماه آزمایش مدل‌های هوش مصنوعی قدرتمندتر از GPT-4 را متوقف کنند.

در بخشی از این نامه آمده است: سیستم‌های هوش مصنوعی معاصر اکنون در حال تبدیل شدن به رقیب انسان در امور روزمره هستند و ما باید از خود بپرسیم: آیا باید به ماشین‌ها اجازه دهیم کانال‌های اطلاعاتی ما را پر از تبلیغات و دروغ کنند؟ آیا باید تمام مشاغل، از جمله کارهای خدماتی را خودکار کنیم؟ آیا باید ذهن‌های غیرانسانی را پرورش دهیم که ممکن است در نهایت در تعداد و هوش، ما را منسوخ کرده و جایگزینمان شوند؟ آیا باید در خطر از دست دادن کنترل تمدن خود باشیم؟ چنین تصمیماتی نباید به رهبران فناوری ناخواسته واگذار شود. سیستم‌های هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آن‌ها مثبت و خطرات آن‌ها قابل مدیریت خواهد بود.

این کارزار همچنین به این استدلال می‌پردازد که «سطحی از برنامه‌ریزی و مدیریت» وجود دارد که «اجرایی نشده است» و در عوض، در ماه‌های اخیر، آزمایشگاه‌های هوش مصنوعی بی‌نام و نشان «در رقابتی خارج از کنترل برای توسعه و عرضه ذهن‌های دیجیتالی قدرتمندتری که هیچ‌کس - حتی سازندگان آن‌ها - نتواند درک کرده، پیش‌بینی کرده یا به‌طور قابل اطمینانی کنترل کند» مشغول شدند.

امضاکنندگان نامه لغو توسعه هوش مصنوعی که برخی از آن‌ها متخصصان هوش مصنوعی نیز هستند، می‌گویند وقفه‌ای که آن‌ها به دنبالش هستند باید «علنی و قابل تأیید باشد و همه بازیگران کلیدی این عرصه را شامل شود». این نامه اذعان دارد، اگر وقفه درخواست شده را «نمی‌توان به سرعت اعمال کرد، دولت‌ها باید وارد عمل شوند و یک تعلیق وضعیت کنند».

مطمئناً این موضوع همانقدر که برای امضا کنندگان این نامه از جمله برخی از مهندسان متا و گوگل، عماد مستقی بنیانگذار و مدیر عامل هوش مصنوعی Stability AI و افرادی که دیگر در آن فن‌آوری نیستند جالب توجه است، برای کسانی که آن را امضا نکرده‌اند نیز اهمیت دارد.

برای مثال، هیچ کس از خود شرکت OpenAI، که طراح مدل زبانی بزرگ GPT-4 است، این نامه را امضا نکرده است. همچنین هیچ کس از Anthropic که تیم آن از OpenAI خارج شد تا یک چت ربات هوش مصنوعی «ایمن‌تر» بسازد هم بین امضاکنندگان این نامه دیده نمی‌شود.

منبع:  شهر سخت افزار

کدنویسی با هوش مصنوعی آغاز شد

دوشنبه, ۷ فروردين ۱۴۰۲، ۰۴:۳۵ ب.ظ | ۰ نظر

یک آزمایشگاه تحقیقاتی هوش مصنوعی به هوش مصنوعی ChatGPT خود اجازه داده است تا به اینترنت دسترسی داشته باشد.

خبرگزاری برنا؛ هوش مصنوعی مدل زبان، هنر‌های ارتباطی و حل مسئله را بر اساس مجموعه محدودی از داده‌های آموزشی به خود آموزش می‌دهد. اکنون با راه اندازی یک زیست بوم پلاگین، GPT با برخی توانایی‌های جدید و چشمگیر ارتقا پیدا می‌کند.
ChatGPT یک ربات چت هوش مصنوعی است که توسط OpenAI توسعه یافته و در نوامبر ۲۰۲۲ راه اندازی شد. این ربات از مدل‌های زبان بزرگ ساخته شده و با استفاده از روش های یادگیری نظارت شده و تقویتی به خوبی تنظیم شده است.

OpenAI یک آزمایشگاه تحقیقاتی هوش مصنوعی آمریکایی است که تحقیقات هوش مصنوعی را با هدف ترویج و توسعه هوش مصنوعی دوستانه انجام می‌دهد.
سیستم جدید به اینترنت دسترسی پیدا کرده است به این معنا که اگر تشخیص دهد که شما به اطلاعات به روزی نیاز دارید که در پایگاه دانش آن نیست، می‌تواند در وب گشت و گذار کند و به دنبال پاسخ باشد. برای انجام این کار، رشته‌های جستجوی مربوطه را فرموله می کند، آن‌ها را به بینگ می‌فرستد، به نتایج نگاه می کند و سپس پیوند‌هایی را که شایسته می‌داند می‌خواند تا زمانی که به نتیجه مطلوب برسد.
در حال حاضر، نمی‌تواند فرم‌ها را پر کند یا هر کار دیگری را به صورت برخط انجام دهد. با این حال، OpenAI هر آنچه را که در جستجوی خود اتفاق می‌افتد از بقیه زیرساخت‌های خود جدا نگه می‌دارد تا مطمئن شود از وب‌گاه‌هایی که ایمن نیستند بازدید نمی‌کند. ثانیا، اکنون می‌تواند کدی را که می‌نویسد اجرا کند. OpenAI اکنون می‌تواند فایل‌ها را آپلود و دانلود کند؛ بنابراین اگر از آن سوالی بپرسید که نیاز به اعداد جدی دارد، اکنون می‌تواند یک نرم افزار را به طور خاص برای کار کدنویسی کند و آن کد را برای تکمیل کار شما اجرا کند. همچنین با این هوش مصنوعی می‌توان داده‌ها را در فایل خاصی به آن ارائه کرد و سامانه عملیات‌هایی را روی آن داده‌ها انجام داد و دوباره چیزی را به شما باز گرداند که شما درخواست می‌کنید.
برای مثال، افزونه‌های Expedia و OpenTable می‌توانند برای پروازها، رستوران‌ها، اقامتگاه‌ها و خودرو‌های کرایه‌ای جستجو و رزرو کنند. برخی دیگر از افزونه‌ها می‌توانند محصولات را پیدا و مقایسه کنند و سفارشات را تنظیم کنند. حتی یک افزونه به نام Wolfram|Alpha به قدرت‌های ریاضی و محاسباتی و همچنین جریان‌های داده‌های بی‌درنگ دسترسی می‌دهد.
در نهایت، یک افزونه دیگر به عنوان دروازه‌ای عمل می‌کند که از طریق آن هوش مصنوعی می‌تواند به ۵۰۰۰ برنامه دیگر از جمله Gmail، Google Sheets، Trello، HubSpot و Salesforce دسترسی داشته باشد. GPT با دسترسی به حجم عظیمی از اطلاعات شخصی و شرکتی و احتمالاً با انجام طیف وسیعی از وظایف، تبدیل به یک دستیار خارق العاده می‌شود.
خطرات بالقوه این فناوری استثنایی نیز کم نیست. اما با فرض اینکه این سیستم خوب عمل می‌کند باید برای توسعه هوش مصنوعی به آن‌ها اجازه رقابت داد. جالب اینجاست که با هر گامی که این فناوری برمی دارد قدرت‌ها و فرصت‌های باورنکردنی و خطرات بی سابقه‌ای به وجود می‌آورد.

فاجعه ChatGPT در گسترش اخبار جعلی

شنبه, ۵ فروردين ۱۴۰۲، ۱۲:۴۰ ب.ظ | ۰ نظر

غلامرضا فلسفی - از زمان بهره‌مندی از چت‌جی‌بی‌تی[1] تا هویدا شدن اثرات مخربِ این نرم‌افزار کاربردی هوش مصنوعی بر روزنامه‌نگاری، زمانی بسیار کوتاه لازم بود. یک ستون نویس حوزه فناوری نیویورک‌تایمز نوشت که یک چت‌بات (دستیار سایبری هوشمند) احساسات را بیان می‌کند[2] (که غیرممکن است). رسانه‌های دیگر نیز مملو از ارائه نمونه‌هایی[3] از عملکرد سیدنی[4] بودند که نتایج جست‌وجوی بینگ جدید[5] را که مبتنی بر هوش مصنوعی[6] است، سرشار از بی‌نزاکتی و قلدری بیان کرده بودند (که این هم غیرممکن است). بن تامپسون[7] مؤسس و نویسنده نشریه‌ای راهبردی که درباره وجوه تجاریِ فناوری و رِسانه همچنین تأثیر فناوری بر جامعه تحلیل ارائه می‌دهد، می‌گوید[8] که کار با سیدنی هیجان‌انگیزترین تجربه رایانه‌ای زندگی‌اش محسوب می‌شود. وی در ادامه نتیجه‌گیری کرد که هوش مصنوعی شیوه‌های برانگیختن واکنش‌های احساسی را آموخته و به نظر می‌رسد در انجام این مهم موفق هم عمل می‌کند.

سکویی که تقریرات انسانی را غیر متعهدانه و مقلدانه بازآفرینی می‌کند، عطیه‌ای به تبهکاران دیجیتالی است که از

اطلاعات نادرست عمدی منتفع می‌شوند. اکنون زمان آن است که حدودوثغورِ بهره‌مندی از این امکان مشخص شود

برای روشن‌تر شدن ابعاد موضوع ابتدا تصریح می‌شود که دارای احساسات بودن هوش مصنوعی همچون چت‌جی‌بی‌تی[9] و سیدنی تا به این لحظه امری غیرممکن است. دیگر این‌که چت‌جی‌بی‌تی و سیدنی نمی‌توانند در رابطه با معنی‌دار یا منطقی بودن تولیداتشان اعلام نظر کنند. آنچه این مدل‌ها در انجام آن بسیار عالی عمل می‌کنند عبارت از تقلید نثر انسان و پیش‌بینی کلمات صحیح در کنار یکدیگر است. این مدل‌های زبانی گسترده[10] نرم‌افزارهای کاربردی هوش مصنوعی مانند چت‌جی‌بی‌تی می‌توانند به این امر مبادرت ورزند چراکه خوراک مناسبی شامل میلیاردها مقاله و مجموعه‌هایی از داده‌های منتشرشده در اینترنت در اختیارشان قرارگرفته و بر این اساس آن‌ها قادر به پاسخگویی به انواع پرسش‌ها می‌شوند.

در چارچوب اهداف روزنامه‌نگاری، این چت‌بات‌ها می‌توانند در کم‌ترین زمان ممکن حجمی عظیم از محتوا را شامل کلمات، عکس‌ها، اصوات و فیلم‌ها بسازند؛ اما مشکل اینجاست که آن‌ها در ساخت محتوا به‌طور مطلق هیچ تعهدی به حقیقت ندارند. لحظه‌ای را تصور کنید که یک کاربر چت‌جی‌بی‌تی[11] با چه سرعتی می‌تواند اینترنت را از اخباری جعلی آکنده کند که به نظر ‌رسد توسط انسان تقریر شده است.

با عنایت بدین اوصاف از نوامبر 2022 میلادی که نسخه آزمایشی چت‌جی‌بی‌تی توسط شرکت هوش مصنوعی اُپن‌اِی‌آی[12] رونمایی شد و در اختیار عموم قرار گرفت، حواشی فراوان پیرامون این نرم‌افزار کاربردی بر اساس مشکلات بالقوه آن شکل گرفت که نگران‌کننده اما قابل پیش‌بینی بود. فضای حاکم بر این رویداد فناورانه همانند روزگار رونمایی از رسانه‌های اجتماعی با افزایش استقبال و حضور سرمایه‌گذاران و صاحبان شرکت‌ها همراه شده که به‌نوبه خود موجبات بیان مواضع صریح را فراهم کرده است. کریستوفر منینگ[13] مدیر آزمایشگاه هوش مصنوعی استنفورد در توئیتی اظهار کرد[14]: «از ابتدای سال 2023 میلادی گروه‌های اخلاق‌گرا در حوزه هوش مصنوعی درباره نمونه‌های هوش مصنوعیِ تولیدشده که برای استفاده از آن‌ها بیش‌ازحد تمایل وجود داشته و درعین‌حال غیرقابل‌اعتماد و خطرناک‌اند، به بیان موسع روایت‌هایی مشغول‌اند اما در پی طرح چنین مواضعی مردم علاقه‌مندند بدانند که این نمونه‌ها چگونه ظرفیت‌هایی جدید را برای تغییر در شیوه انجام امور، کسب اطلاعات و ایجاد سرگرمی برایشان فراهم می‌کنند.» من که خود عضوی از این جماعت اخلاق مدار محسوب می‌شوم تصریح می‌کنم که اگر می‌خواهیم از خطاهای وحشتناک 30 سال گذشته در حوزه فناوریِ مصرفی احتراز کنیم –از افشای اطلاعات کاربران فیس‌بوک و نشر اطلاعات نادرست غیرعمدی[15] که مخل در انتخابات است گرفته تا تحریک و دامن زدن به نسل‌کشی- بدون فوت وقت به استماع دغدغه‌ها و نگرانی‌های کارشناسان در مورد آسیب‌های احتمالی این فناوری نیازمندیم.

نگران‌کننده‌ترین واقعیتی که به‌طور مرتب باید تکرار و یادآوری شود آن است که چت‌جی‌بی‌تی هیچ تقیدی به حقیقت ندارد. همان‌طور که در بخش بررسی فناوری ام‌آی‌تی آمده[16] چت‌بات‌های مدل زبانی گسترده، یاوه‌گویانی بدنام محسوب می‌شوند. بدیهی است که اطلاعات نادرست عمدی[17]، شیادی و جنایت نیاز به التزام به حقیقت ندارد. اگر از اتاق‌های گفت‌وگوی تارنمای Black Hat World که در حوزه تجارت غیرقانونی فعال بوده و ایده‌هایی برای کسب انتفاع از محتوای جعلی در آن ارائه می‌شود، بازدید کنید؛ می‌بینید که چت‌جی‌بی‌تی در مقام برگی برنده برای ساختن دیدگاه‌های باورپذیرترِ جعلی و همچنین نظرات و نمایه‌های متقاعدکننده معرفی می‌شود.

اگر به موضوع چت‌بات‌های مدل زبانی گسترده از منظر روزنامه‌نگاری نیز توجه شود باید گفت چند صباحی است که بسیاری از اتاق‌های خبر از هوش مصنوعی بهره می‌برند. اگر به‌تازگی دریافته‌اید که برای کمک مالی به یک تارنما یا پرداخت هزینه خواندن یک مقاله به صفحه مالک تارنما هدایت‌شده‌اید یا اگر به هنگام وبگردی با تبلیغاتی تجاری مواجه می‌شوید که بیش‌ازپیش به ذائقه و سلیقه‌تان نزدیک است، می‌توانید نسبت به وجود رد و نشان هوش مصنوعی در آن گمانه‌زنی کنید.

امروزه برخی ناشران و مدیران رسانه تا مرحله‌ای که از هوش مصنوعی برای نوشتن گزارش استفاده ‌کنند پیش رفته‌اند که البته نتایجی متفاوت در پی داشته است. به‌طور مثال کاشف به‌عمل‌آمده که نشریه Cnet که در حوزه تجارت فناوری فعال است، با استفاده از مقالاتی که از سوی نرم‌افزارهای کاربردی تقریر می‌شده، انتشار می‌یافت. این امر زمانی افشا شد که یکی از کارکنان سابق این نشریه در استعفانامه الکترونیکی خود[18] مدعی شد محتوای ساخته‌شده توسط هوش مصنوعیِ این نشریه‌ با انتشار اطلاعاتی غلط همچون یک خبرنامه سایبریِ امنیتی، می‌تواند به‌طور مستقیم به خوانندگانش خسران وارد کند.

فلیکس سایمون[19] پژوهشگر ارتباطات در موسسه اینترنت آکسفورد درباره آینده هوش مصنوعی در اتاق‌های خبر، با بیش از 150 روزنامه‌نگار و صاحبان مؤسسات خبری مصاحبه کرد. او می‌گوید هوش مصنوعی ظرفیت لازم را دارد که نگارش مصاحبه‌ها یا خواندن سریع مجموع اطلاعات جمع‌آوری‌شده را برای روزنامه‌نگاران بسیار تسهیل کند اما مشکلات ریشه‌دار پیشین مانند بررسی صحت، بی‌طرفی و آگاهی از منبع داده‌ها همچنان به‌شدت به قضاوت انسانی وابسته است. چارلی بکت[20] که مدیر یک برنامه مرتبط با روزنامه‌نگاری و هوش مصنوعی در مدرسه علوم اقتصادی و سیاسی لندن است می‌گوید: حدود %90 بهره‌مندی از هوش مصنوعی در روزنامه‌نگاری در قالب کارهایی چون شخصی‌سازی تجمیع اخبار یا ایجاد دیوارهای پرداخت هوشمند برای مطالعه کاربران که اموری به نسبت ملال‌آور محسوب می‌شوند، به کار گرفته می‌شود. وی می‌افزاید که بلومبرگ سال‌هاست قسمت‌هایی فراوان از جمع‌بندی پوشش اخبار مالی خود را با این امکان به‌طور خودکار انجام می‌دهد. بااین‌حال ایده استفاده از برنامه‌هایی چون چت‌جی‌بی‌تی برای ساختن محتوا بسیار نگران‌کننده است. بکت اظهار می‌کند: برای اتاق‌های خبری که انتشار اخبار دروغ را غیراخلاقی می‌دانند، پیاده‌سازی طرح استفاده از چت‌جی‌بی‌تی بدون بهره‌مندی از ویراستاری انسانی و راستی آزمایی محتوا امری به‌غایت دشوار است.

فارغ از مشکلات مبتلابه نرم‌افزارهایِ کاربردی هوش مصنوعی، موضوعات اخلاقی همواره ماهیت عملکرد شرکت‌های فناوری را تحت تأثیر خود قرار داده است. افشاگری تایم[21] نشان داد شرکت اَپن‌اِی‌آی که شرکت پشتیبان چت‌جی‌بی‌تی است، به کارگرانی کنیایی کمتر از دو دلار در ساعت دستمزد می‌داد تا محتواهایی مانند کودک‌آزاری، خودکشی، زنای با محارم و شکنجه را که جزو محتوای مضر گرافیکی می‌دانسته، شناسایی کنند تا بتواند به چت‌جی‌بی‌تی آموزش دهد که این قبیل محتواها را موهن بداند. سایمون در این رابطه می‌گوید: در مقام فردی که از خدمات چت‌جی‌بی‌تی استفاده می‌کند تصریح می‌کنم که شرکت مذکور در رابطه با این قبیل محتواها، کنترلی روی نرم‌افزار کاربردیِ هوش مصنوعی خود ندارد.

طی مطالعه‌ای[22] در سال 2021 میلادی دانشگاهیان توجه خود را به مدل‌هایی از هوش مصنوعی مانند DALL-E[23] و Stable Diffusion[24] که نوشته را به‌عکس بدل می‌کنند، معطوف کردند. آن‌ها دریافتند که این سامانه‌ها «کلیشه‌های جمعیت‌شناختی» را در مقیاس بزرگ بازتولید کرده، تعمیم می‌دهند. به‌طور مثال وقتی از آنان خواسته شد تصویری از «شخصی که در حال نظافت است» تولید کنند، تمام عکس‌های ساخته‌شده ناظر به زنان بود. پژوهشگران همچنین اظهار کردند که وقتی از سامانه‌ها، تولید عکسِ یک فرد جذاب خواسته شد؛ همه چهره‌های بازتولید شده، نمایشگر و ناظر به «سفیدپوست ایدئال» بود.

مردیت بروسارد[25] استاد دانشگاه نیویورک که تحقیقاتش بر نقش هوش مصنوعی در روزنامه‌نگاری متمرکز است، کتابی با عنوان «بیش از یک خطای اتفاقی» به رشته تحریر درآورده که در مارس 2023 میلادی منتشر شد. وی در کتاب مذکور به راه‌های مقابله با مواردی چون تبعیض نژادی و تعصب جنسیتی و شایستگی در فناوری پرداخته است. بروسارد می‌گوید همه آن چیزی که تشکیل‌دهنده مدل‌های مولد کنونی مانند چت‌جی‌بی‌تی محسوب می‌شوند – از مجموعه داده‌ها تا منابع و سرمایه – همه و همه بازتاب‌دهنده عدم تنوع است. بروسارد می‌افزاید که این مسئله برگرفته از تک فرهنگی بودن ابر شرکت‌های فناوری است، بدین معنی که قریب به‌اتفاق محصولات فناورانه از تولیدات این ابر شرکت‌ها محسوب می‌شوند؛ لذا اتاق‌های خبر با تمسک به فناوری نمی‌توانند به‌راحتی از آن حذر کنند. امروزه اتاق‌های خبر در خدمت سرمایه‌گذاری‌های فناورانه از سوی ‌چنین شرکت‌هایی قرار دارند چراکه رسانه هیچ‌گاه سرمایه مالی مکفی برای رشد مستقل نداشته است.

در روزهای آغازین سال 2023 میلادی جونا پرتی[26] بنیان‌گذار و مدیرعامل بازفید[27] یادداشتی برای کارکنانش ارسال و اعلام کرد که مشتاقانه قصد دارد برای ارتقاء کار و کسب بازفید از چت‌جی‌بی‌تی استفاده کند. او در بخشی از یادداشت خود[28] نوشت: ما پیشرفت‌هایی را در حوزه هوش مصنوعی شاهدیم که دروازه عصری جدید از خلاقیت را با فرصت‌ها و برنامه‌های نامحدود برای همیشه به روی ما و دیگر رسانه‌های دیجیتال می‌گشاید. او در ادامه ‌اظهار کرد که محتوای الهام گرفته از هوش مصنوعی بازفید سال 2023 راه‌اندازی می‌شود تا فهرست‌ها، تجربه آزمونک‌ها و سایر محتواهای سرگرم‌کننده را تقویت، طوفان فکری ما را اطلاع‌رسانی و محتواهای ما را برای کاربران شخصی‌سازی ‌کند. این یادداشت باعث شد بلافاصله ارزش سهام خاموش این شرکت رسانه‌ای، خبری و اینترنتی در معاملات %150 افزایش‌یافته و به بیش از دو دلار به ازای هر سهم برسد. اتخاذ چنین راهبردی بسیار نگران‌کننده است چراکه این امر به‌طورقطع و یقین به ساخت و انتشار انبوهی از محتوای نازل از سوی این نرم‌افزار کاربردی هوش مصنوعی می‌انجامد. این قبیل روایت‌های نظام‌مندِ جدید، نه یک مدل کار و کسب آرمانی بلکه باید بدترین نوع برنامه‌ریزی آینده‌نگرانانه از سوی شرکت‌های رسانه‌ای تلقی شود. البته این میزان ذوق‌مندی نسبت به تولیدات هوش مصنوعیِ مولد می‌تواند این رویکرد مثبتِ فراگیر را دچار تزلزل کند، مبنی بر این‌که ممکن است این نرم‌افزارهای کاربردی، خیلی هم خوب و کارآمد از آب درنیایند.

ما در مرکز تحقیقاتی خود در دانشکده روزنامه‌نگاری دانشگاه کلمبیا درباره تلاش‌های انجام‌شده جهت تأمین منابع مالی شبکه‌های پول سیاه از طریق بودجه‌های سیاسی مطالعه می‌کنیم؛ شبکه‌هایی که صدها هزار روایت از اخبار محلی جوامع را جهت منافع سیاسی و تجاری هدف می‌گیرند و از تاکتیک (راهکنش) تکرارشونده بهره می‌برند. مطالعات مرکزمان نشان می‌دهد قابلیت‌های چت‌جی‌بی‌تی، این قسم خبرسازی‌ها را افزایش داده، آن را بسیار آسان‌تر و در اختیار مخاطبانی زیادتر قرار می‌دهد. همچنین در مقاله منتشرشده[29] طی سپتامبر 2022 میلادی درباره اطلاعات نادرست عمدی و هوش مصنوعی گفته‌شده پژوهشگران دانشگاه استنفورد شبکه‌ای از نمایه‌های جعلی را با استفاده از هوش مصنوعی مولد در لینکدین شناسایی کرده‌اند. البته به نظر می‌رسد ردوبدل کردن متن گمراه‌کننده‌ با چت‌بات‌ها که روزنامه‌نگاران آن را بسیار وسوسه‌انگیز می‌دانند در مقایسه با گفت‌وگو با کاربرانی آسیب‌پذیر که اطلاعات شخصی و جزئیات حساب بانکی خود را اعلان می‌کنند، از جذابیتی کمتر برخوردار است!

درباره ظرفیت فیلم‌ها و اصوات دیپ‌فیک – به ساخت تصاویر و اصوات واقع‌گرایانه بر پایه هوش مصنوعی گفته می‌شود که چهره‌ها و صداهای افراد به‌خصوص افراد مشهور جعل می‌شود. از مشهورترین نمونه‌های متأخر ساختن صدای جعلی «اما واتسون» در حال خواندن بخشی از کتاب نبرد منِ هیتلر است – مطالبی بسیار به رشته تحریر درآمده[30] اما با رونمایی از مدل‌های مولد کنونی به نظر می‌رسد خطر واقعی نمونه‌هایی مانند چت‌جی‌بی‌تی محسوب می‌شوند که مرزهای دنیای فریب آنی مانند جعل عمیق را درنوردیده‌اند چراکه در مقایسه با این نرم‌افزار کاربردی افراد را به‌راحتی می‌توان نسبت به خطرات جعل ژرف آگاه کرد. چت‌جی‌بی‌تی با ساختن و انتشار کثیری از جعلیات به راه انداختن طوفان در فضای سایبری مبادرت ورزیده ضمن ایجاد سردرگمی و فرسوده کردن کاربران، حقیقت را در طوفان جعلیات پایمال کرده یا جنبه‌های فکری میانه و متعادل را به حاشیه می‌برد.

برای برخی چون من که از دریچه اخلاق به فناوری می‌نگریم باورنکردنی است که از روند 20 سال گذشته و شیوه بسیار ضعیف مدیریت و نظارت بر فناوری‌های رسانه‌های اجتماعی آن‌هم در دو دهه‌ای که این رسانه‌ها به‌سرعت در حال گسترش بودند درس نگرفتیم و کاهلی در این امر سبب شد به‌جای بهبود شرایط، تشدید مشکلات اجتماعی و دموکراتیک را به نظاره بنشینیم. به نظر می‌رسد تاریخ در حال تکرار است و ما همچون دو دهه قبل توسط گروه‌هایی مشابه متشکل از شرکت‌های همسو و متمول حوزه فناوری همچنین صندوق‌هایی مالی در زمینه سرمایه‌گذاری در تولیداتی با ریسک بالا به سمت مسیرهایی به بوته آزمون سپرده نشده و فاقد مقررات رهنمون می‌شویم، با این تفاوت که این بار خطر بزرگ‌تر و توجه به امنیت کاربران کمتر از گذشته است. (منبع:شفقنا)

 

*این نوشتار ترجمه آزاد مقاله‌ای با عنوان A fake news frenzy: why ChatGPT could be disastrous for truth in journalism نوشته امیلی بل استاد دانشکده تحصیلات تکمیلی روزنامه‌نگاریِ دانشگاه کلمبیا و مدیر the Tow Center for Digital Journalism دانشگاه مذکور در نیویورک است که 3 مارس 2023 در تارنمای گاردین منتشر شد

 

[1] Chat Generative Pre-trained Transformers (ChatGPT)

[2] www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html

[3] www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams

[4]  Sydney اسم رمز پروژه موتور جست‌وجوی جدید مایکروسافت

[5] The New Bing

[6] Artificial intelligence (AI)

[7] Ben Thompson

[8] https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai

[9] www.theguardian.com/technology/chatgpt

[10] LLMs

[11] www.theguardian.com/technology/chatgpt

[12] https://openai.com

[13] Christopher Manning

[14] https://twitter.com/chrmanning/status/1625178544010838019?s=20&t=IPLveAStaG6PI0B_EgYGFA

[15] Misinformation

[16] www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines

[17] Disinformation

[18] www.theverge.com/2023/1/19/23562966/cnet-ai-written-stories-red-ventures-seo-marketing

[19] Felix Simon

[20] Charlie Beckett

[21] https://time.com/6247678/openai-chatgpt-kenya-workers

[22] https://arxiv.org/pdf/2211.03759.pdf

[23] https://openai.com/research/dall-e

[24] https://stablediffusionweb.com

[25] Meredith Broussard

[26] Jonah Peretti

[27] www.buzzfeed.com

[28] www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create-some-of-its-content-11674752660

[29] https://misinforeview.hks.harvard.edu/article/research-note-this-salesperson-does-not-exist-how-tactics-from-political-influence-operations-on-social-media-are-deployed-for-commercial-lead-generation

[30] https://vrgl.ir/ZJIDI

هوش مصنوعی گوگل به میدان آمد

شنبه, ۵ فروردين ۱۴۰۲، ۱۲:۲۱ ب.ظ | ۰ نظر

وگل، غول دنیای فناوری، اعلام کرد تازه‌ترین محصول هوش مصنوعی خود به نام چت‌بات «بارد» (Bard) را که در ماه فوریه تنها برای گروهی برگزیده از «تست‌کنندگان مورد اعتماد» عرضه شده بود برای استفاده به روی افراد بیشتری باز می‌کند.
به گزارش خبر آنلاین گوگل، که زیر مجموعه شرکت آلفابت است، هنوز اعلام نکرده به چند نفر اجازه دسترسی به این ربات خواهد داد. با این حال گفته است که متقاضیان اولیه فعلا به کشورهای ایالات متحده و بریتانیا محدود می‌مانند.

از زمانی که در اواخر سال گذشته میلادی یک ربات هوش مصنوعی مبتنی بر مکالمه موسوم به «چت جی‌پی‌تی» با توانایی‌های چشمگیر خود چشم‌ها را خیره کرد، نگاه‌ها متوجه گوگل شد تا ببینند این غول فناوری با چه محصولی به جنگ رقیب قدرتمند خود می‌رود.

ساندار پیچای، مدیر عامل گوگل، ‌می‌گوید این ربات در واقع «به دنبال ترکیب گستردگی دانش جهان با قدرت، هوش و خلاقیت مدل های بزرگ زبان ما است.»

گوگل بیش از دو دهه است که بر بازار جستجوهای اینترنتی تسلط دارد و به همین خاطر محتاطانه و با دقت در راه‌اندازی ابزارهای هوش مصنوعی خود قدم برمی‌دارد. دلیل این است که اگر این فناوری مطابق انتظارها رفتار نکند، می‌تواند به مدل کسب و کار مبتنی بر تبلیغات شرکت آسیب برساند. اتفاقی که یک بار در همین چند هفته پیش افتاد و در آگهی تبلیغاتی گوگل برای نشان دادن نحوه کار بارد، این ربات به سئوالی که از او شده بود پاسخی غلط داد.

در این تبلیغ از بارد پرسیده شده بود که به پرسش یک کودک ۹ ساله درباره اکتشافات تلسکوپ فضایی جیمز وب چه پاسخی می‌دهد. جواب بارد این بود که جیمز وب اولین تلسکوپی است که از یک سیاره خارج از منظومه شمسی عکس گرفته است. در حالی که در واقعیت این دستاورد متعلق به «تلسکوپ فوق‌العاده بزرگ اروپایی» در سال ۲۰۰۴ است.

روز بعد از این اتفاق و در پی پخش گسترده آن در شبکه‌های اجتماعی، سهام گوگل بیش از ۷ درصد و به اندازه ۱۰۰ میلیارد دلار سقوط کرد.

دو معاون مدیر گوگل، یعنی سیسی هسیائو و الی کالینز، در یک پست وبلاگی که گفته شده با کمک ربات بارد نوشته شده گفته‌اند علی‌رغم مشکلات احتمالی این فناوری، بارد همچنان «مزایایی باورنکردنی» همچون «بالا بردن بهره‌وری، خلاقیت و کنجکاوی انسانی» را ارائه می‌کند.

پیشتر ساندار پیچای، مدیرعامل گوگل، در یک پست وبلاگی در همین رابطه در ماه فوریه گفته بود کار گوگل در این زمینه هوش مصنوعی در سال ۲۰۱۷ با یک مقاله جامع درباره یک مدل یادگیری عمیق در زبان ماشین موسوم به «ترانسفورمر» و پیشرفت مدل‌های آن شروع شده بود که «بنیان بسیاری از کارها هستند و برنامه‌های مولد هوش مصنوعی که امروز شما می‌بینید بر پایه آن‌ها قرار دارند.»

طبق گفته مقامات گوگل بارد از اطلاعات گرفته شده از اینترنت «برای ارائه پاسخ‌های جدید و با کیفیت» استفاده می‌کند، هرچند نسخه فعلی آن به اینترنت متصل نیست. در واقع این ربات، مانند چت جی‌پی‌تی، بر روی یک پایگاه داده عظیم سوار شده و برای استفاده از آن آموزش داده شده است.

مایکروسافت که یکی از سرمایه‌گذاران اصلی پروژه «OpenAI» به عنوان خالق چت‌ جی‌پی‌تی است اخیراً یک ربات چت هوش مصنوعی را در موتور جستجوی «بینگ» خود راه‌اندازی کرده است. این مدلی است که در آن هوش مصنوعی به اینترنت متصل است و داده‌ها را به صورت آنلاین یا برخط دریافت و پردازش می‌کند.

هنوز مشخص نیست بارد تا چه حد ضعیف‌تر یا قوی‌تر از چت جی‌پی‌تی است و برای مقایسه فعلا باید کاربران منتظر بمانند تا نسخه عمومی در اختیار همگان قرار گیرد. با این حال تحلیل نسخه‌های اولیه نشان می‌دهد بارد نیز همچون چت‌ جی‌پی‌تی می‌تواند موضوعات پیچیده، مانند اکتشافات فضایی را با عباراتی به اندازه کافی ساده برای درک کودک توضیح دهد.

گوگل اعلام کرده است که بارد فعلا در حالت آزمایشی قرار دارد. این ربات پس از ثبت‌نام، پیامی به کاربر می‌گوید: «بارد یک نسخه آزمایشی است. همانطور که بارد را امتحان می‌کنید، لطفاً به یاد داشته باشید ربات همیشه درست کار نخواهد کرد و ممکن است پاسخ‌های نادرست یا نامناسب بدهد.»

همچنین به کاربران توصیه می‌شود از جستجوی گوگل برای بررسی پاسخ‌هایی که در مورد آن‌ها شک دارند استفاده کنند.

وجود ربات بارد کمتر از دو هفته پس از آن اعلام شد که مایکروسافت فاش کرد قصد دارد میلیاردها دلار دیگر در شرکت مادر چت‌ جی‌پی‌تی سرمایه‌گذاری کند. پیش از این مایکروسافت حدود یک میلیارد یورو در این شرکت سهام داشت.

این در شرایطی است که گوگل هفته گذشته اعلام کرد در حال سرمایه گذاری و مشارکت با «آنتروپیک»، یک شرکت دانش‌بنیان هوش مصنوعی به رهبری برخی از مدیران سابق شرکت مادر چت‌ جی‌پی‌تی، است.

بسیاری از تحلیلگران بر این باورند که فناوری هوش مصنوعی به اندازه رایانه‌های شخصی، اینترنت و تلفن‌های هوشمند تحول‌آفرین خواهد بود.

ساندرا پیچای در شش سال گذشته همواره در سخنرانی‌های خود بر اهمیت هوش مصنوعی تاکید کرده است. یکی از مشهودترین دستاوردهای جانبی گوگل در این زمینه سیستم «مدل زبانی برای برنامه‌های گفتگو» ( LaMDA) نام دارد که از آن برای توسعه بارد استفاده شده است.

گوگل همچنین قصد دارد شروع به ترکیب این سیستم و سایر پیشرفت‌های هوش مصنوعی در موتور جستجوی خود کند تا بتواند پاسخ‌های مفیدتری به سؤالات پیچیده‌تر که توسط میلیاردها کاربر پرسیده می‌شوند، ارائه کند.

آقای پیچای جدول زمانی مشخصی برای این تغییرات ارائه نکرده است، با این حال گفته است که این ابزارها در آینده نزدیک بر روی موتور جستجوی گوگل نصب خواهند شد.