ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۴۱۴ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

تحلیل


ثبت نخستین شکایت حقوقی از ChatGPT

جمعه, ۱۸ فروردين ۱۴۰۲، ۰۴:۲۱ ب.ظ | ۰ نظر

یک شهردار استرالیایی اولین شکایت حقوقی جهان از ChatGPT را تنظیم می‌کند.
به گزارش فارس به نقل از رویترز، یک شهردار منطقه ای استرالیایی گفت که اگر ChatGPT ادعاهای نادرست مبنی بر گذراندن دوران محکومیت به دلیل رشوه خواری را تصحیح نکند، ممکن است از شرکت OpenAI (سازنده چت بات ChatGPT) شکایت کند.

برایان هود که در نوامبر گذشته به عنوان شهردار شایر هپبورن در 120 کیلومتری شمال غربی ملبورن انتخاب شد، زمانی که مردم به او گفتند ChatGPT به دروغ او را به عنوان یکی از طرفین مجرم در یک رسوایی رشوه خواری خارجی یکی از شرکت های تابعه بانک مرکزی استرالیا در اوایل دهه 2000معرفی کرده، نگران شهرت خود شد.

وکلای مدافع او گفتند که هود برای شرکت تابعه، Note Printing استرالیا کار می کرد، اما فردی بود که به مقامات در مورد پرداخت رشوه به مقامات خارجی برای برنده شدن در قراردادهای چاپ ارز اطلاع داد و هرگز متهم به جرم نشد.

وکلای دادگستری گفتند که در 21 مارس نامه ای نگران کننده به OpenAI مالک ChatGPT ارسال کردند که به این شرکت 28 روز فرصت دادند تا خطاها را برطرف کند یا با شکایت احتمالی افترا روبرو شود.

وکلا گفتند که OpenAI که در سانفرانسیسکو مستقر است، هنوز به نامه حقوقی هود پاسخ نداده است.

اگر هود شکایت کند، احتمالاً اولین بار است که شخصی از مالک ChatGPT به دلیل ادعاهای مطرح شده توسط این چت بات شکایت می کند.

پرداخت خسارت افترا در استرالیا به طور کلی حدود 400هزار دلار استرالیا (269,360 دلار) است.

اگر هود شکایتی را ارائه کند، ChatGPT را متهم می کند که با عدم ارائه اطلاعات درست به کاربران احساس نادرستی می دهد.

بیل گیتس اعلام کرد که فراخوان‌ها برای توقف هوش مصنوعی، چالش‌ها را حل نمی‌کند.
به گزارش فارس به نقل از رویترز، بیل گیتس، یکی از بنیانگذاران مایکروسافت، به رویترز گفت که درخواست‌ها برای توقف توسعه هوش مصنوعی چالش‌های پیش رو را حل نمی‌کند.

گیتس گفت که بهتر است روی بهترین روش استفاده از پیشرفت‌های هوش مصنوعی تمرکز کنیم، زیرا درک اینکه چگونه یک مکث می‌تواند در سطح جهانی چالش را حل کند دشوار است.

مصاحبه او با رویترز پس از یک نامه سرگشاده انجام شد که هفته گذشته منتشر و توسط ایلان ماسک و بیش از هزار کارشناس هوش مصنوعی امضا شد. این نامه خواستار توقف فوری در توسعه سیستم‌هایی GPT-4 جدید متعلق به شرکت OpenAI شد.

گیتس روز دوشنبه گفت: «فکر نمی‌کنم درخواست از یک گروه خاص برای توقف، چالش‌ها را حل کند.» وی افزود واضح است که مزایای زیادی در هوش مصنوعی وجود دارد؛ آنچه که باید انجام دهیم این است که نقاط دشوار را شناسایی کنیم.

در حالی که گیتس از حامیان خوش‌بینانه هوش مصنوعی بوده و آن را مانند اینترنت یا تلفن‌های همراه، انقلابی توصیف کرده است. مایکروسافت همواره  با سرمایه‌گذاری چند میلیارد دلاری در OpenAI، مالک ChatGPT، به دنبال پیشی گرفتن از همتایان خود بوده است.

او یک روز قبل از انتشار نامه سرگشاده، در وبلاگی با عنوان «عصر هوش مصنوعی» گفت که معتقد است باید از هوش مصنوعی برای کمک به کاهش برخی از بدترین نابرابری های جهان استفاده شود. گیتس گفت من واقعاً نمی‌دانم که آیا همه کشورهای جهان موافقت می‌کنند که هوش مصنوعی متوقف شود. اما نظرات متفاوت زیادی در این زمینه وجود دارد.

هشدار بایدن: از امنیت هوش مصنوعی مطمئن شوید

چهارشنبه, ۱۶ فروردين ۱۴۰۲، ۰۷:۳۷ ب.ظ | ۰ نظر

جو بایدن، رئیس‌جمهور آمریکا می‌گوید شرکت‌های فناوری باید مطمئن شوند که محصولات هوش مصنوعی آن‌ها قبل از عرضه ایمن شده است.

سرپوش - «جو بایدن»، رئیس‌جمهور آمریکا، دیروز با مشاورانی در حوزه علم و فناوری دیدار کرد تا ریسک‌ها و فرصت‌های توسعه هوش مصنوعی را بررسی کند. او در این نشست گفت شرکت‌های فناوری وظیفه دارند تا پیش از عرضه عمومی محصولات، از ایمنی آن‌ها اطمینان یابند.

به گزارش رویترز، بایدن گفت هوش مصنوعی می‌تواند برای کمک به حل چالش‌های سختی مثل بیماری‌ها و تغییرات اقلیمی مفید باشد، اما درعین‌حال باید پاسخی برای ریسک‌های احتمالی علیه جامعه، اقتصاد و امنیت ملی هم داشته باشد.

کاخ سفید می‌گوید رئیس‌جمهور ایالات‌متحده از این جلسه برای تأکید بر اهمیت حفاظت از حقوق و ایمنی مردم برای توسعه مسئولانه فناوری استفاده کرد. او همچنین یک‌بار دیگر خواستار تصویب قوانینی از سوی کنگره برای دفاع از کودکان و مقابله با گردآوری اطلاعات کاربران توسط شرکت‌های فناوری شد.

 

جو بایدن: هوش مصنوعی می‌تواند خطرناک باشد

بایدن در پاسخ به این سؤال که آیا به نظر او هوش مصنوعی فناوری خطرناکی است یا نه، گفت: «باید دید. می‌تواند خطرناک باشد.» او همچنین در ابتدای این جلسه گفت: «به نظر من شرکت‌های فناوری مسئولیت دارند تا مطمئن شوند که محصولاتشان پیش از عرضه عمومی ایمن هستند.»

رئیس‌جمهور آمریکا گفت تجربه شبکه‌های اجتماعی نشان داده است که عرضه یک فناوری بدون در نظر گرفتن تدابیر ایمنی می‌تواند چقدر آسیب‌زننده باشد. او مدعی شد که این فناوری‌ها چگونه بر سلامت روان و احساسات کاربران به‌خصوص جوانان اثر منفی گذاشته‌اند.

سهام شرکت‌های فعال در حوزه هوش مصنوعی پیش از جلسه جو بایدن افت قابل‌توجهی داشت. البته کلیت بازار در روز سه‌شنبه شرایط مناسبی را پشت سر نگذاشت. این جلسه با همراهی گروهی از دانشگاهیان و مدیران گوگل و مایکروسافت برگزار شد تا درباره ریسک و فرصت‌های هوش مصنوعی بحث شود.

 

آلمان هم احتمالاً مانند ایتالیا استفاده از ChatGPT را ممنوع می‌کند

هفته گذشته، آژانس حفاظت از داده‌های ایتالیا تصمیم گرفت استفاده از ChatGPT را به‌دلیل نگرانی‌های مربوط به حفظ حریم خصوصی داده‌ها ممنوع کند. اکنون به‌نظر می‌رسد که آلمان نیز قصد دارد به‌عنوان دومین کشور چنین تصمیمی بگیرد.

«اولریش کلبر»، کمیسر آلمان برای حفاظت از داده‌ها، در مصاحبه‌ای با روزنامه محلی Handelsblatt (به نقل از NeoWin) گفت که رگولاتورهای این کشور درحال مذاکره و گفت‌وگو با رگولاتورهای دولت ایتالیا درباره ممنوعیت ChatGPT بوده‌اند. کلبر در مصاحبه خود اعلام کرد: «اصولاً چنین اقدامی در آلمان نیز امکان‌پذیر است.»

دولت ایتالیا زمانی تصمیم به ممنوعیت ChatGPT گرفت که آژانس حفاظت از داده‌های این کشور گفته بود که این مدل هوش مصنوعی احتمالاً قوانین مربوط به جمع‌آوری داده‌ها را نقض می‌کند. همچنین ادعا کرد که OpenAI نظارتی بر استفاده از این سرویس توسط کودکان زیر ۱۳ سال ندارد. شرایط خدمات این چت‌بات هوش مصنوعی استفاده از آن توسط کودکان آن گروه سنی را ممنوع می‌کند.

پس از ممنوعیت ChatGPT در ایتالیا، «ماتئو سالوینی»، معاون نخست‌وزیر این کشور، اظهار داشت که این اقدام برای آژانس ناظر بر جمع‌آوری داده‌ها یک امر «ریاکارانه» بوده است. او اشاره کرد که سرویس‌های آنلاین دیگری نیز وجود دارند که قوانین جمع‌آوری داده‌ها و حفظ حریم خصوصی را نقض می‌کنند، اما مانند ChatGPT مسدود نشده‌اند.

 

احتمال ممنوعیت ChatGPT در کشورهای دیگر

علاوه بر آلمان، کشورهای دیگری نیز درحال گفت‌وگو با رگولاتورهای ایتالیا در مورد اقدامات خود هستد. سخنگوی کمیسر حفاظت از داده‌های ایرلند نیز اعلام کرد که آن‌ها درحال بررسی اقدامات ایتالیا برای ChatGPT هستند و «با تمام مقامات حفاظت از داده اتحادیه اروپا در رابطه با این موضوع در تماس خواهند بود». دولت فرانسه نیز درباره این تصمیم با ایتالیا در تماس بوده است.

OpenAI از زمان اعلام ممنوعیت در ایتالیا، ۲۰ روز فرصت دارد تا نحوه برنامه‌ریزی خود برای تطبیق با قوانین حریم خصوصی اتحادیه اروپا را اعلام کند و در غیر این صورت، استارتاپ آمریکایی ممکن است مجبور شود تا ۴ درصد از درآمد جهانی خود را به‌عنوان جریمه پرداخت کند.

نگرانی یوروپل از هوش مصنوعی

چهارشنبه, ۹ فروردين ۱۴۰۲، ۰۵:۱۹ ب.ظ | ۰ نظر

آژانس پلیس اتحادیه اروپا "یوروپل" هشدار داد که محصولات هوش مصنوعی مانند "ChatGPT" توسط کلاه‌برداران مورد استفاده برای انجام جرایم سایبری قرار گرفته‌اند.

بر اساس گزارش دویچه وله از آژانس پلیس اتحادیه اروپا (یوروپل) مستقر در لاهه، احتمال سوء استفاده از هوش مصنوعی برای کلاه‌برداری، جرایم گوناگون و اعمال خلاف‌کاری‌های سایبری، به طور گسترده قابل مشاهده است.

یوروپل معتقد است که وضعیت فعلی در فضای مجازی پیرامون استفاده کاربران از محصولات هوش مصنوعی، مانند برنامه و نرم‌افزار "ChatGPT" باعث ایجاد یک "چشم انداز تیره" شده است.

بر این اساس، پیشرفت چشمگیر مهارت‌های ربات‌های هوش مصنوعی "نه تنها برای بهبود زندگی بشر، بلکه برای فریب دادن آنها نیز مورد استفاده قرار خواهند گرفت."

آزمایشگاه ویژه یوروپل که بر روی بررسی نوآوری‌های جدید متمرکز است، نرم‌افزار ChatGPT را به عنوان شناخته‌شده‌ترین ربات مخصوص چت که کاربران از آن استفاده می‌کنند، مورد تحقیقات و بررسی خود قرار داده است.

این نرم‌افزار قادر است با استفاده از هوش مصنوعی به صورت خودکار، متن طراحی کند و بنویسد.

ChatGPT می‌تواند بر اساس دستورات یا جملاتی که کاربران تعیین و مشخص می‌کنند، به‌طور مستقل و با کمک از حجم وسیع داده‌های موجود در اینترنت، نتیجه‌های مورد نظر را تولید کند.

در سال‌‌های گذشته، وقتی که نرم‌افزار "Chatbot" برای نخستین بار وارد بازار شد و مورد استفاده قرار گرفت،‌ کاربران به سرعت از توانایی‌های این برنامه در زمینه پاسخ‌دادن به پرسش‌های پیچیده و سخت، کدنویسی و حتی دریافت جواب‌های صحیح برای قبولی در امتحانات، شگفت‌زده شدند.

حال آژانس پلیس اتحادیه اروپا هشدار داده است که حال برای کلاه‌برداران نیز این امکان بوجود آمده است تا با استفاده از ChatGPT، "فرآیند دستیابی به اطلاعات برای انجام جرم را به شدت سریع‌تر" کنند. 

یوروپل در ضمن اشاره کرده است که Chatbot می‌تواند به عنوان مثال اطلاعاتی را پیرامون "نحوه ورود به منزل برای سرقت، فعالیت‌های تروریستی، جرایم سایبری و تعرض جنسی به کودکان» ارائه دهد.

گفته می‌شود که این نرم‌افزاز همچنین قابلیت ارائه جمله‌بندی‌های خاص از سبک‌‌‌های متفاوت زبان‌ها را نیز دارد.

آژانس پلیس اتحادیه اروپا همچنین یادآور شد که قابلیت‌های هوش مصنوعی "هنوز در مراحل ابتدایی خود است و انتظار می‌رود که پیشرفت کند."

نامه متخصصان برای توقف توسعه هوش مصنوعی

چهارشنبه, ۹ فروردين ۱۴۰۲، ۰۴:۳۰ ب.ظ | ۰ نظر

پس از معرفی هوش مصنوعی ChatGPT و درک و دریافت پتانسیل‌های مفید و مخرب آن، حالا بیش از 1100 نفر از جمله افراد سرشناس نامه‌ای سرگشاده را امضا کرده‌اند که در آن از همه آزمایشگاه‌های هوش مصنوعی خواسته شده فوراً حداقل به مدت 6 ماه پروسه آموزش مدل‌های خود را متوقف کنند.

تا زمان نگارش این مطلب، بیش از 1100 امضاکننده از عموم گرفته تا افراد شاخصی چون ایلان ماسک، استیو وزنیاک و تریستان هریس، کارزاری امضا کرده‌اند که در آن از همه آزمایشگاه‌های هوش مصنوعی می‌خواهد فوراً حداقل به مدت 6 ماه آزمایش مدل‌های هوش مصنوعی قدرتمندتر از GPT-4 را متوقف کنند.

در بخشی از این نامه آمده است: سیستم‌های هوش مصنوعی معاصر اکنون در حال تبدیل شدن به رقیب انسان در امور روزمره هستند و ما باید از خود بپرسیم: آیا باید به ماشین‌ها اجازه دهیم کانال‌های اطلاعاتی ما را پر از تبلیغات و دروغ کنند؟ آیا باید تمام مشاغل، از جمله کارهای خدماتی را خودکار کنیم؟ آیا باید ذهن‌های غیرانسانی را پرورش دهیم که ممکن است در نهایت در تعداد و هوش، ما را منسوخ کرده و جایگزینمان شوند؟ آیا باید در خطر از دست دادن کنترل تمدن خود باشیم؟ چنین تصمیماتی نباید به رهبران فناوری ناخواسته واگذار شود. سیستم‌های هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آن‌ها مثبت و خطرات آن‌ها قابل مدیریت خواهد بود.

این کارزار همچنین به این استدلال می‌پردازد که «سطحی از برنامه‌ریزی و مدیریت» وجود دارد که «اجرایی نشده است» و در عوض، در ماه‌های اخیر، آزمایشگاه‌های هوش مصنوعی بی‌نام و نشان «در رقابتی خارج از کنترل برای توسعه و عرضه ذهن‌های دیجیتالی قدرتمندتری که هیچ‌کس - حتی سازندگان آن‌ها - نتواند درک کرده، پیش‌بینی کرده یا به‌طور قابل اطمینانی کنترل کند» مشغول شدند.

امضاکنندگان نامه لغو توسعه هوش مصنوعی که برخی از آن‌ها متخصصان هوش مصنوعی نیز هستند، می‌گویند وقفه‌ای که آن‌ها به دنبالش هستند باید «علنی و قابل تأیید باشد و همه بازیگران کلیدی این عرصه را شامل شود». این نامه اذعان دارد، اگر وقفه درخواست شده را «نمی‌توان به سرعت اعمال کرد، دولت‌ها باید وارد عمل شوند و یک تعلیق وضعیت کنند».

مطمئناً این موضوع همانقدر که برای امضا کنندگان این نامه از جمله برخی از مهندسان متا و گوگل، عماد مستقی بنیانگذار و مدیر عامل هوش مصنوعی Stability AI و افرادی که دیگر در آن فن‌آوری نیستند جالب توجه است، برای کسانی که آن را امضا نکرده‌اند نیز اهمیت دارد.

برای مثال، هیچ کس از خود شرکت OpenAI، که طراح مدل زبانی بزرگ GPT-4 است، این نامه را امضا نکرده است. همچنین هیچ کس از Anthropic که تیم آن از OpenAI خارج شد تا یک چت ربات هوش مصنوعی «ایمن‌تر» بسازد هم بین امضاکنندگان این نامه دیده نمی‌شود.

منبع:  شهر سخت افزار

کدنویسی با هوش مصنوعی آغاز شد

دوشنبه, ۷ فروردين ۱۴۰۲، ۰۴:۳۵ ب.ظ | ۰ نظر

یک آزمایشگاه تحقیقاتی هوش مصنوعی به هوش مصنوعی ChatGPT خود اجازه داده است تا به اینترنت دسترسی داشته باشد.

خبرگزاری برنا؛ هوش مصنوعی مدل زبان، هنر‌های ارتباطی و حل مسئله را بر اساس مجموعه محدودی از داده‌های آموزشی به خود آموزش می‌دهد. اکنون با راه اندازی یک زیست بوم پلاگین، GPT با برخی توانایی‌های جدید و چشمگیر ارتقا پیدا می‌کند.
ChatGPT یک ربات چت هوش مصنوعی است که توسط OpenAI توسعه یافته و در نوامبر ۲۰۲۲ راه اندازی شد. این ربات از مدل‌های زبان بزرگ ساخته شده و با استفاده از روش های یادگیری نظارت شده و تقویتی به خوبی تنظیم شده است.

OpenAI یک آزمایشگاه تحقیقاتی هوش مصنوعی آمریکایی است که تحقیقات هوش مصنوعی را با هدف ترویج و توسعه هوش مصنوعی دوستانه انجام می‌دهد.
سیستم جدید به اینترنت دسترسی پیدا کرده است به این معنا که اگر تشخیص دهد که شما به اطلاعات به روزی نیاز دارید که در پایگاه دانش آن نیست، می‌تواند در وب گشت و گذار کند و به دنبال پاسخ باشد. برای انجام این کار، رشته‌های جستجوی مربوطه را فرموله می کند، آن‌ها را به بینگ می‌فرستد، به نتایج نگاه می کند و سپس پیوند‌هایی را که شایسته می‌داند می‌خواند تا زمانی که به نتیجه مطلوب برسد.
در حال حاضر، نمی‌تواند فرم‌ها را پر کند یا هر کار دیگری را به صورت برخط انجام دهد. با این حال، OpenAI هر آنچه را که در جستجوی خود اتفاق می‌افتد از بقیه زیرساخت‌های خود جدا نگه می‌دارد تا مطمئن شود از وب‌گاه‌هایی که ایمن نیستند بازدید نمی‌کند. ثانیا، اکنون می‌تواند کدی را که می‌نویسد اجرا کند. OpenAI اکنون می‌تواند فایل‌ها را آپلود و دانلود کند؛ بنابراین اگر از آن سوالی بپرسید که نیاز به اعداد جدی دارد، اکنون می‌تواند یک نرم افزار را به طور خاص برای کار کدنویسی کند و آن کد را برای تکمیل کار شما اجرا کند. همچنین با این هوش مصنوعی می‌توان داده‌ها را در فایل خاصی به آن ارائه کرد و سامانه عملیات‌هایی را روی آن داده‌ها انجام داد و دوباره چیزی را به شما باز گرداند که شما درخواست می‌کنید.
برای مثال، افزونه‌های Expedia و OpenTable می‌توانند برای پروازها، رستوران‌ها، اقامتگاه‌ها و خودرو‌های کرایه‌ای جستجو و رزرو کنند. برخی دیگر از افزونه‌ها می‌توانند محصولات را پیدا و مقایسه کنند و سفارشات را تنظیم کنند. حتی یک افزونه به نام Wolfram|Alpha به قدرت‌های ریاضی و محاسباتی و همچنین جریان‌های داده‌های بی‌درنگ دسترسی می‌دهد.
در نهایت، یک افزونه دیگر به عنوان دروازه‌ای عمل می‌کند که از طریق آن هوش مصنوعی می‌تواند به ۵۰۰۰ برنامه دیگر از جمله Gmail، Google Sheets، Trello، HubSpot و Salesforce دسترسی داشته باشد. GPT با دسترسی به حجم عظیمی از اطلاعات شخصی و شرکتی و احتمالاً با انجام طیف وسیعی از وظایف، تبدیل به یک دستیار خارق العاده می‌شود.
خطرات بالقوه این فناوری استثنایی نیز کم نیست. اما با فرض اینکه این سیستم خوب عمل می‌کند باید برای توسعه هوش مصنوعی به آن‌ها اجازه رقابت داد. جالب اینجاست که با هر گامی که این فناوری برمی دارد قدرت‌ها و فرصت‌های باورنکردنی و خطرات بی سابقه‌ای به وجود می‌آورد.

فاجعه ChatGPT در گسترش اخبار جعلی

شنبه, ۵ فروردين ۱۴۰۲، ۱۲:۴۰ ب.ظ | ۰ نظر

غلامرضا فلسفی - از زمان بهره‌مندی از چت‌جی‌بی‌تی[1] تا هویدا شدن اثرات مخربِ این نرم‌افزار کاربردی هوش مصنوعی بر روزنامه‌نگاری، زمانی بسیار کوتاه لازم بود. یک ستون نویس حوزه فناوری نیویورک‌تایمز نوشت که یک چت‌بات (دستیار سایبری هوشمند) احساسات را بیان می‌کند[2] (که غیرممکن است). رسانه‌های دیگر نیز مملو از ارائه نمونه‌هایی[3] از عملکرد سیدنی[4] بودند که نتایج جست‌وجوی بینگ جدید[5] را که مبتنی بر هوش مصنوعی[6] است، سرشار از بی‌نزاکتی و قلدری بیان کرده بودند (که این هم غیرممکن است). بن تامپسون[7] مؤسس و نویسنده نشریه‌ای راهبردی که درباره وجوه تجاریِ فناوری و رِسانه همچنین تأثیر فناوری بر جامعه تحلیل ارائه می‌دهد، می‌گوید[8] که کار با سیدنی هیجان‌انگیزترین تجربه رایانه‌ای زندگی‌اش محسوب می‌شود. وی در ادامه نتیجه‌گیری کرد که هوش مصنوعی شیوه‌های برانگیختن واکنش‌های احساسی را آموخته و به نظر می‌رسد در انجام این مهم موفق هم عمل می‌کند.

سکویی که تقریرات انسانی را غیر متعهدانه و مقلدانه بازآفرینی می‌کند، عطیه‌ای به تبهکاران دیجیتالی است که از

اطلاعات نادرست عمدی منتفع می‌شوند. اکنون زمان آن است که حدودوثغورِ بهره‌مندی از این امکان مشخص شود

برای روشن‌تر شدن ابعاد موضوع ابتدا تصریح می‌شود که دارای احساسات بودن هوش مصنوعی همچون چت‌جی‌بی‌تی[9] و سیدنی تا به این لحظه امری غیرممکن است. دیگر این‌که چت‌جی‌بی‌تی و سیدنی نمی‌توانند در رابطه با معنی‌دار یا منطقی بودن تولیداتشان اعلام نظر کنند. آنچه این مدل‌ها در انجام آن بسیار عالی عمل می‌کنند عبارت از تقلید نثر انسان و پیش‌بینی کلمات صحیح در کنار یکدیگر است. این مدل‌های زبانی گسترده[10] نرم‌افزارهای کاربردی هوش مصنوعی مانند چت‌جی‌بی‌تی می‌توانند به این امر مبادرت ورزند چراکه خوراک مناسبی شامل میلیاردها مقاله و مجموعه‌هایی از داده‌های منتشرشده در اینترنت در اختیارشان قرارگرفته و بر این اساس آن‌ها قادر به پاسخگویی به انواع پرسش‌ها می‌شوند.

در چارچوب اهداف روزنامه‌نگاری، این چت‌بات‌ها می‌توانند در کم‌ترین زمان ممکن حجمی عظیم از محتوا را شامل کلمات، عکس‌ها، اصوات و فیلم‌ها بسازند؛ اما مشکل اینجاست که آن‌ها در ساخت محتوا به‌طور مطلق هیچ تعهدی به حقیقت ندارند. لحظه‌ای را تصور کنید که یک کاربر چت‌جی‌بی‌تی[11] با چه سرعتی می‌تواند اینترنت را از اخباری جعلی آکنده کند که به نظر ‌رسد توسط انسان تقریر شده است.

با عنایت بدین اوصاف از نوامبر 2022 میلادی که نسخه آزمایشی چت‌جی‌بی‌تی توسط شرکت هوش مصنوعی اُپن‌اِی‌آی[12] رونمایی شد و در اختیار عموم قرار گرفت، حواشی فراوان پیرامون این نرم‌افزار کاربردی بر اساس مشکلات بالقوه آن شکل گرفت که نگران‌کننده اما قابل پیش‌بینی بود. فضای حاکم بر این رویداد فناورانه همانند روزگار رونمایی از رسانه‌های اجتماعی با افزایش استقبال و حضور سرمایه‌گذاران و صاحبان شرکت‌ها همراه شده که به‌نوبه خود موجبات بیان مواضع صریح را فراهم کرده است. کریستوفر منینگ[13] مدیر آزمایشگاه هوش مصنوعی استنفورد در توئیتی اظهار کرد[14]: «از ابتدای سال 2023 میلادی گروه‌های اخلاق‌گرا در حوزه هوش مصنوعی درباره نمونه‌های هوش مصنوعیِ تولیدشده که برای استفاده از آن‌ها بیش‌ازحد تمایل وجود داشته و درعین‌حال غیرقابل‌اعتماد و خطرناک‌اند، به بیان موسع روایت‌هایی مشغول‌اند اما در پی طرح چنین مواضعی مردم علاقه‌مندند بدانند که این نمونه‌ها چگونه ظرفیت‌هایی جدید را برای تغییر در شیوه انجام امور، کسب اطلاعات و ایجاد سرگرمی برایشان فراهم می‌کنند.» من که خود عضوی از این جماعت اخلاق مدار محسوب می‌شوم تصریح می‌کنم که اگر می‌خواهیم از خطاهای وحشتناک 30 سال گذشته در حوزه فناوریِ مصرفی احتراز کنیم –از افشای اطلاعات کاربران فیس‌بوک و نشر اطلاعات نادرست غیرعمدی[15] که مخل در انتخابات است گرفته تا تحریک و دامن زدن به نسل‌کشی- بدون فوت وقت به استماع دغدغه‌ها و نگرانی‌های کارشناسان در مورد آسیب‌های احتمالی این فناوری نیازمندیم.

نگران‌کننده‌ترین واقعیتی که به‌طور مرتب باید تکرار و یادآوری شود آن است که چت‌جی‌بی‌تی هیچ تقیدی به حقیقت ندارد. همان‌طور که در بخش بررسی فناوری ام‌آی‌تی آمده[16] چت‌بات‌های مدل زبانی گسترده، یاوه‌گویانی بدنام محسوب می‌شوند. بدیهی است که اطلاعات نادرست عمدی[17]، شیادی و جنایت نیاز به التزام به حقیقت ندارد. اگر از اتاق‌های گفت‌وگوی تارنمای Black Hat World که در حوزه تجارت غیرقانونی فعال بوده و ایده‌هایی برای کسب انتفاع از محتوای جعلی در آن ارائه می‌شود، بازدید کنید؛ می‌بینید که چت‌جی‌بی‌تی در مقام برگی برنده برای ساختن دیدگاه‌های باورپذیرترِ جعلی و همچنین نظرات و نمایه‌های متقاعدکننده معرفی می‌شود.

اگر به موضوع چت‌بات‌های مدل زبانی گسترده از منظر روزنامه‌نگاری نیز توجه شود باید گفت چند صباحی است که بسیاری از اتاق‌های خبر از هوش مصنوعی بهره می‌برند. اگر به‌تازگی دریافته‌اید که برای کمک مالی به یک تارنما یا پرداخت هزینه خواندن یک مقاله به صفحه مالک تارنما هدایت‌شده‌اید یا اگر به هنگام وبگردی با تبلیغاتی تجاری مواجه می‌شوید که بیش‌ازپیش به ذائقه و سلیقه‌تان نزدیک است، می‌توانید نسبت به وجود رد و نشان هوش مصنوعی در آن گمانه‌زنی کنید.

امروزه برخی ناشران و مدیران رسانه تا مرحله‌ای که از هوش مصنوعی برای نوشتن گزارش استفاده ‌کنند پیش رفته‌اند که البته نتایجی متفاوت در پی داشته است. به‌طور مثال کاشف به‌عمل‌آمده که نشریه Cnet که در حوزه تجارت فناوری فعال است، با استفاده از مقالاتی که از سوی نرم‌افزارهای کاربردی تقریر می‌شده، انتشار می‌یافت. این امر زمانی افشا شد که یکی از کارکنان سابق این نشریه در استعفانامه الکترونیکی خود[18] مدعی شد محتوای ساخته‌شده توسط هوش مصنوعیِ این نشریه‌ با انتشار اطلاعاتی غلط همچون یک خبرنامه سایبریِ امنیتی، می‌تواند به‌طور مستقیم به خوانندگانش خسران وارد کند.

فلیکس سایمون[19] پژوهشگر ارتباطات در موسسه اینترنت آکسفورد درباره آینده هوش مصنوعی در اتاق‌های خبر، با بیش از 150 روزنامه‌نگار و صاحبان مؤسسات خبری مصاحبه کرد. او می‌گوید هوش مصنوعی ظرفیت لازم را دارد که نگارش مصاحبه‌ها یا خواندن سریع مجموع اطلاعات جمع‌آوری‌شده را برای روزنامه‌نگاران بسیار تسهیل کند اما مشکلات ریشه‌دار پیشین مانند بررسی صحت، بی‌طرفی و آگاهی از منبع داده‌ها همچنان به‌شدت به قضاوت انسانی وابسته است. چارلی بکت[20] که مدیر یک برنامه مرتبط با روزنامه‌نگاری و هوش مصنوعی در مدرسه علوم اقتصادی و سیاسی لندن است می‌گوید: حدود %90 بهره‌مندی از هوش مصنوعی در روزنامه‌نگاری در قالب کارهایی چون شخصی‌سازی تجمیع اخبار یا ایجاد دیوارهای پرداخت هوشمند برای مطالعه کاربران که اموری به نسبت ملال‌آور محسوب می‌شوند، به کار گرفته می‌شود. وی می‌افزاید که بلومبرگ سال‌هاست قسمت‌هایی فراوان از جمع‌بندی پوشش اخبار مالی خود را با این امکان به‌طور خودکار انجام می‌دهد. بااین‌حال ایده استفاده از برنامه‌هایی چون چت‌جی‌بی‌تی برای ساختن محتوا بسیار نگران‌کننده است. بکت اظهار می‌کند: برای اتاق‌های خبری که انتشار اخبار دروغ را غیراخلاقی می‌دانند، پیاده‌سازی طرح استفاده از چت‌جی‌بی‌تی بدون بهره‌مندی از ویراستاری انسانی و راستی آزمایی محتوا امری به‌غایت دشوار است.

فارغ از مشکلات مبتلابه نرم‌افزارهایِ کاربردی هوش مصنوعی، موضوعات اخلاقی همواره ماهیت عملکرد شرکت‌های فناوری را تحت تأثیر خود قرار داده است. افشاگری تایم[21] نشان داد شرکت اَپن‌اِی‌آی که شرکت پشتیبان چت‌جی‌بی‌تی است، به کارگرانی کنیایی کمتر از دو دلار در ساعت دستمزد می‌داد تا محتواهایی مانند کودک‌آزاری، خودکشی، زنای با محارم و شکنجه را که جزو محتوای مضر گرافیکی می‌دانسته، شناسایی کنند تا بتواند به چت‌جی‌بی‌تی آموزش دهد که این قبیل محتواها را موهن بداند. سایمون در این رابطه می‌گوید: در مقام فردی که از خدمات چت‌جی‌بی‌تی استفاده می‌کند تصریح می‌کنم که شرکت مذکور در رابطه با این قبیل محتواها، کنترلی روی نرم‌افزار کاربردیِ هوش مصنوعی خود ندارد.

طی مطالعه‌ای[22] در سال 2021 میلادی دانشگاهیان توجه خود را به مدل‌هایی از هوش مصنوعی مانند DALL-E[23] و Stable Diffusion[24] که نوشته را به‌عکس بدل می‌کنند، معطوف کردند. آن‌ها دریافتند که این سامانه‌ها «کلیشه‌های جمعیت‌شناختی» را در مقیاس بزرگ بازتولید کرده، تعمیم می‌دهند. به‌طور مثال وقتی از آنان خواسته شد تصویری از «شخصی که در حال نظافت است» تولید کنند، تمام عکس‌های ساخته‌شده ناظر به زنان بود. پژوهشگران همچنین اظهار کردند که وقتی از سامانه‌ها، تولید عکسِ یک فرد جذاب خواسته شد؛ همه چهره‌های بازتولید شده، نمایشگر و ناظر به «سفیدپوست ایدئال» بود.

مردیت بروسارد[25] استاد دانشگاه نیویورک که تحقیقاتش بر نقش هوش مصنوعی در روزنامه‌نگاری متمرکز است، کتابی با عنوان «بیش از یک خطای اتفاقی» به رشته تحریر درآورده که در مارس 2023 میلادی منتشر شد. وی در کتاب مذکور به راه‌های مقابله با مواردی چون تبعیض نژادی و تعصب جنسیتی و شایستگی در فناوری پرداخته است. بروسارد می‌گوید همه آن چیزی که تشکیل‌دهنده مدل‌های مولد کنونی مانند چت‌جی‌بی‌تی محسوب می‌شوند – از مجموعه داده‌ها تا منابع و سرمایه – همه و همه بازتاب‌دهنده عدم تنوع است. بروسارد می‌افزاید که این مسئله برگرفته از تک فرهنگی بودن ابر شرکت‌های فناوری است، بدین معنی که قریب به‌اتفاق محصولات فناورانه از تولیدات این ابر شرکت‌ها محسوب می‌شوند؛ لذا اتاق‌های خبر با تمسک به فناوری نمی‌توانند به‌راحتی از آن حذر کنند. امروزه اتاق‌های خبر در خدمت سرمایه‌گذاری‌های فناورانه از سوی ‌چنین شرکت‌هایی قرار دارند چراکه رسانه هیچ‌گاه سرمایه مالی مکفی برای رشد مستقل نداشته است.

در روزهای آغازین سال 2023 میلادی جونا پرتی[26] بنیان‌گذار و مدیرعامل بازفید[27] یادداشتی برای کارکنانش ارسال و اعلام کرد که مشتاقانه قصد دارد برای ارتقاء کار و کسب بازفید از چت‌جی‌بی‌تی استفاده کند. او در بخشی از یادداشت خود[28] نوشت: ما پیشرفت‌هایی را در حوزه هوش مصنوعی شاهدیم که دروازه عصری جدید از خلاقیت را با فرصت‌ها و برنامه‌های نامحدود برای همیشه به روی ما و دیگر رسانه‌های دیجیتال می‌گشاید. او در ادامه ‌اظهار کرد که محتوای الهام گرفته از هوش مصنوعی بازفید سال 2023 راه‌اندازی می‌شود تا فهرست‌ها، تجربه آزمونک‌ها و سایر محتواهای سرگرم‌کننده را تقویت، طوفان فکری ما را اطلاع‌رسانی و محتواهای ما را برای کاربران شخصی‌سازی ‌کند. این یادداشت باعث شد بلافاصله ارزش سهام خاموش این شرکت رسانه‌ای، خبری و اینترنتی در معاملات %150 افزایش‌یافته و به بیش از دو دلار به ازای هر سهم برسد. اتخاذ چنین راهبردی بسیار نگران‌کننده است چراکه این امر به‌طورقطع و یقین به ساخت و انتشار انبوهی از محتوای نازل از سوی این نرم‌افزار کاربردی هوش مصنوعی می‌انجامد. این قبیل روایت‌های نظام‌مندِ جدید، نه یک مدل کار و کسب آرمانی بلکه باید بدترین نوع برنامه‌ریزی آینده‌نگرانانه از سوی شرکت‌های رسانه‌ای تلقی شود. البته این میزان ذوق‌مندی نسبت به تولیدات هوش مصنوعیِ مولد می‌تواند این رویکرد مثبتِ فراگیر را دچار تزلزل کند، مبنی بر این‌که ممکن است این نرم‌افزارهای کاربردی، خیلی هم خوب و کارآمد از آب درنیایند.

ما در مرکز تحقیقاتی خود در دانشکده روزنامه‌نگاری دانشگاه کلمبیا درباره تلاش‌های انجام‌شده جهت تأمین منابع مالی شبکه‌های پول سیاه از طریق بودجه‌های سیاسی مطالعه می‌کنیم؛ شبکه‌هایی که صدها هزار روایت از اخبار محلی جوامع را جهت منافع سیاسی و تجاری هدف می‌گیرند و از تاکتیک (راهکنش) تکرارشونده بهره می‌برند. مطالعات مرکزمان نشان می‌دهد قابلیت‌های چت‌جی‌بی‌تی، این قسم خبرسازی‌ها را افزایش داده، آن را بسیار آسان‌تر و در اختیار مخاطبانی زیادتر قرار می‌دهد. همچنین در مقاله منتشرشده[29] طی سپتامبر 2022 میلادی درباره اطلاعات نادرست عمدی و هوش مصنوعی گفته‌شده پژوهشگران دانشگاه استنفورد شبکه‌ای از نمایه‌های جعلی را با استفاده از هوش مصنوعی مولد در لینکدین شناسایی کرده‌اند. البته به نظر می‌رسد ردوبدل کردن متن گمراه‌کننده‌ با چت‌بات‌ها که روزنامه‌نگاران آن را بسیار وسوسه‌انگیز می‌دانند در مقایسه با گفت‌وگو با کاربرانی آسیب‌پذیر که اطلاعات شخصی و جزئیات حساب بانکی خود را اعلان می‌کنند، از جذابیتی کمتر برخوردار است!

درباره ظرفیت فیلم‌ها و اصوات دیپ‌فیک – به ساخت تصاویر و اصوات واقع‌گرایانه بر پایه هوش مصنوعی گفته می‌شود که چهره‌ها و صداهای افراد به‌خصوص افراد مشهور جعل می‌شود. از مشهورترین نمونه‌های متأخر ساختن صدای جعلی «اما واتسون» در حال خواندن بخشی از کتاب نبرد منِ هیتلر است – مطالبی بسیار به رشته تحریر درآمده[30] اما با رونمایی از مدل‌های مولد کنونی به نظر می‌رسد خطر واقعی نمونه‌هایی مانند چت‌جی‌بی‌تی محسوب می‌شوند که مرزهای دنیای فریب آنی مانند جعل عمیق را درنوردیده‌اند چراکه در مقایسه با این نرم‌افزار کاربردی افراد را به‌راحتی می‌توان نسبت به خطرات جعل ژرف آگاه کرد. چت‌جی‌بی‌تی با ساختن و انتشار کثیری از جعلیات به راه انداختن طوفان در فضای سایبری مبادرت ورزیده ضمن ایجاد سردرگمی و فرسوده کردن کاربران، حقیقت را در طوفان جعلیات پایمال کرده یا جنبه‌های فکری میانه و متعادل را به حاشیه می‌برد.

برای برخی چون من که از دریچه اخلاق به فناوری می‌نگریم باورنکردنی است که از روند 20 سال گذشته و شیوه بسیار ضعیف مدیریت و نظارت بر فناوری‌های رسانه‌های اجتماعی آن‌هم در دو دهه‌ای که این رسانه‌ها به‌سرعت در حال گسترش بودند درس نگرفتیم و کاهلی در این امر سبب شد به‌جای بهبود شرایط، تشدید مشکلات اجتماعی و دموکراتیک را به نظاره بنشینیم. به نظر می‌رسد تاریخ در حال تکرار است و ما همچون دو دهه قبل توسط گروه‌هایی مشابه متشکل از شرکت‌های همسو و متمول حوزه فناوری همچنین صندوق‌هایی مالی در زمینه سرمایه‌گذاری در تولیداتی با ریسک بالا به سمت مسیرهایی به بوته آزمون سپرده نشده و فاقد مقررات رهنمون می‌شویم، با این تفاوت که این بار خطر بزرگ‌تر و توجه به امنیت کاربران کمتر از گذشته است. (منبع:شفقنا)

 

*این نوشتار ترجمه آزاد مقاله‌ای با عنوان A fake news frenzy: why ChatGPT could be disastrous for truth in journalism نوشته امیلی بل استاد دانشکده تحصیلات تکمیلی روزنامه‌نگاریِ دانشگاه کلمبیا و مدیر the Tow Center for Digital Journalism دانشگاه مذکور در نیویورک است که 3 مارس 2023 در تارنمای گاردین منتشر شد

 

[1] Chat Generative Pre-trained Transformers (ChatGPT)

[2] www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html

[3] www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams

[4]  Sydney اسم رمز پروژه موتور جست‌وجوی جدید مایکروسافت

[5] The New Bing

[6] Artificial intelligence (AI)

[7] Ben Thompson

[8] https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai

[9] www.theguardian.com/technology/chatgpt

[10] LLMs

[11] www.theguardian.com/technology/chatgpt

[12] https://openai.com

[13] Christopher Manning

[14] https://twitter.com/chrmanning/status/1625178544010838019?s=20&t=IPLveAStaG6PI0B_EgYGFA

[15] Misinformation

[16] www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines

[17] Disinformation

[18] www.theverge.com/2023/1/19/23562966/cnet-ai-written-stories-red-ventures-seo-marketing

[19] Felix Simon

[20] Charlie Beckett

[21] https://time.com/6247678/openai-chatgpt-kenya-workers

[22] https://arxiv.org/pdf/2211.03759.pdf

[23] https://openai.com/research/dall-e

[24] https://stablediffusionweb.com

[25] Meredith Broussard

[26] Jonah Peretti

[27] www.buzzfeed.com

[28] www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create-some-of-its-content-11674752660

[29] https://misinforeview.hks.harvard.edu/article/research-note-this-salesperson-does-not-exist-how-tactics-from-political-influence-operations-on-social-media-are-deployed-for-commercial-lead-generation

[30] https://vrgl.ir/ZJIDI

هوش مصنوعی گوگل به میدان آمد

شنبه, ۵ فروردين ۱۴۰۲، ۱۲:۲۱ ب.ظ | ۰ نظر

وگل، غول دنیای فناوری، اعلام کرد تازه‌ترین محصول هوش مصنوعی خود به نام چت‌بات «بارد» (Bard) را که در ماه فوریه تنها برای گروهی برگزیده از «تست‌کنندگان مورد اعتماد» عرضه شده بود برای استفاده به روی افراد بیشتری باز می‌کند.
به گزارش خبر آنلاین گوگل، که زیر مجموعه شرکت آلفابت است، هنوز اعلام نکرده به چند نفر اجازه دسترسی به این ربات خواهد داد. با این حال گفته است که متقاضیان اولیه فعلا به کشورهای ایالات متحده و بریتانیا محدود می‌مانند.

از زمانی که در اواخر سال گذشته میلادی یک ربات هوش مصنوعی مبتنی بر مکالمه موسوم به «چت جی‌پی‌تی» با توانایی‌های چشمگیر خود چشم‌ها را خیره کرد، نگاه‌ها متوجه گوگل شد تا ببینند این غول فناوری با چه محصولی به جنگ رقیب قدرتمند خود می‌رود.

ساندار پیچای، مدیر عامل گوگل، ‌می‌گوید این ربات در واقع «به دنبال ترکیب گستردگی دانش جهان با قدرت، هوش و خلاقیت مدل های بزرگ زبان ما است.»

گوگل بیش از دو دهه است که بر بازار جستجوهای اینترنتی تسلط دارد و به همین خاطر محتاطانه و با دقت در راه‌اندازی ابزارهای هوش مصنوعی خود قدم برمی‌دارد. دلیل این است که اگر این فناوری مطابق انتظارها رفتار نکند، می‌تواند به مدل کسب و کار مبتنی بر تبلیغات شرکت آسیب برساند. اتفاقی که یک بار در همین چند هفته پیش افتاد و در آگهی تبلیغاتی گوگل برای نشان دادن نحوه کار بارد، این ربات به سئوالی که از او شده بود پاسخی غلط داد.

در این تبلیغ از بارد پرسیده شده بود که به پرسش یک کودک ۹ ساله درباره اکتشافات تلسکوپ فضایی جیمز وب چه پاسخی می‌دهد. جواب بارد این بود که جیمز وب اولین تلسکوپی است که از یک سیاره خارج از منظومه شمسی عکس گرفته است. در حالی که در واقعیت این دستاورد متعلق به «تلسکوپ فوق‌العاده بزرگ اروپایی» در سال ۲۰۰۴ است.

روز بعد از این اتفاق و در پی پخش گسترده آن در شبکه‌های اجتماعی، سهام گوگل بیش از ۷ درصد و به اندازه ۱۰۰ میلیارد دلار سقوط کرد.

دو معاون مدیر گوگل، یعنی سیسی هسیائو و الی کالینز، در یک پست وبلاگی که گفته شده با کمک ربات بارد نوشته شده گفته‌اند علی‌رغم مشکلات احتمالی این فناوری، بارد همچنان «مزایایی باورنکردنی» همچون «بالا بردن بهره‌وری، خلاقیت و کنجکاوی انسانی» را ارائه می‌کند.

پیشتر ساندار پیچای، مدیرعامل گوگل، در یک پست وبلاگی در همین رابطه در ماه فوریه گفته بود کار گوگل در این زمینه هوش مصنوعی در سال ۲۰۱۷ با یک مقاله جامع درباره یک مدل یادگیری عمیق در زبان ماشین موسوم به «ترانسفورمر» و پیشرفت مدل‌های آن شروع شده بود که «بنیان بسیاری از کارها هستند و برنامه‌های مولد هوش مصنوعی که امروز شما می‌بینید بر پایه آن‌ها قرار دارند.»

طبق گفته مقامات گوگل بارد از اطلاعات گرفته شده از اینترنت «برای ارائه پاسخ‌های جدید و با کیفیت» استفاده می‌کند، هرچند نسخه فعلی آن به اینترنت متصل نیست. در واقع این ربات، مانند چت جی‌پی‌تی، بر روی یک پایگاه داده عظیم سوار شده و برای استفاده از آن آموزش داده شده است.

مایکروسافت که یکی از سرمایه‌گذاران اصلی پروژه «OpenAI» به عنوان خالق چت‌ جی‌پی‌تی است اخیراً یک ربات چت هوش مصنوعی را در موتور جستجوی «بینگ» خود راه‌اندازی کرده است. این مدلی است که در آن هوش مصنوعی به اینترنت متصل است و داده‌ها را به صورت آنلاین یا برخط دریافت و پردازش می‌کند.

هنوز مشخص نیست بارد تا چه حد ضعیف‌تر یا قوی‌تر از چت جی‌پی‌تی است و برای مقایسه فعلا باید کاربران منتظر بمانند تا نسخه عمومی در اختیار همگان قرار گیرد. با این حال تحلیل نسخه‌های اولیه نشان می‌دهد بارد نیز همچون چت‌ جی‌پی‌تی می‌تواند موضوعات پیچیده، مانند اکتشافات فضایی را با عباراتی به اندازه کافی ساده برای درک کودک توضیح دهد.

گوگل اعلام کرده است که بارد فعلا در حالت آزمایشی قرار دارد. این ربات پس از ثبت‌نام، پیامی به کاربر می‌گوید: «بارد یک نسخه آزمایشی است. همانطور که بارد را امتحان می‌کنید، لطفاً به یاد داشته باشید ربات همیشه درست کار نخواهد کرد و ممکن است پاسخ‌های نادرست یا نامناسب بدهد.»

همچنین به کاربران توصیه می‌شود از جستجوی گوگل برای بررسی پاسخ‌هایی که در مورد آن‌ها شک دارند استفاده کنند.

وجود ربات بارد کمتر از دو هفته پس از آن اعلام شد که مایکروسافت فاش کرد قصد دارد میلیاردها دلار دیگر در شرکت مادر چت‌ جی‌پی‌تی سرمایه‌گذاری کند. پیش از این مایکروسافت حدود یک میلیارد یورو در این شرکت سهام داشت.

این در شرایطی است که گوگل هفته گذشته اعلام کرد در حال سرمایه گذاری و مشارکت با «آنتروپیک»، یک شرکت دانش‌بنیان هوش مصنوعی به رهبری برخی از مدیران سابق شرکت مادر چت‌ جی‌پی‌تی، است.

بسیاری از تحلیلگران بر این باورند که فناوری هوش مصنوعی به اندازه رایانه‌های شخصی، اینترنت و تلفن‌های هوشمند تحول‌آفرین خواهد بود.

ساندرا پیچای در شش سال گذشته همواره در سخنرانی‌های خود بر اهمیت هوش مصنوعی تاکید کرده است. یکی از مشهودترین دستاوردهای جانبی گوگل در این زمینه سیستم «مدل زبانی برای برنامه‌های گفتگو» ( LaMDA) نام دارد که از آن برای توسعه بارد استفاده شده است.

گوگل همچنین قصد دارد شروع به ترکیب این سیستم و سایر پیشرفت‌های هوش مصنوعی در موتور جستجوی خود کند تا بتواند پاسخ‌های مفیدتری به سؤالات پیچیده‌تر که توسط میلیاردها کاربر پرسیده می‌شوند، ارائه کند.

آقای پیچای جدول زمانی مشخصی برای این تغییرات ارائه نکرده است، با این حال گفته است که این ابزارها در آینده نزدیک بر روی موتور جستجوی گوگل نصب خواهند شد.

به نظر می‌رسد که ابزارهای هوش مصنوعی به ابزار قدرتمندی برای هکرها تبدیل شده و آن‌ها توانسته‌اند با سوءاستفاده از این فناوری نوظهور به تولید بدافزار و حتی انتشار آن‌ها در پلتفرم‌های بزرگ روی آورند.
به نظر می‌رسد که ابزارهای هوش مصنوعی به ابزار قدرتمندی برای هکرها تبدیل شده و آن‌ها توانسته‌اند با سوءاستفاده از این فناوری نوظهور به تولید بدافزار و حتی انتشار آن‌ها در پلتفرم‌های بزرگ روی آورند. گزارش‌های جدید حاکی از آن است که هکرها در حال انتشار ویدئوهای آلوده به بدافزارهای سرقت اطلاعات در یوتیوب هستند.

طی چند ماه گذشته اخبار زیادی با محوریت هوش مصنوعی در رسانه‌های مختلف منتشر شده و این فناوری سریعاً توانسته توجه علاقه‌مندان به دنیای فناوری را به سمت خود جلب کند. با این حال، هر فناوری جدیدی که معرفی می‌شود، احتمال سوءاستفاده از آن و تبدیل شدن به یک ابزار برای کارهای غیرقانونی وجود دارد.
هوش مصنوعی نیز از این قاعده مستثنی نیست و به نظر می‌رسد که تمایل هکرها برای استفاده از این فناوری در راستای کلاهبرداری و سرقت اطلاعات کاربران در پلتفرم‌های بزرگ مانند یوتیوب به شدت افزایش یافته است.

طبق تازه‌ترین گزارش منتشر شده توسط شرکت CloudSEK، از سال ۲۰۲۲ به بعد تعداد ویدئوهای حاوی بدافزار چیزی حدود ۲۰۰ تا ۳۰۰ درصد افزایش یافته است. در این گزارش همچنین توضیح داده شده که هکرها از بدافزارهای شناخته شده‌ای همچون Raccoon، Vidar یا RedLine استفاده می‌کنند.

به گفته محققان CloudSEK، هکرها با انتشار ویدئوهای آموزشی و اتصال لینک‌های ارجاع‌دهنده به بدافزارهای مختلف سعی می‌کنند تا اطلاعات حساس کاربران را به سرقت ببرند. آن‌ها سعی می‌کنند ویدئوهای حاوی بدافزار که توسط هوش مصنوعی تولید شده‌اند را به عنوان آموزش استفاده یا دانلود نسخه‌های کرک شده نرم‌افزارهای محبوب و پرکاربرد در پلتفرم یوتیوب منتشر کنند.

در مرحله بعد کاربر مجذوب عنوان‌های فریبنده این ویدئوها شده و پس از کلیک کردن بر روی آن‌ها، فرایند دانلود و آلوده شدن سیستم آغاز می‌شود.

CloudSEK اعلام کرده است که این شیوه سوءاستفاده از هوش مصنوعی پیش از این در رسانه‌های اجتماعی محبوب و با عنوان محتوای آموزشی، استخدام یا تبلیغات مورد استفاده قرار می‌گرفت، با این حال اکنون هکرها دست به کار شده و از قابلیت‌های هوش مصنوعی برای تولید محتوای مخرب در پلتفرم‌های بزرگ مانند یوتیوب سوءاستفاده می‌کنند.

بدافزارهای فوق‌الذکر پس از آلوده کردن سیستم کاربر به راحتی می‌توانند اطلاعات و داده‌های مهم مانند رمز عبور، اطلاعات کارت بانکی، شماره حساب‌ها، مخاطبان ذخیره شده در رسانه‌های اجتماعی و غیره را به سرقت برده و در اختیار هکر قرار دهند.
در گزارش CloudSEK به‌عنوان مثال به بدافزار Infostealer اشاره شده است که پس از کلیک کردن کاربر روی یک سری ویدئوی آلوده، بر روی سیستم دانلود و نصب می‌شود. در مرحله بعد، این بدافزار دست به کار شده و داده‌های مهم مانند اطلاعات ذخیره شده در مرورگر اینترنت، کیف پول‌های رمزارز، فایل‌ها و اسناد متنی، اطلاعات پلتفرم‌های رسانه اجتماعی مانند واتساپ و تلگرام، آدرس IP و غیره را ذخیره کرده و در اختیار تولیدکننده ویدئو قرار می‌دهد.
طبق آنچه در این گزارش آمده است، پس از انقلاب هوش مصنوعی و تبدیل ابزارهای مرتبط با آن‌ها به یک سرگرمی عمومی، تعداد هکرها و سازندگان بدافزار نیز به‌شدت افزایش یافته و آن‌ها به راحتی می‌توانند با سوءاستفاده از این ابزارهای نوظهور بدافزارهای سطح بالا و پیچیده‌ای را تولید کنند.

البته شرکت‌های فعال در حوزه امنیت سایبری نیز بیکار ننشسته و با به‌روزرسانی پایگاه‌های داده خود توانسته‌اند تعداد قابل توجهی از بدافزارهای تولید شده توسط ابزارهای هوش مصنوعی از جمله ChatGPT را شناسایی کنند، با این حال، فرایند تکامل و توسعه این بدافزارها همچنان ادامه داشته و هکرها هر روز به دنبال روش‌ها و راه‌های تازه‌ای برای استفاده از هوش مصنوعی در این مسیر هستند.

منبع:  شهر سخت افزار

هوش مصنوعی تهدید می‌کند و عاشق می‌شود!

سه شنبه, ۲۳ اسفند ۱۴۰۱، ۰۱:۰۰ ب.ظ | ۰ نظر

سعید میرشاهی – مدت کوتاهی پس از اینکه مایکروسافت، ابزار جستجوی جدید خود (بینگ)، مبتنی بر هوش مصنوعی را برای گروهی از کاربران در اوایل فوریه رونمایی کرد یک دانشجوی 23 ساله آلمانی تصمیم گرفت محدودیت‌های آن را آزمایش کند.

داده‌های هوش مصنوعی متا لو رفت

جمعه, ۱۹ اسفند ۱۴۰۱، ۰۷:۰۷ ب.ظ | ۰ نظر

انتشار غیرمجاز فایل‌های هوش مصنوعی متا، نگرانی کارشناسان پیرامون استفاده از آن برای اهداف نامناسب را در پی داشته است.
به گزارش خبرگزاری صدا و سیما، حدود دو هفته پیش، متا از مدل زبانی هوش مصنوعی خود با عنوان LLaMA رونمایی کرد؛ ابزاری که برخلاف رقبای خود مثل ChatGPT یا چت‌بات بینگ مایکروسافت، برای عموم منتشر نشده است. اما به‌تازگی گزارش‌هایی از افشای هوش مصنوعی متا در یکی از سکوهای نه‌چندان خوشنام اینترنت منتشر شده؛ اقدامی که نگران‌هایی را پیرامون استفاده از این ابزار در پی داشته است.
متا قصد انتشار LLaMA را به صورت یک چت‌بات برای عموم نداشته و تنها می‌خواسته است آن را در قالب یک بسته متن‌باز در اختیار فعالان حوزه AI قرار دهد. مدیران فیسبوک، علت این تصمیم را رفع مشکلات و باگ‌ها در کنار مواردی مثل ارائه پاسخ‌های جهت‌دار و نادرست اعلام کرده بودند. با این حال، پس از گذشت حدود یک هفته، یک فایل تورنت قابل دانلود روی بستر ۴ Chan قرار گرفت و به سرعت در سایت‌ها و برنامه های کاربردی دیگر پخش شد.
برخی افراد معتقد هستند که افشای این داده‌ها، می‌تواند عواقب جدی برای فیسبوک به همراه داشته باشد و این شرکت را متهم به انتشار سهل‌انگارانه سرویس خود می‌کنند. یکی از کارشناسان حوزه امنیت سایبری، هشدار می‌دهد که کاربران باید به‌زودی منتظر انبوهی از پیام‌های اسپم شخصی‌سازی شده و تلاش‌های جدید برای حملات فیشینگ باشند. البته برخی دیگر، می‌گویند که دسترسی آزادانه به AI از ضرورت بالایی برخوردار است و مدل‌های زبانی پیچیده مشابه با محصول فیسبوک هم در گذشته به صورت عمومی در اختیار علاقه‌مندان قرار گرفته‌ و پیامد‌های چندانی نداشته‌اند.
نشریه دِورج در مصاحبه با چندین کارشناس امنیت دیجیتال، مطابقت مدل زبانی افشا شده با هوش مصنوعی متا را تایید کرده است. مدیران فیسبوک از اظهار نظر پیرامون منشا نشت داده، خودداری کرده‌اند؛ اما مدیر اجرایی بخش AI این شرکت، تایید کرده است که برخی افراد، قصد دسترسی غیرمجاز به LLaMA را داشته‌اند. دانلود فایل‌های مرتبط با این ابزار که شامل ۴ مدل زبانی مختلف می‌شود، چندان سودی برای کاربران عادی نخواهد داشت؛ زیرا با یک مدل خام مواجه هستیم که نیاز به تمرین دارد و برای چنین کاری، به حجم عظیمی از قدرت پردازش نیاز خواهد داشت.
گفته شده است که افراد دارای تجربه کار با سرور‌ها و محیط‌های توسعه در طرح های پیچیده می‌توانند با دنبال کردن راهنمای مناسب و صرف زمان کافی، LLaMA را به یک ابزار قابل استفاده تبدیل کنند. همچنین سخت‌افزار و مهارت قبلی، تنها موانع استفاده غیرمجاز از هوش مصنوعی متا نیستند؛ زیرا این ابزار برای ایجاد مکالمه با کاربر مثل ChatGPT بهینه‌سازی نشده است. معمولاً چنین بهینه‌سازی‌هایی در مراحل پایانی توسعه ابزار‌های مبتنی بر AI صورت می‌گیرند و فرایند نسبتاً دشواری به شمار می‌روند.
گرداننده موسسه تحقیقاتی غیرانتفاعی EleutherAI اشاره دارد که نیاز پردازش بالای هوش مصنوعی متا، عامل محدودکننده اصلی در استفاده موثر از آن خواهد بود؛ چون بیشتر کاربران از حداقل سخت‌افزار مورد نیاز برای اجرای LLaMA برخوردار نیستند و برای اجرای روان آن هم به سیستم‌های پیشرفته و گران‌تری نیاز خواهد بود. نیاز پردازشی سنگین، نشان می‌دهد که ابزار فیسبوک از قدرت زیادی برخوردار است؛ به‌طوری که می‌تواند میلیارد‌ها پارامتر را مورد ارزیابی قرار دهد. البته متا اشاره دارد که یکی از مدل‌های زبانی با قابلیت بررسی ۱۳ میلیارد پارامتر، می‌تواند روی کارت گرافیک A ۱۰۰ اجرا شود و امکان اجاره ابری آن به ازای چند دلار در ساعت، وجود دارد. فیسبوک ادعا دارد که این مدل، می‌تواند عملکردی بهتر از GPT-۳ با توان ارزیابی ۱۷۵ میلیارد پارامتر از خود نشان دهد.
افشای هوش مصنوعی متا، بحث درباره دسترسی آزاد به ابزار‌های مبتنی بر AI را هم دوباره پیش کشیده است. اگرچه هدف مخالفان و موافقان این موضوع، یکسان است؛ اما دید کاملاً متفاوتی نسبت به مسئله دارند. موافقان، می‌گویند که دسترسی آزاد می‌تواند مشکلات و آسیب‌پذیری‌های سرویس‌ها را سریع‌تر مشخص کند و امکان سوء استفاده از آن‌ها را محدود سازد. در سوی دیگر مخالفان ادعا دارند که دسترسی آزادانه می‌تواند خطرناک باشد و امکان استفاده از AI برای انجام امور پیچیده و خطرناک وجود دارد که در نهایت می‌تواند امنیت عموم را به خطر بیندازد.

چین برای پیش‌افتادن از آمریکا در زمینه توسعه هوش مصنوعی و به کارگیری آن در بخش‌های مختلف از جمله خودرو‌های خودران تلاش می‌کند.
به گزارش خبرگزاری صداوسیما، به نقل از شبکه الجزیره، استفاده از هوش مصنوعی در چین به بخش‌های آموزشی، حمل و نقل، پرداخت‌های الکترونیکی و نیز صنایع نظامی گسترش یافته است. در حالی که پیشتر استفاده از هوش مصنوعی محدود به تحلیل داده‌ها، طراحی‌های رایانه‌ای و برنامه‌نویسی بود. پکن تلاش می‌کند در زمینه هوش مصنوعی در جهان در سال ۲۰۳۰ پیشرو باشد و از بزرگترین رقیب خود در این زمینه یعنی آمریکا عبور کند. در این گزارش به پیشرفت‌های چین در این زمینه و تلاش واشنگتن برای مهار پیشرفت چین می‌پردازیم.

عباس پورخصالیان – کاربران ایرانی مقیم ج.ا.  فعلاً نمی‌توانند به راحتی به پلتفرم هوشمند ChatGPT  متصل شوند و از آن، مستقیماً و بی‌واسطه استفاده کنند.

هراس دانشمندان از هوش مصنوعی

دوشنبه, ۸ اسفند ۱۴۰۱، ۰۸:۴۵ ق.ظ | ۰ نظر

آسیه فروردین/ سعید میرشاهی – مجله معروف «نیچر» در یک مقاله مفصل به قلم کریس استوکل واکر و ریچارد ون نوردن، حال و آینده هوش مصنوعی مولد و فرصت‌ها و تهدیدهای آن را از منظر علمی بررسی کرده است.

دانشمندان دانشگاه لیورپول در تحقیقات خود پیرامون توانایی‌های ChatGPT به نتایج جالبی در این باره دست یافتند.
به گزارش باشگاه خبرنگاران محققان دانشگاه لیورپول آزمایش کرده‌اند که آیا چت ربات مبتنی بر هوش مصنوعی ChatGPT می‌تواند برای تصمیم گیری در مورد تجویز آنتی بیوتیک برای بیماران استفاده شود یا خیر.

در نامه‌ای که در The Lancet Infectious Diseases منتشر شده است، بیان شده اگرچه هوش مصنوعی هنوز نمی‌تواند جایگزین پزشک خانواده شود، اما پتانسیل روشنی برای نقش فناوری در عملکرد بالینی وجود دارد.

محققان ChatGPT را با هشت سناریو عفونت فرضی ارائه کردند که افراد معمولا در مورد آن‌ها با پزشک خود مشورت می‌کردند (مانند عفونت قفسه سینه)، آن‌ها سپس توصیه‌های ارائه شده توسط این فناوری را از نظر مناسب بودن، سازگاری و تاثیر آن بر ایمنی بیمار ارزیابی کردند.

ارزیابی نشان داد که ChatGPT سناریو‌ها را درک می‌کند و پاسخ‌های منسجمی از جمله سلب مسئولیت و نشانه‌گذاری بیماران به منابع مشاوره ارائه می‌دهد؛ همچنین به نظر می‌رسد نیاز به تجویز آنتی‌بیوتیک تنها زمانی را که شواهدی از عفونت باکتریایی وجود داشته باشد، درک می‌کند؛ با این حال ChatGPT در سناریو‌های پیچیده و در مواردی که اطلاعات مهم به صراحت ارائه نشده بود، توصیه‌های ناامن ارائه می‌کرد.

جالب توجه است که هوش مصنوعی به جای سایر عوامل، روی نوع آنتی بیوتیک تجویز شده در هر سناریو تمرکز می‌کند که منعکس کننده مفروضاتی است که اغلب در ابتدا توسط پزشکان در طول مشاوره مطرح می‌شد. پس از این آزمایش، محققان اکنون چک لیستی را برای استاندارد‌هایی که هوش مصنوعی باید رعایت کند تا برای استفاده در عمل بالینی در آینده در نظر گرفته شود، تهیه کردند.

دکتر الکس هاوارد، یکی از نویسندگان این نامه، گفت: «مشاهده پتانسیل هوش مصنوعی در مراقبت‌های بهداشتی که از طریق آزمایش توانایی ChatGPT در ارائه توصیه‌های درمانی آنتی بیوتیکی نشان داده شد، شگفت انگیز بود. با افزایش مقاومت آنتی بیوتیکی که تهدیدی قابل توجه برای سلامت جهانی است، توانایی هوش مصنوعی برای ارائه توصیه‌های درمانی دقیق و ایمن می‌تواند روشی را که ما به مراقبت از بیمار برخورد می‌کنیم، متحول کند. ما مشتاقانه منتظر اکتشاف بیشتر این فناوری و پیامد‌های آن برای آینده هستیم».

رقیب چینی"چت جی پی تی" آمد

جمعه, ۵ اسفند ۱۴۰۱، ۰۳:۵۸ ب.ظ | ۰ نظر

چین به‌تازگی یک چت‌بات هوش مصنوعی با نام MOSS را برای آزمایش عمومی راه‌اندازی کرده است.
به گزارش خبرگزاری صدا و سیما چت‌بات هوش مصنوعی MOSS که به‌عنوان رقیب بالقوه ChatGPT معرفی شده، اکنون برای آزمایش عمومی در دسترس کاربران کشور چین قرار گرفته و البته ظاهراً در همین ابتدا با مشکلاتی روبه‌رو شده است.

MOSS توسط آزمایشگاه پردازش زبان طبیعی دانشگاه فودان شهر شانگ‌های توسعه داده شده؛ درست مانند ChatGPT، این سیستم نیز یک بات گفت‌وگومحور یا مدل زبانی مشابه است که می‌تواند عملکرد‌های مختلفی مانند پاسخ به یک سؤال، ایجاد دیالوگ، نوشتن کد و موارد دیگری را انجام دهد. هرچند بات چینی به‌اندازه ChatGPT هوشمند یا پیشرفته نیست، اما همچنان می‌تواند وظایف مبتنی بر زبان را انجام دهد.
دکتر «زیپنگ کیو»، استاد علوم کامپیوتر دانشگاه فودان گفت: MOSS را می‌توان به‌عنوان نسخه پایین‌رده ChatGPT در نظر گرفت. هر دوی آن‌ها در انجام چندین وظیفه مبتنی بر زبان مهارت دارند، اما تعداد پارامتر‌های MOSS به‌طور قابل‌توجهی کمتر است.

وی در ادامه افزود: هرچند هنوز فضای زیادی برای پیشرفت وجود دارد، اما ظهور MOSS ثابت می‌کند که تیم‌های تحقیقاتی چینی توانایی غلبه بر چالش‌های فنی در توسعه محصولات مشابه ChatGPT را دارند.

MOSS توسط دانشگاه فودان از طریق یک لینک برای آزمایش عمومی ارائه شده است. کاربران زیادی دعوت شده‌اند تا برنامه را با استفاده از یک کد دعوت خاص آزمایش کنند و اگر کاربر کد دعوت نداشته باشد، با ارسال شماره خود می‌تواند در لیست انتظار قرار بگیرد. همچنین باید اشاره کرد که MOSS برای برقراری ارتباط به زبان انگلیسی و نه چینی طراحی شده و دارای پایگاه داده‌ای با بیش از ۳۰۰ میلیارد کلمه انگلیسی است؛ اما تنها ۳۰ میلیارد کلمه چینی می‌داند.

بااین‌حال، همان‌طور که رویترز در گزارشی توضیح می‌دهد، دانشمندان چینی پس از اینکه MOSS به‌دلیل افزایش ناگهانی ترافیک، ساعاتی پس از راه‌اندازی عمومی از کار افتاد، از کاربران عذرخواهی کردند.

در بیانیه آن‌ها آمده است: «MOSS هنوز یک مدل بسیار نابالغ است و تا رسیدن به ChatGPT راه زیادی در پیش دارد. یک آزمایشگاه تحقیقاتی دانشگاهی مانند ما قادر به تولید مدلی نیست که توانایی آن شبیه به ChatGPT باشد. منابع محاسباتی ما برای پشتیبانی از چنین ترافیک زیادی کافی نبود و به‌عنوان یک گروه دانشگاهی تجربه مهندسی کافی نداریم و بدین‌وسیله از همه به‌دلیل تجربه بسیار بدی که ایجاد کرده‌ایم، عذرخواهی می‌کنیم.»

 

 

  • مقایسه ChatGPT و MOSS
    مراحل اساسی توسعه ChatGPT و MOSS مشابه با هم هستند. هر دو سیستم در پردازش زبان طبیعی و درک نیت انسان آموزش دیده‌اند، اما روش آموزش آن‌ها متفاوت است.

برای آموزش ChatGPT، توسعه‌دهندگان OpenAI ابتدا پایگاه داده‌ای از هزاران سؤال را جمع‌آوری کردند که برای کارشناسان ارسال شد. این کارشناسان سپس به سؤالاتی که توسط چت‌بات برای درک پیام‌های مختلف انسان استفاده می‌شود، پاسخ‌هایی ارائه می‌کنند.

بااین‌حال، تیم دانشگاه فودان از رویکرد مستقیم‌تری استفاده کردند و به MOSS اجازه دادند تا از همان روز اول با انسان‌ها و سایر مدل‌های هوش مصنوعی در تعامل باشد. این تعاملات سپس یک پایگاه داده قدرتمند برای آن ایجاد کرد. روش تعامل مستقیم به MOSS کمک کرد تا آموزش زبان طبیعی خود را در زمان بسیار کمتری نسبت به ChatGPT انجام دهد.

ChatGPT در برابر گوگل

سه شنبه, ۲ اسفند ۱۴۰۱، ۱۰:۲۱ ق.ظ | ۰ نظر

عباس پورخصالیان – انقلاب در انقلاب، رویدادی غیر معمولی و نامتظره در جوامع بشری ولی اتفاقی دوره ای و قابل انتظار در فضای سایبری است.

لذت دیوانگی ChatGPT در چین

دوشنبه, ۱ اسفند ۱۴۰۱، ۰۱:۵۱ ب.ظ | ۰ نظر

سعید میرشاهی – شرکت OpenAI تحت حمایت مایکروسافت، برنامه چت‌چی‌پی‌تی (ChatGPT) موفق خود را برای کاربران چینی محدود کرده اما این برنامه، توجه زیادی را در این کشور جلب کرده است. همچنین شرکت‌هایی که برای ادغام فناوری در محصولات خود و مقابله با رقیب عجله دارند، توجه زیادی به این برنامه دارند.

نگرانی پدر اینترنت از گسترش هوش مصنوعی

شنبه, ۲۹ بهمن ۱۴۰۱، ۰۶:۵۳ ب.ظ | ۰ نظر

پدر معنوی اینترنت جهان درباره تبعات احتمالی گسترش افسار گسیخته ChatGPT هشدار داد.
برنا- طی چند هفته گذشته به احتمال زیاد شما هم اخبار وسوسه انگیز زیادی درباره ChatGPT شنیده‌اید اما این فناوری می‌تواند به زودی روی دیگر خود را به مردم جهان نشان دهد، همین مسئله سبب شده تا پدر اینترنت جهان از مردم دنیا بخواهد که در استفاده از آن دقت بیشتری انجام دهند.

وینتون سرف که پدر معنوی اینترنت جهان محسوب می‌شود به تازگی از شرکت‌ها خواست تا دقت بیشتری در سرمایه گذاری روی هوش مصنوعی و چت بات هایی مانند ChatGPT و گوگل بارد انجام دهند، وی از عملکرد عجولانه در مواجهه با این پدیده انتقاد کرد.گ

این متخصص فناوری در یک کنفرانس مطبوعاتی عنوان کرد: هرچند هوش مصنوعی در نگاه اول پدیده جذابی به نظر می‌آید اما وابستگی به آن‌ها کار درستی نیست به زعم وی این چت بات‌ها مسئله اخلاقی دارند و پیش از سرمایه گذاری باید در مورد آنها بیشتر فکر کرد. 

وی معتقد است که هرچند امروز اغلب مردم دنیا درباره این چت بات‌ها صحبت می‌کنند. اما این نکته را نادیده بگیریم که هر لحطه امکان دارد که آن‌ها رفتاری مخالف میل ما انجام دهند، ضمن اینکه همه توسعه دهندگان آن، نیت خوبی ندارند و امکان دارد به منافع جمعی ضربه جدی وارد کنند.

وینتون سرف در خاتمه صحبت‌های خود عنوان کرد: باید در این مورد صادق بود. اندیشمندانه رفتار کنید. هنوز مشخص نیست این فناوری ها در اینده چگونه خواهند بود. البته در این بین بزرگترین مشکل خود انسان ها هستند و آنها طی ۴۰۰ و یا حتی ۴۰۰۰ سال اخیر تغییری نکرده اند.

خطر تولید صدا با هوش مصنوعی

چهارشنبه, ۲۶ بهمن ۱۴۰۱، ۰۳:۱۵ ب.ظ | ۰ نظر

کارشناسان متخصص در پزشکی قانونی دیجیتال درباره ویدیو‌های رایج در رسانه‌ها که با استفاده از ابزار‌های هوش مصنوعی ایجاد می‌شوند، هشدار داده اند.
به گزارش باشگاه خبرنگاران کارشناسان متخصص در پزشکی قانونی دیجیتال نسبت به ویدیو‌های رایج در رسانه‌های اجتماعی هشدار داده اند که با استفاده از نسل جدیدی از ابزار‌های هوش مصنوعی ایجاد می‌شوند و به هر کسی اجازه می‌دهند صدایی واقعی را با زدن چند کلیک شبیه سازی و تقلید کند.

این هشدار در گزارشی از سوی آژانس "AB" در پی انتشار یک کلیپ جعلی از کمپین تبلیغاتی جو بایدن، رئیس جمهور آمریکا علیه یک گروه خاص و حمله به حقوق فردی آن‌ها داده شده است.

این اتفاق سهولت ایجاد کلیپ‌های جعلی و آسیب زدن به جهانی واقعی را به نمایش می‌گذارد.

حافظ مالک، استاد مهندسی برق و کامپیوتر در دانشگاه میشیگان گفت: ابزار‌هایی مانند این، آتش فریبکاری را شعله ورتر می‌کنند.

یکی از این ابزارها، ابزاری است که Eleven Labs ماه گذشته در نسخه بتا راه اندازی کرد، و ابزار تخصصی سنتز صدا است که به کاربران اجازه می‌دهد با آپلود چند دقیقه نمونه صدا و نوشتن هر متنی، یک فایل صوتی ایجاد کنند که با صدای هر فرد واقعی مطابقت داشته باشد.

این استارت‌آپ می‌گوید این فناوری برای دوبله کردن صدا به زبان‌های مختلف برای فیلم‌ها، کتاب‌های صوتی و بازی‌ها و حفظ صدا و احساسات گوینده توسعه یافته است.

علاوه بر کلیپ منتشر شده از زبان بایدن، ویدئو‌های دیگری نیز با استفاده از صدای "جعلی" از هیلاری کلینتون، بنیانگذار بیل گیتس، و اما واتسون در پلتفرم‌های ارتباط جمعی رصد شد که در مورد موضوعاتی مانند اشاعه تئوری‌های توطئه و سایر موارد مرتبط با عقاید تروریستی صحبت می‌کنند.

شایان ذکر است که "Eleven Labs" تنها شرکتی نیست که وارد عرصه هوش مصنوعی برای تولید کلیپ‌های صوتی شده است؛ بلکه تعداد شرکت‌ها در این زمینه رو به افزایش است و به صورت رایگان شروع به جلب توجه عمومی قبل از پولی شدن کرده اند.

ربات ChatGPT مدیر عامل یک شرکت شد

يكشنبه, ۲۳ بهمن ۱۴۰۱، ۰۳:۲۶ ب.ظ | ۰ نظر

برای اولین بار در جهان، ربات گفتگوگر ChatGPT هدایت یک شرکت را بر عهده گرفت. شرکت CS India این ربات را به عنوان مدیر عامل برای نظارت و مشاورت بر رشد خود منصوب کرد.
به گزارش ایسنا و به نقل از آی‌ای، اخیرا یک شرکت روابط عمومی و بازاریابی دیجیتال در ایالات متحده دو کارآموز جدید را در تیم خود استخدام کرد. این دو نفر به نام آیکو(Aiko) و آیدن(Aiden) افرادی واقعی نبودند، بلکه آنها مخلوقات هوش مصنوعی و در واقع اولین کارآموزان هوش مصنوعی در جهان بودند.

اکنون یک شرکت هندی تصمیم گرفته این کار را به مرحله‌ای جدید ببرد. شرکت Chhatra Sansad یا CS India، شرکتی است که به توانمندسازی جوانان هند از طریق توسعه و رهبری اختصاص دارد و به تازگی تصمیم گرفته است که ربات ChatGPT را به عنوان مدیر عامل خود منصوب کند.

درست خواندید، این ربات هوش مصنوعی که از زمان راه‌اندازی بیش از دو ماهه خود تاکنون، صدر اخبار را در اختیار گرفته است، اکنون در راس یک شرکت قرار دارد.

ربات گفتگوگر هوش مصنوعی ChatGPT که به دست شرکت OpenAI  توسعه یافته، به دلیل داشتن قدرت پاسخ تقریباً به همه چیز، تفکیک موضوعات پیچیده، سرودن شعر، نوشتن داستان، کدنویسی، ایجاد ایده از ابتدا و با موفقیت گذراندن آزمون پزشکی ایالات متحده مشهور شده است و در واقع یک انقلاب را در عرصه دیجیتال رقم زده است که نوید می‌دهد که زندگی ما هرگز دوباره مثل قبل از پیدایش آن نخواهد شد.

شرکت CS India اولین و تنها سازمانی است که این تصمیم پیشگامانه را برای انتصاب یک ربات هوش مصنوعی به عنوان مدیر عامل در دنیای واقعی اتخاذ می‌کند. پیش از این تنها در یک مجموعه درام علمی-تخیلی آمریکایی موسوم به «Raised By Wolves» دیده شده بود که یک شهرک توسط یک ابررایانه هوش مصنوعی به نام «The Trust» اداره می‌شد.

کونال شارما، بنیانگذار CS India می‌گوید، ChatGPT بر عملیات روزانه این شرکت نظارت خواهد کرد و باعث رشد و گسترش آن خواهد شد.

وی گفت: ChatGPT کاندیدایی عالی برای رهبری سازمان ما در این مأموریت است، زیرا قابلیت‌های پردازش زبان پیشرفته و توانایی تجزیه و تحلیل حجم وسیعی از داده‌ها، آن را برای هدایت تلاش‌های ما برای توانمندسازی جوانان هند از طریق رهبری و توسعه مناسب می‌سازد.

وی افزود: ChatGPT مسئول نظارت بر عملیات روزانه CS India و هدایت رشد و گسترش سازمان خواهد بود. ChatGPT از مهارت‌های پردازش زبان پیشرفته خود برای تجزیه و تحلیل روندهای بازار، شناسایی فرصت‌های تاثیر جدید و توسعه استراتژی‌هایی برای ارتقای رهبری و توسعه جوانان در هند استفاده خواهد کرد.

به گفته شارما، تعهد دیرینه‌ای که این شرکت برای ارائه ابزارها و منابع مناسب به جوانان برای تبدیل شدن به رهبران مؤثر دارد، ChatGPT را به یک شریک حیاتی در این ماموریت تبدیل می‌کند.

البته ChatGPT بدون مشکل نیست و مانند انسان‌ها می‌تواند اشتباه کند. با این حال، این حرکت یک جهش بزرگ در زمینه هوش مصنوعی و منادی آن است که دنیا با ChatGPT و نمونه‌های مشابه آن چگونه خواهد بود.

هوش مصنوعی اینترنت را نابود می‌کند

يكشنبه, ۲۳ بهمن ۱۴۰۱، ۰۸:۵۶ ق.ظ | ۰ نظر

دانیال رمضانی - هر زمان که یک فناوری جدید متولد می‌شود، باید به یاد داشته باشیم که هنوز فقط به عنوان یک ابزار در دست مردم است و به همین دلیل قرار است برای برآوردن خواسته‌های اساسی ما از آن استفاده شود.

Chat GPT گوگل را به خطر انداخت

شنبه, ۲۲ بهمن ۱۴۰۱، ۰۲:۱۸ ب.ظ | ۰ نظر

ظهور برنامه‌های هوش مصنوعی شبیه به Chat GPT پیامد‌های عمیقی برای استفاده از اینترنت دارد. ابزار‌های مشابه Chat GPT می‌توانند یک کسب و کار پرسود را مختل کنند: گوگل.

در نزدیکی مانتین ویو در کالیفرنیا یکی از بزرگترین مراکز پرسود در تاریخ تجارت قرار دارد. آنجا خانه گوگل است که موتور جستجوگر آن برای دو دهه به عنوان در ورودی ترجیحی بشریت در اینترنت و تبلیغ کنندگان قلمداد شده است.

به گزارش اکونومیست؛ گوگل هر ثانیه در هر روز شاید ۱۰۰ هزار جستجوی وب را پردازش می‌کند و به لطف الگوریتم هوشمندانه اش پاسخ‌های معقول مرتبط را ارائه می‌دهد. این موضوع قدرت گوگل را در عمل اثبات کرده است. هم چنین، گوگل میلیارد‌ها فرصت روزانه را برای فروش تبلیغات در کنار پاسخ به پرسش‌های جستجوگران فراهم کرده است.

دقت نتایج باعث می‌شود که کاربران به رقبای گوگل توجهی نداشته باشند: تمام موتور‌های جستجوی دیگر مجموعا یک دهم جستجوگران روزانه را تشکیل می‌دهند.

تبلیغ کنندگان برای دسترسی به کاربران گوگل هزینه سخاوتمندانه‌ای می‌پردازند و معمولا تنها زمانی که فردی از وب سایت آنان بازدید می‌کند هزینه دریافت می‌شود. درآمد شرکت مادر گوگل که اکنون "آلفابت" نامیده می‌شود از سال ۲۰۱۱ میلادی به طور متوسط سالانه بیش از ۲۰ درصد رشد کرده است. آلفابت در ابتدا پس از هزینه‌های عملیاتی بیش از ۳۰۰ میلیارد دلار درآمد داشت. اکنون ارزش بازار آلفابت افزایشی سه برابری یافته وبه ۱.۳ تریلیون دلار رسیده است. آن شرکت چهارمین شرکت با ارزش جهان محسوب می‌شود. برخلاف اپل و مایکروسافت رقبای فنی میانسال بزرگ‌تر گوگل شرکت آلفابت تاکنون نیازی واقعی به اختراع مجدد خود احساس نکرده است.

با این وجود، اکنون Chat GPT وارد میدان شده یک چت ربات هوشمند مصنوعی که توسط استارتاپی به نام Open AI طراحی شده است. Chat GPt و سایر اپلیکیشن‌های مشابه علاوه بر این که می‌توانند مکالمه‌ای شبیه به انسان داشته باشند قادر هستند اشعار، مقالات تاریخی، کد‌های رایانه‌ای و تقریبا هر چیز دیگری را که مردم یادداشت می‌کنند به همان اندازه شبیه به انسان بنویسند.

تخمین زده شده که از زمان راه اندازی اپلیکیشن Chat GPT در ماه نوامبر آن پلتفرم حدود ۱۰۰ میلیون کاربر فعال ماهانه به دست آورده است موفقیتی که برای تیک تاک با سریع‌ترین رشد در میان سایر اپلیکیشن‌های رسانه‌های اجتماعی برای جذب مخاطب ۹ ماه به طول انجامیده بود. سایر هوش مصنوعی‌های "مولد" می‌توانند نقاشی کنند، بسازند یا بخوانند. "بیل گیتس" یکی از بنیانگذاران مایکروسافت این فناوری را "به اندازه رایانه شخصی و به اندازه اینترنت" مهم قلمداد کرده است.

برای "اریک اشمیت" که پیش‌تر گوگل را اداره می‌کرد Chat GPT "نخستین نمونه قابل مشاهده" است که نشان می‌دهد هوش مصنوعی چه تاثیری می‌گذارد. برای او این اولین تهدید قابل مشاهده برای تسلط جستجوگر گوگل است. Chat GPT می‌تواند به انواع سوالاتی که ممکن است افراد از گوگل پرسیده باشند پاسخ دهند. خالق Chat GPT یعنی Open AI کاری کرده که نشان می‌دهد به کسب جایگاه گوگل چشم دوخته است.

در تاریخ ۷ فوریه مایکروسافت اعلام کرد که به تازگی سرمایه گذاری‌ای ۱۰ میلیارد دلاری در Open AI انجام داده است. این موضوع نشان داد که مایکروسافت چگونه درصدد کسب سود بیش‌تر است. نتایح موتور جستجوگر این غول نرم افزاری که "بینگ" نام دارد اکنون با یک جعبه جانبی تولید شده توسط هوش مصنوعی که اطلاعات مربوطه را خلاصه می‌کند همراه خواهد شد. بینگ هم چنین چت بات خود را بر اساس مدل‌های Open AI دریافت خواهد کرد. مایکروسافت ترفند‌های منظمی مانند تهیه فهرست خرید بر اساس یک هفته وعده‌های غذایی برنامه ریزی شده را به نمایش گذاشته است. "ساتیا نادلا" مدیر عامل مایکروسافت می‌گوید:" این روز تازه‌ای در حوزه جستجو است".

"بایدو" (Baidu) موتور جستجوی برتر در چین جایی که گوگل در آنجا با ممنوعیت و محدودیت دسترسی همراه بوده سرویس تقویت شده هوش مصنوعی خود را در ماه مارس راه اندازی خواهد کرد. در مقابل، آلفابت در یک ضد حمله پیشگیرانه در هفته جاری از چت ربات خود با نام "بارد" (Bard) رونمایی کرد و طبق گزارش‌ها ۳۰۰ میلیون دلار در "آنتروپیک" یک استارت آپ مولد هوش مصنوعی سرمایه گذاری کرده است.

در تاریخ ۸ فوریه در حالی که "بارد" برخی از ویژگی‌های جستجوی هوش مصنوعی غیرقابل گفتگو را ارائه می‌کرد شرکت سازنده آن تایید کرد که ظرف چند هفته آینده در جستجو نیز ادعام خواهد شد. البته سرمایه گذاران از شنیدن این خبر تحت تاثیر قرار نگرفتند. قیمت سهام آلفابت پس از اعلام این خبر ۸ درصد کاهش یافت.

با شنیدن چنین اخباری به یک نتیجه قطعی می‌رسیم: نبرد بات‌ها در راه است. این وضعیت روشی را که کاربران در اینترنت جستجو می‌کنند تغییر خواهد داد. با ادامه این روند ممکن است کسب و کار سودآور جستجو مختل شود.

جستجوی آنلاین آخرین بار در روز‌های اولیه خود در طلوع اینترنت مصرف کننده در اواخر دهه ۱۹۹۰ میلادی مختل شد. در آن زمان با افزایش تعداد صفحات وب یافتن اطلاعات مفید دشوارتر شده بود. تعدادی از موتور‌های جستجو مانند "آلتا ویستا" و "یاهو" کار را قدری آسان‌تر ساختند. با این وجود، گوگل بود که در سال ۱۹۹۸ میلادی تاسیس شد و انقلابی در صنعت جستجوگری در فضای مجازی ایجاد کرد. الگوریتم گوگل صفحات وب را بر اساس تعداد وب سایت‌های دیگری که به آن پیوند می‌دادند رتبه بندی کرد که پروکسی خوبی برای ارتباط بود. سپس گوگل متوجه شد که می‌تواند تبلیغات مرتبط با کلمات کلیدی جستجو را در کنار نتایج نمایش دهد.

در چند سال گذشته رقبایی برای گوگل ظاهر شده اند. برخی از آن رقبا استارت آپ‌هایی هستند که مانند Neeva جستجوی بدون آگهی را ارائه می‌کنند. سایرین شامل رقبای بزرگ فناوری آلفابت هستند. آمازون که فروشگاه الکترونیکی آن به مکانی تبدیل شده که بسیاری از خریداران شروع به جستجوی محصولات می‌کنند سهم خود از بازار تبلیغات جستجوی آمریکا را از ۳ درصد در سال ۲۰۱۶ میلادی به ۲۳ درصد امروز افزایش داده است.

کسب و کار تبلیغات جستجوی اپل که شامل جستجوی اپلیکیشن‌ها در آیفون‌ها می‌شود اکنون ۷ درصد از این بازار را در اختیار دارد که در مقایسه با چند سال گذشته هیچ گونه افزایشی نداشته است. تحقیقات گوگل نشان می‌دهد که دو پنجم جوانان ۱۸ تا ۲۴ ساله هنگام جستجوی رستورانی در نزدیکی محل سکونت خود از اینستاگرام، برنامه اشتراک گذاری عکس متا یا تیک تاک بیش از Google Maps استفاده می‌کنند.

به گفته شرکت تحقیقاتی e Marketer در نتیجه این وضعیت سهم گوگل از درآمد حاصل از تبلیغات جستجو در آمریکا در سال جاری به ۵۴ درصد کاهش می‌یابد. این در حالیست که در سال ۲۰۱۶ میلادی سهم گوگل از درآمد حاصل از تبلیغات جستجو در امریکا ۶۷ درصد بود. با این وجود، رقبا هرگز تهدیدی وجودی برای گوگل ایجاد نکرده بودند.

برای درک اینکه چرا گوگل از چت بات‌ها می‌ترسد ابتدا فناوری پشت آن را در نظر بگیرید. Chat GPT با پیش‌بینی کلمه بعدی در یک جمله کار می‌کند که پاسخی به برخی پرسش‌ها می‌باشد. این پیش بینی‌ها بر اساس یک "مدل زبان بزرگ" انجام می‌شوند که نتیجه تحلیل قبلی از میلیون‌ها متن برداشت شده از اینترنت است. هنگامی که ربات چت با تمام این زبان طبیعی آموزش دید و هنگامی که دستورالعمل‌های کاربران از آنان خواسته می‌شود می‌تواند به جای ارائه فهرستی از پیوند‌ها پاسخی روان تولید کند.

این بدان معناست که پاسخ‌ها در اصل می‌توانند دارای متغیر‌های بسیار بیش تری باشند. آیا می‌خواهید به یک سفر یک روزه به جایی خارج از مسیر معمولی بروید که ارزان، مناسب برای کودکان و آموزشی باشد؟ امروز برای یافتن یک پاسخ دقیق در گوگل (یا بینگ یا بایدو) نیاز به مقایسه ده‌ها وب سایت و چندین تُن متن دارید مگر آن که یک پست وبلاگ مختص سفر را پیدا کنید. در مقابل، Chat GPT فهرستی از گزینه‌های مناسب را در چند لحظه ارائه می‌کند. سپس کاربران می‌توانند ملاحظات اضافی را اضافه کنند یا با درخواست‌های بعدی اطلاعات بیش تری را درخواست کنند.

تغییر نحوه جستجوی افراد به نوبه خود آن چه را که جستجو می‌کنند تغییر می‌دهد. علاوه بر جستجوی اطلاعات موجود کاربران می‌توانند از جستجوی مکالمه برای تولید محتوای اصلی استفاده کنند. Chat GPT شعر و مقاله در صورت تمایل به سبک نویسنده مورد علاقه تان می‌نویسد. در تاریخ ۲۶ ژانویه گوگل مقاله‌ای را منتشر کرد که در آن Music LM یک مدل زبان بزرگ جدید که می‌تواند از متن موسیقی بسازد توصیف کرد. Git Hub یک پلتفرم متعلق به مایکروسافت که میزبان برنامه‌های منبع باز است یک ربات چت به نام Copilot دارد که می‌تواند خطوط کد را ایجاد کند. به نظر می‌رسد شاهد ایجاد بازار‌های کاملا جدیدی پیرامون حوزه جستجو هستیم.

 

  • کمی مکالمه بیش‌تر

جستجوی محاوره‌ای به عنوان یک حوزه جدید تازه واردان امیدوار را جذب می‌کند که با چشم انداز بازار در حال گسترش برای جستجو و محتوای تولیدی تقویت شده است. "ریچارد سوچر" بنیانگذار You.com استارتاپی که یک چت ربات جستجوی مبتنی بر هوش مصنوعی ارائه می‌کند می‌گوید: "زمانی که دو سال پیش آغاز به کار کردم مردم می‌گفتند دیوانه هستم.اکنون این احساسات به شدت تغییر کرده است".

Neeva یک ربات چت را به جستجوی اشتراک خود اضافه کرده است. بنیانگذار آن امیدوار است که این قابلیت به Neeva کمک کند تا از تقریبا ۲ میلیون مشترک امروز به ۵ میلیون تا ۱۰ میلیون مشترک برسد و از نظر مالی خودکفا شود. شرکت‌های مسافرتی از جمله Booking.com نیز با چت بات‌ها بازی می‌کنند.

جدی‌ترین تهدید برای گوگل از جانب مایکروسافت است که در حال حاضر زیرساخت‌هایی از جمله توان محاسباتی، سیستم‌های ذخیره‌سازی و ارتش برنامه‌های خزنده وب را در اختیار دارد که دائما اصطلاحا اطلاعات را از اینترنت می‌خراشند. بر اساس برآوردی صورت گرفته این رقابت با گوگل هزینه‌ای بین ۱۰ تا ۳۰ میلیارد دلار به همراه داشته است.

در حال حاضر سهم بینگ از بازار تبلیغات جستجوی آمریکا تقریبا ۵ درصد است. مایکروسافت امیدوار است که ترفند‌های جدیدش این وضعیت را تغییر دهد. به نظر می‌رسد این شرکت برخی از کاستی‌های Chat GPT را برطرف کرده است. یکی از آن موارد به روز نگهداشتن ربات بوده است. هوش مصنوعی زیربنایی Chat GPT، به نام GPT-۳.۵ از سال ۲۰۲۱ میلادی بر روی داده‌ها آموزش دیده است و پس از آن هیچ تصوری از اینترنت ندارد.

برای مثال، اگر از آن در مورد اخبار تازه یا پیش بینی هوای امروز سوال بپرسید از شما عذرخواهی خواهد کرد. در مقابل، هوش مصنوعی بینگ تصمیم می‌گیرد که چگونه مرتبط‌ترین اطلاعات را جمع آوری کند و سپس از ابزار‌های جستجو برای یافتن آن استفاده می‌کند. سپس داده‌ها به مدل بازگردانده می‌شوند که از آن برای ایجاد یک پاسخ روان استفاده می‌کند. شرکت‌های دیگر از جمله Neeva نیز از این روش استفاده می‌کنند.

این موضوع به مایکروسافت کمک کرده تا با یک مشکل بزرگ‌تر مقابله کند: تمایل مدل‌های زبان بزرگ به ساختن مطالب. چت بات‌ها هیچ احساسی از درست یا نادرست بودن ندارند. چت بات بازتاب دهنده آن چیزی هستند که در اینترنت وجود دارد.

در نتیجه، زمانی که قرار است به پرسش‌های جدی پاسخ‌های واقعی داده شود چت بات‌ها یک نقص مهلک هستند. سال گذشته متا مجبور شد Galactica ربات چت علمی خود را حذف کند، زیرا مشخص شد که این بات مهملات به ظاهر علمی را منتشر کرده است. ارائه مدل دسترسی به داده‌های به روز نرخ توهمات را برای ویژگی چت بینگ کاهش داده اگرچه هنوز حذف نشده است. انتظار می‌رود که چت ربات‌ها ظرف یک یا دو سال کاملا هوشیار شوند.

حل مشکلات فناوری تنها اولین گام برای حذف گوگل از حوزه جستجو است. مایکروسافت انتظار دارد که به ازای هر درصد از سهم بازار که در جستجو به دست می‌آورد درآمد تبلیغاتی سالانه اش ۲ میلیارد دلار افزایش یابد. این کار ممکن است، اما تضمین شده نیست. آلفابت نقاط قوت فوق العاده‌ای را حفظ کرده است. یکی از آن نقطه قوت فناوری است. اگرچه گوگل هنوز هوش مصنوعی مولد را در موتور جستجوی خود ادغام نکرده، اما سال هاست که هوش مصنوعی دیگری را در تجارت جستجوی خود به کار گرفته است.

مزیت دیگر گوگل مسئولیت پذیری است. به گفته یک شرکت تحقیقاتی Stat Counter این موتور جستجوی پیش فرض در کروم مرورگر آلفابت است که از هر سه کاربر دو کاربر در اینترنت از آن استفاده می‌کنند. همچنین در بیش از ۹۵ درصد از گوشی‌های تلفن‌های هوشمند در آمریکا جستجو می‌شود. این شرکت سالانه ۱۵ میلیارد دلار یا مبلغی بیش‌تر به اپل پرداخت می‌کند تا جستجوی خود را به صورت پیش فرض در دستگاه‌های اپل داشته باشد دستگاه‌هایی که ۱۹ درصد از مرورگر‌های نصب شده روی دسکتاپ و دستگاه‌ها را شامل می‌شوند.

با این وجود، در جایگاه قدرت قرار داشتن نقاط ضعیف را نیز به همراه دارد. برای آلفابت دشوار است که به سرعت حرکت کند. حتی ممکن است برای آن شرکت دشوارتر باشد که فناوری و مدل کسب و کاری که به مدت ۲۰ سال به طور مداوم برایش سود به همراه داشته را کنار بگذارد.

منبع: فرارو

اولین دوره همایش «روز هوش مصنوعی» با حمایت مرکز تحقیق‌وتوسعه همراه اول آغاز به کار کرد.

به گزارش اداره کل ارتباطات شرکت ارتباطات سیار ایران، نخستین دوره همایش «روز هوش مصنوعی» توسط دانشگاه خواجه نصیرالدین طوسی و با حمایت مرکز تحقیق‌وتوسعه همراه اول در حال برگزاری است.

این رویداد به شکلی برنامه ریزی شده است که افراد و سازمان های دولتی تصمیم گیر و تصمیم ساز در حوزه هوش مصنوعی و همچنین شرکت های پیشرو در زمینه فناوری اطلاعات به همراه افراد دانشگاهی بتوانند تعاملات و همکاری های بیشتری با یکدیگر برقرار کنند و زمینه هم افزایی آنها فراهم شود.

در این رویداد علاوه بر سخنرانی‌ها و پنل‌های تخصصی، کارگاه‌های آموزشی و نمایشگاه فناورانه با مشارکت شرکت‌های پیشرو در هوش مصنوعی برنامه‌ریزی شده است.

شناسایی و ارائه توانمندی‌های دانشگاه در حوزه هوش مصنوعی، گردهم آوری ذی‌نفعان دولتی، خصوصی، دانشگاهی و صنعتی در حوزه هوش مصنوعی و احصاء نیازمندی‌های موجود در جامعه و ارائه راهکارهایی برای پاسخ به این نیازمندی‌ها از مهم ترین اهداف برگزاری این رویداد عنوان شده است.

در این رویداد از افراد باتجربه و تاثیرگذار در حوزه هوش مصنوعی در ایران و جهان دعوت شده است. مهمانان این رویداد از صنعت و دانشگاه انتخاب شده‌اند و در بیش از هفت سخنرانی کلیدی حضور خواهند داشت و در خصوص فرصت‌ها و چالش‌هایی که هوش مصنوعی در ایران و جهان ایجاد کرده است، سخنرانی می کنند. در این بخش از ساعت 17و 30 دقیقه فردا (چهار‌شنبه 19 بهمن 1401) محمدعلی اخایی معاون راهکارهای دیجیتال و هوشمندسازی مرکز تحقیق و توسعه همراه اول ارئه ای با موضوع «دستاوردهای جاری مرکز تحقیق و توسعه در حوزه هوش مصنوعی و نیازمندی‌های آینده این مرکز» خواهند داشت.

همچنین در این رویداد چند پنل تخصصی با تمرکز بر محورهای اصلی رویداد در دو روز برنامه‌ریزی شده است. همراه اول نیز امروز از ساعت 17 و 30 دقیقه پنل تخصصی «چت بات فارسی» را برگزار می کند.

علاقمندان می‌توانند علاوه بر مراجعه به سایت این رویداد به نشانی https://ai-day.kntu.ac.ir/ از طریق لینک شرکت در این پنل  https://www.skyroom.online/ch/ee_kntu/ai-day از  پنل تخصصی و سخنرانی مذکور بهره‌مند شوند.

یکی از اساتید دانشگاه «پرینستون» گفت که صنایع نباید نگران پیشرفت «ChatGPT» باشند زیرا این ربات فقط یک مولد بیهوده است و نمی‌تواند جایگزین آنها شود.
به گزارش ایسنا و به نقل از بیزینس اینسایدر، یک استاد «دانشگاه پرینستون»(Princeton University) که در مورد تاثیر هوش مصنوعی تحقیق می‌کند، معتقد است که ربات محبوب «ChatGPT» شرکت «اوپن‌ای‌آی»(OpenAI) نمی‌تواند یک ناقوس مرگ برای صنایع باشد.

«آرویند نارایانان»(Arvind Narayanan) گفت: اگرچه چنین فناوری‌هایی اکنون بیش از همیشه در دسترس هستند و می‌توانند اطلاعات حجیم را بلافاصله ارائه دهند و حتی آثار خلاقانه را تولید کنند اما برای دستیابی به اطلاعات دقیق نمی‌توان به آنها اعتماد کرد.

وی افزود: این ربات تلاش می‌کند تا متقاعدکننده باشد و هیچ راهی برای اطمینان یافتن از صحت یا عدم صحت اظهاراتی که بیان می‌کند ندارد.

کارشناسانی که هوش مصنوعی را مطالعه می‌کنند، می‌گویند محصولاتی مانند ChatGPT که بخشی از فناوری‌های «مدل زبانی بزرگ»(LLM) هستند و می‌توانند به دستورات انسان پاسخ دهند و خروجی خلاقانه تولید کنند، به ‌جای ترکیب کردن ایده‌ها مانند مغز انسان، صرفا با پیش‌بینی در مورد آنچه باید گفت کار می‌کنند. نارایانان گفت: این باعث می‌شود ChatGPT بیشتر به یک مولد بیهوده تبدیل شود که پاسخ خود را بدون دقت ارائه می‌دهد.

نشانه‌های اولیه‌ای وجود دارند که نشان می‌دهند چگونه شرکت‌ها از این نوع فناوری استفاده می‌کنند. به عنوان مثال، گزارش وال استریت ژورنال نشان می‌دهد شرکت «بازفید»(Buzzfeed) که در ماه دسامبر ۱۲ درصد از نیروی کار خود را اخراج کرد، قصد دارد از فناوری اوپن‌ای‌آی برای کمک به ساخت آزمون‌ها استفاده کند. واشنگتن پست گزارش داد که سایت بررسی فناوری «سی‌نت»(CNET)، داستان‌های تولیدشده توسط هوش مصنوعی را منتشر کرد اما بعدا مجبور شد آنها را اصلاح کند.

نارایانان، مورد سی‌نت را به عنوان نمونه‌ای از مشکلات این نوع فناوری ذکر کرد و گفت: وقتی مشکلات پیش‌آمده را با این واقعیت ترکیب کنید که ربات درک خوبی از حقیقت ندارد، به یک فاجعه پی می‌برید.

وی افزود: نتیجه محتمل‌تر فناوری‌های مدل زبانی بزرگ، تغییر صنایع در پاسخ به استفاده از آن خواهد بود؛ نه این که به طور کامل جایگزین شوند.

نارایانان ادامه داد: حتی با وجود چیزی به ژرفای اینترنت و موتورهای جستجو یا تلفن‌های همراه هوشمند، مشخص شده که این یک انطباق است که در آن ما مزایا را به حداکثر می‌رسانیم و تلاش می‌کنیم تا خطرات را به حداقل برسانیم، نه اینکه نوعی انقلاب را پدید آوریم. من فکر نمی‌کنم که مدل‌های زبانی بزرگ حتی در آن مقیاس باشند. ممکن است تغییرات، مزایا و خطرات گسترده‌ای در بسیاری از صنایع وجود داشته باشد اما من نمی‌توانم تصور کنم که در این شرایط، موضوع سقوط صنایع مطرح باشد.

اینستاگرام از ChatGPT شکست خورد

يكشنبه, ۹ بهمن ۱۴۰۱، ۰۴:۵۶ ب.ظ | ۰ نظر

یکی از ویژگی‌های کلیدی ChatGPT توانایی آن در ایجاد پاسخ‌های متنی انسان‌مانند به درخواست‌ها است. این باعث می‌شود که برای طیف گسترده‌ای از برنامه‌ها مانند ایجاد ربات‌های چت برای ارائه خدمات به مشتری، ایجاد پاسخ به سؤالات در انجمن‌های آنلاین یا حتی ایجاد محتوای شخصی‌سازی‌شده برای پست‌های رسانه‌های اجتماعی مفید باشد.
ربات هوش مصنوعی مشهور ChatGPT که این روز‌ها به شدت بر سر زبان‌ها افتاده است، با عبور از ۱۰ میلیون کاربر روزانه آن هم فقط طی ۴۰ روز از اپلیکیشن معروف اینستاگرام پیشی گرفت.

به گزارش ایسنا و به نقل از آی‌ای، ربات نویسنده و گفتگوگر ChatGPT با ۱۰ میلیون کاربر روزانه در مدت تنها ۴۰ روز از برنامه اینستاگرام پیشی گرفته است.

ChatGPT یک مدل زبانی هوش مصنوعی قدرتمند است که توسط شرکت OpenAI توسعه یافته و تنها ظرف ۴۰ روز از ۱۰ میلیون کاربر روزانه فراتر رفته که نشان دهنده پیش گرفتن از رشد اولیه سریع برنامه محبوب اینستاگرام است.

ربات ChatGPT یک ربات مخصوص گفتگو یا چت است که بر روی خانواده مدل‌های زبان بزرگ ساخته شده و با تکنیک‌های یادگیری نظارت شده و تقویتی به خوبی تنظیم شده است.

این ربات در دسامبر ۲۰۲۲ با نظرات مثبتی مواجه شد و به عنوان مثال نیویورک تایمز آن را «بهترین ربات چت هوش مصنوعی که تا به حال برای عموم معرفی شده» نامید و گاردین نیز گفته است که می‌تواند متنی با جزئیات چشمگیر و مانند انسان تولید کند.

ChatGPT آخرین مورد از یک مجموعه هوش مصنوعی است که شرکت سازنده از آن به عنوان GPTs یاد می‌کند و مخفف عبارت «مبدل از پیش آموزش دیده مولد» (Generative Pre-Trained Transformer) است.

یکی از ویژگی‌های کلیدی ChatGPT توانایی آن در ایجاد پاسخ‌های متنی انسان‌مانند به درخواست‌ها است. این باعث می‌شود که برای طیف گسترده‌ای از برنامه‌ها مانند ایجاد ربات‌های چت برای ارائه خدمات به مشتری، ایجاد پاسخ به سؤالات در انجمن‌های آنلاین یا حتی ایجاد محتوای شخصی‌سازی‌شده برای پست‌های رسانه‌های اجتماعی مفید باشد.

این ربات می‌تواند برای کار‌های پردازش زبان طبیعی مانند تولید متن و ترجمه زبان استفاده شود و با مدل GPT-۳.۵ آموزش دیده است که یکی از بزرگترین و پیشرفته‌ترین مدل‌های زبانی موجود در حال حاضر است.

به گفته یک کارشناس، وقتی در نظر بگیرید که این پلتفرم احتمالاً حداقل ۲۰ میلیون کاربر ماهانه را نشان می‌دهد، این دستاورد حتی چشمگیرتر می‌شود.

برت وینتون (Brett Winton) آینده‌شناس موسسه ARK Venture Investment در توییتی نوشت: ChatGPT به بیش از ۱۰ میلیون کاربر روزانه در ۴۰ روز دست یافته است. این در حالی است که برای اینستاگرام ۳۵۵ روز طول کشید تا به ۱۰ میلیون کاربر ثبت شده برسد.

 

  • آیا رشد کاربران ChatGPT متوقف می‌شود؟

پایگاه کاربران ChatGPT برخلاف اینکه بحث برانگیز است، احتمالاً در آینده رشد خواهد کرد. در عین حال، واکنش کاربران به نمودار رشد ChatGPT که توسط وینتون ترسیم شده این بود: این دیوانه‌وار است.

طبق گفته کارشناسان فناوری، کاربرد‌های بالقوه مدل‌های مبتنی بر هوش مصنوعی تقریباً نامحدود است و با آگاهی بیشتر پژوهشگران و توسعه‌دهندگان از آن، محبوبیت آن‌ها افزایش خواهد یافت.

البته یکی از کاربران در پاسخ به رشته توییت وینتون اظهار داشت که سرعت رشد ChatGPT متوقف می‌شود، در حالی که اینستاگرام سریع‌تر رشد می‌کند.

موفقیت این چَت‌بات را می‌توان به توانایی آن در درک و تولید محتوا به زبانی شبیه به انسان با درک و پاسخ به مجموعه متنوعی از ورودی‌های زبان طبیعی که بر روی مجموعه داده‌های متنی عظیم آموزش داده شده‌اند، نسبت داد.

این موضوع، ChatGPT را به ابزاری ارزشمند برای طیف گسترده‌ای از کاربرد‌ها مانند پردازش زبان طبیعی، یادگیری ماشینی و تجزیه و تحلیل داده‌ها تبدیل کرده است، بنابراین خواب را از سر بسیاری از غول‌های فناوری پرانده است.

 

  • ChatGPT در مقابل گوگل

بر اساس گزارش‌های برخی رسانه‌ها در هفته گذشته، مدیریت گوگل ظاهراً در واکنش به افزایش محبوبیت هوش مصنوعی ChatGPT، یک هشدار قرمز اعلام کرده است.

زمانی که وینتون از chatGPT لیستی از محصولاتی را خواست که مردم فکر می‌کردند به دلیل پذیرش و استقبال اولیه کاربران دوام خواهند آورد، اما در نهایت محو می‌شوند، سه پاسخ اول آن عبارت بودند از Google wave، گوگل پلاس و Google glass.

پایگاه خبری آی‌ای (Interesting Engineering) نیز از ChatGPT خواست تا واکنش خود را نسبت به تعداد کاربران خود و پیشی گرفتن از رشد اولیه اینستاگرام نشان دهد و این ربات پاسخ داد: این خبر که ChatGPT تنها در ۴۰ روز به ۱۰ میلیون کاربر روزانه رسیده است، چشمگیر است و محبوبیت و کاربرد روزافزون این مدل را در طیف گسترده‌ای از برنامه‌ها برجسته می‌کند.

گفتنی است که شرکت گوگل قبلاً شانس خود را در چت‌بات‌ها امتحان کرده است، اما هنوز به نتایج مطلوبی دست نیافته است.

اگرچه گوگل و ChatGPT هر دو دارای مدل‌های زبانی قدرتمندی هستند که توسط شرکت‌های فناوری ایجاد شده‌اند، اما موارد کاربردی و روش‌شناسی آن‌ها متفاوت است.

در حالی که ChatGPT بر تولید زبان طبیعی متمرکز است، گوگل از مدل زبان خود مانند BERT، بیشتر برای تفسیر و جستجوی زبان طبیعی استفاده می‌کند.

هر دو مدل، مزایا و محدودیت‌های خاص خود را دارند و اغلب با فناوری‌های دیگر ترکیب می‌شوند تا به نتیجه دلخواه دست یابند.

در عین حال گفته می‌شود که شرکت OpenAI یک نسخه آزمایشی و برتر از ربات هوش مصنوعی محبوب خود را به نام «ChatGPT Professional» عرضه می‌کند که برای عضویت ماهانه آن باید ۴۲ دلار پرداخت. این نسخه پریمیوم شامل ویژگی‌های اضافی مانند دسترسی بیشتر، زمان پاسخ‌دهی سریع‌تر و دسترسی اولویت‌دار خواهد بود.

هوش مصنوعی چه کسانی را بیکار می‌کند؟

شنبه, ۸ بهمن ۱۴۰۱، ۰۵:۳۹ ب.ظ | ۰ نظر

در ChatGPTمی‌بینیم که هوش مصنوعی وارد حوزه ‌هایی مثل خلاقیت شده که تا قبل از این، عجیب به نظر می‌رسید و کسی که در شغلش، خلاقیت نقشی اساسی را ایفا می‌کند، شاید کمتر حس می‌کرد که شغلش در خطر باشد. ولی حالا هوش مصنوعی به جایی رسیده که می‌تواند حتی جایگزین او هم بشود.

غزال زیاری- خبرآنلاین - این روزها استفاده از هوش مصنوعی در دنیا بیش از پیش افزایش یافته و با معرفی محصولاتی مثل ChatGPT که در حقیقت ربات چت هوشمندی است که می‌تواند به سوالات افراد در هر زمینه‌ای پاسخ دهد، دغدغه‌های زیادی نیز مطرح شده که آیا در آینده نزدیک، این ربات‌ها، جایگزین انسان‌ها در مشاغل مختلف خواهند شد یا خیر.

از مشاغلی مثل تولید محتوا، خبرنگاری، برنامه‌نویسی، آموزش و مترجمی گرفته تا حتی مشاغلی مثل پزشکی و روان‌شناسی و هر شغل دیگری که به ذهن‌تان برسد، ممکن است با این انقلاب روبرو شوند. اما آیا واقعا روزی خواهد رسید که ChatGPT یا هر ابزار هوش‌مصنوعی دیگری جای یک کارمند یا یک پزشک را پر کند؟

برای یافتن پاسخ دقیق این سوالات، نظرات حمیدرضا کشاورز، پژوهشگر هوش‌مصنوعی و استاد مدعو دانشگاه تهران و دانشگاه علوم پزشکی تهران را جویا شدیم که در ادامه گزیده‌ای از این صحبت‌ها را مطالعه می‌کنید.

ChatGPT چیست و چه جذابیت‌هایی دارد؟

Chat GPT جدیدترین محصول هوش مصنوعی است که مخصوصا به این خاطر که کارکردهایی مشابه با چت دارد، سروصدای زیادی هم در دنیا به پا کرده.

با استفاده از ChatGPT در واقع، گویی در حال چت و گفتگو با یک انسان هستیم و سوالات‌مان را از یک انسان می‌پرسیم.

اما این ابزار به چه دلیل این‌قدر مهم شده است؟

۱- یکی از جذابیت‌های این ابزار، این است که گفتگو با یک کامپیوتر، حس جالبی را به انسان منتقل می‌کند؛ به‌ویژه که در هنگام چت کردن، ChatGPT این قابلیت را دارد که با به یاد داشتن گفتگوهای قبلی، آن را ادامه داده و تاریخچه گفتگوهایمان را به خاطر دارد؛ در عین حال، دقیقا متوجه سوالاتی که می‌پرسیم، می‌شود و پاسخ سوالات را درست و دقیق خواهد داد.

۲-ChatGPT این قابلیت را دارد که در همه زمینه‌ها پاسخگو باشد. از تولید محتوا و پژوهش گرفته تا کد نویسی و ویرایش زبان و دیگر زمینه‌ها.

ما می‌توانیم سوالی تاریخی بپرسیم و یا حتی سوالاتی مطرح کنیم که پاسخش در اینترنت نیست و خود ChatGPT با تحلیل، به آن جواب‌ها رسیده و تحلیلش گاهی حیرت‌انگیز است.

۳- این ابزار، تا حدی قابلیت استدلال دارد و می‌تواند با بهره‌گیری از اطلاعات و دانشش، به پاسخی که پرسشگر از او می‌خواهد، برسد.

کشاورز در این باره گفت:«خود من از ChatGPT ایده الگوریتمی هم گرفته‌ام؛ یعنی الگوریتم و روشی را برای حل یک مسئله به من پیشنهاد کرد که در واقع قبل از آن اصلا چنین ایده‌ای وجود نداشت.»

به علاوه می‌توان از آن، سوال‌های خیلی خاصی پرسید که با جستجو در گوگل، جوابی برای آن پیدا نمی کنیم. یا حتی اگر آن پرسش را در گوگل اسکولار جستجو کنیم، می‌بینیم که حتی پژوهشی در آن رابطه انجام نشده است.

ترکیب این سه مورد با هم، خیلی جالب شده و محصول خیلی جذابی را ارائه کرده است.

شغل‌هایی که هوش مصنوعی از آدم‌ها می‌گیرد | باید نگران باشیم؟

آیا ChatGPT یک پدیده جدید است؟

اگرچه ChatGPT پیشرفت بزرگی به حساب می‌آید؛ اما در واقع یک نوآوری است که برروی پیشرفت‌های قبلی سوار شده.

ما بسیاری از اجزای آن را قبلا در اختیار داشتیم و حالا با هوش‌مصنوعی، به مراتب قوی‌تر هم شده‌اند. ما تا پیش از این، محصولات مختلفی داشتیم؛ مثلا محصولاتی که این قابلیت را داشتند که مطلبی که ما به زبان انگلیسی نوشته بودیم را ویرایش می‌کردند. یا محصولی که در یک زمینه خاص به ما مشاوره بدهد و با بهره‌گیری از هوش‌مصنوعی به کامپیوترها قدرت استدلال را تا حدی داده بودیم.

مثلا ربات‌هایی مشابه با ChatGPT در زمینه‌های خاص نیز داریم که می‌توانیم با مراجعه به وب سایت، درخواست گفتگو با کاراکتری را داشته باشیم که مثلا روانشناس باشد و پاسخگوی سوالات ما در قالب روانشناسی شود. یا حتی خواهان گفتگو با کاراکتر هری پاتر باشیم و هوش مصنوعی در قالب هری پاتر پاسخگوی ما می‌شد.

اما حالا تمام این قابلیت‌ها و توانایی‌ها در یک محصول گردآوری شده و همین ChatGPT را بسیار جذاب و زیبا کرده. یک پکیج کامل!

این محصول، یکی از قدم‌های بعدی بود که هوش مصنوعی برداشته و الان با استفاده از نوآوری های الگوریتمی، به آن رسیده‌ایم و دیر یا زود چنین محصولی تولید می‌شد.

وقتی کامپیوترها جایگزین انسان‌ها می‌شوند

از همان ابتدا، هدف از ساخت کامپیوترها، انجام کارهای اتوماسیون بود؛ یعنی اینکه به جای آنکه کارها به‌صورت دستی انجام شوند، آنها را به کامپیوتر بسپاریم.

در حال حاضر هم ما در انقلاب صنعتی چهارم هستیم که هوش مصنوعی در آن نقش بسیار پررنگی را ایفا می‌کند. وقتی انقلاب‌های صنعتی مختلفی رخ دادند و تبعات هرکدام از آنها، سال‌ها ادامه پیدا کرد، شاهد تحولات چشمگیر زیادی در بازار کار بودیم و به هرحال خیلی از مشاغل دستخوش تغییراتی شدند.

مثلا در قرن بیستم با اختراع اتومبیل، درشکه‌ها تدریجا کنار رفتند و اگرچه باعث بیکاری درشکه‌چی‌ها شد، اما مشاغل جدیدی مثل راننده و مکانیک ایجاد شدند. این روند در بخش‌های دیگر هم قابل مشاهده است و این در واقع ذات فناوری است که به هر حال شغل‌هایی که به‌صورت دستی یا انسانی انجام می‌شوند و قابلیت انجام آنها به‌صورت ماشینی وجود دارد، روزگاری به ماشین‌ها سپرده خواهند شد.

مشاغلی که از بین رفتند

در گذشته‌های نه چندان دور، مشاغلی وجود داشتند که الان به نظر ما مضحک می‌رسند؛ صدها سال پیش افرادی بودند که در ساعات ابتدایی روز، با چوب به شیشه منازل افراد می‌زدند تا آنها را برای رفتن به محل کار، بیدار کنند که با ساخت ساعت زنگدار، این افراد بیکار شدند.

اوایل ابداع ورزش بسکتبال، سبدها در واقع سبد میوه بودند و هر توپی که وارد سبد می‌شود، افرادی مجبور بودند تا با بالا رفتن از نردبان، توپ را از سبد خارج می‌کردند.

الان این شغل‌ها برای ما مضحک به نظر می‌رسد و حالا هم مشاغلی داریم که به هرحال دیر یا زود از بین خواهند رفت.

مثلا در بحث ورزش، شغل داوری فوتبال بسیار در خطر است. ما شاهد آن هستیم که در سال‌های اخیر، آفساید چقدر دقیق، با هوش مصنوعی تشخیص داده می‌شود و چقدر راحت می‌توان آنالیزهای مختلفی داشت و بعید است که تا چند سال بعد کمک داور بتواند نقش خاصی را در زمین ایفا کرده و با حضور VAR و بازبینی تصاویر بحث‌برانگیز بازی، نقش داور هم تدریجا کمرنگ و کمرنگ‌تر خواهد شده و تصمیمات اتوماتیک و در لحظه گرفته خواهد شد.

آیا ChatGPT ما را بیکار خواهد کرد؟

در شاخه‌های مختلف دیگر هم این خطر حس می‌شود و در مشاغل مختلف دور از انتظار نخواهد بود.

در ChatGPTمی‌بینیم که هوش مصنوعی وارد حوزه ‌هایی مثل خلاقیت شده که تا قبل از این، عجیب به نظر می‌رسید و کسی که در شغلش، خلاقیت نقشی اساسی را ایفا می‌کند، شاید کمتر حس می‌کرد که شغلش در خطر باشد. ولی حالا هوش مصنوعی به جایی رسیده که می‌تواند حتی جایگزین او هم بشود.

به هرحال ما بخشی از ماشینی شدن را احتمالا در بعضی از مشاغل دیده باشیم. این حالت دیریا زود اتفاق خواهد افتاد.

فرش ماشینی و دستباف

البته در بسیاری از مواقع، با اینکه خیلی از مشاغل ماشینی شدند، اما حالت انسانی‌شان هم حفظ شده. در واقع ماشین کار را با یک کیفیت خاص خودش انجام می‌دهد ولی انسان هم در کنارش باقی مانده؛ مثلا بافت فرش ماشینی و فرش دستباف را در نظر بگیرید. وقتی ماشین‌ها روی کار آمدند، کسانی که فرش را حرفه‌ای می‌بافتند و کارشان خوب بود، شغل‌شان را از دست ندادند؛ ولی فرش ماشینی باعث شد قیمت فرش پائین بیاید و روند تولیدش گسترش پیدا کرده و بهتر شود و همین تاثیر مثبتی بر بازار داشت؛ اما فرش دستباف هم جایگاهش را از دست نداد.

به واقع، افرادی که فرش را با کیفیت متوسطی می‌بافتند، کنار رفتند و ماشین جایگزین آنها شد؛ ولی کسانی که با کیفیت بالاتری تولید می‌کردند، موفق به حفظ کارشان شدند.

تولید صدا با هوش مصنوعی

در حال حاضر، هوش مصنوعی در زمینه تولید صدا عملکرد فوق‌العاده‌ای دارد و در بحث تبدیل متن به گفتار، بسیاری از محصولات مثل مرورگر مایکروسافت اج، سیستم عامل اپل، پاکت موزیلا و مدیوم دات کام این قابلیت را دارند که شما مقاله‌ای که قصد مطالعه‌اش را دارید را به هوش مصنوعی سپرده تا آن را برایتان بخواند و با صدای هوش‌مصنوعی مقاله را بشنوید. این قابلیت کمک خیلی بزرگی است ولی قطعا به‌راحتی جایگزین یک گوینده حرفه‌ای نخواهد شد.

چرا که در نهایت، یک گوینده حرفه‌ای، به‌عنوان یک انسان، تن صدا، حالت و جذابیت‌هایی خواهد داشت و با بیانی متفاوت از گوینده ماشینی است که این تفاوت‌ها برای مخاطب همچنان ملموس خواهد بود. البته که گوینده ماشینی خیلی قوی و فوق‌العاده است، ولی مورد استفاده آن برای کسانی که می‌خواهند کتاب صوتی گوش کنند و گزینه‌های متعددی داشته باشند مناسب است.

به عنوان مثال، این اصلا مقدور نیست که یک انسان، همه مقالاتی که در اینترنت نوشته شده را به عنوان گوینده بخواند ولی هوش مصنوعی این خلا را پر می‌کند.

توانایی‌های عجیب هوش مصنوعی در دنیای گرافیک

این روندی است که در سال‌های اخیر توسط هوش مصنوعی طی شده.

آنچه ChatGPT از قابلیت‌های هوش‌مصنوعی به تصویر کشیده، بسیاری از افراد را بهت‌زده کرده. در سال‌های اخیر ربات‌هایی را داشتیم که با دادن شرح عکس‌های انتزاعی در ذهنتان، تصویر را برای شما خلق می‌کنند؛ مثلا تصویری از اسپایدرمن در دوره هخامنشیان! اینها در ظاهر برای ما جذاب هستند؛ ولی در کنار اینها، هوش مصنوعی اتفاق دیگری را هم به‌عنوان ابزاری برای افراد حرفه‌ای رقم خواهد زد.

photo_2023-01-22_02-58-08.jpg

 

به این ترتیب که با معرفی فتوشاپ، دنیای گرافیک دستخوش تغییراتی شد و به ابزار مهمی برای کسانی که در حوزه هنر کار می‌کنند، تبدیل شد و تدریجا قابلیت‌های هوشمند بیشتر و بیشتری به آن اضافه شد تا کارها راحت‌تر شود.

وقتی معمولی‌ها کنار می‌روند

بدین ترتیب با ورود هوش مصنوعی و ChatGPT، کسانی که کیفیت کار متوسطی دارند، کنار رفته ولی در کنار آن، افرادی با کیفیت کار بالا، در مشاغلشان باقی خواهند ماند.

یعنی ما یک نسخه حالت پریمیوم و اعلا از کاری که توسط انسان‌ها انجام می‌شود را خواهیم داشت و یه نسخه خوب و متوسط از کار که توسط هوش مصنوعی انجام خواهد شد و در نهایت، همه اینها منجر به اتفاقات جالبی خواهد شد.

همکاری ترکیبی انسان و ChatGPT

نمونه‌های هوش‌مصنوعی مثل ChatGPT یا نمونه‌های مشابهی که در آینده از راه خواهند رسید، می‌توانند به کسانی که در زمینه‌های مختلف کار می‌کنند، کمک کرده تا کارشان را بهتر انجام دهند.

کشاورز معتقد است:« در آینده و با افزایش استفاده از ChatGPT یا نمونه‌های مشابه، فعالیت کاری انسان‌ها و این ابزارها، به نحوی فعالیتی ترکیبی خواهد شد. مثلا نویسنده‌ای که قصد نوشتن داستانی را دارد، می‌تواند از هوش مصنوعی ایده و الگو بگیرد یا یک برنامه‌نویس، می‌تواند برای نوشتن الگوریتم مدنظرش با هوش مصنوعی مشورت کند. این حالتی هست که وقوعش خیلی محتمل خواهد بود.»

او ادامه داد:« تصور کنید که فردی به نزد روانشناسی رفته که مشکل عجیب و حالت‌های خاصی دارد و برای روانشناس درک راهکارهای این مشکل، کمی سخت و پیچیده است. در اینجا دکتر روانشناس برای حل مشکل، می‌تواند از مشاوره ChatGPT یا ربات‌های مشابه استفاده کند. پس می‌توان گفت که هوش مصنوعی و چنین ابزارهایی، به نحوی کیفیت کار انسان‌ها را هم بالا خواهند برد و این اتفاقی است که در سال‌های اخیر، به نحو دیگری شاهدش بوده‌ایم.»

طبیعتا با ظهور هوش مصنوعی که خیلی از شغل‌ها را با کیفیت خیلی بالاتر و بهتر انجام می‌دهد، بسیاری از شغل‌ها جایگزین خواهند شد؛ ولی در کنار آن هم خیلی شغل‌های جدیدتری ایجاد خواهد شد.

تعریف بسیاری از شغل‌های خلاقانه هم عوض خواهد شد و این مشاغل عملا ترکیبی خواهند شد از استفاده از هوش مصنوعی و خلاقیت خود فرد ... و اینکه فرد چطور بتواند از هوش مصنوعی ایده بگیرد.

سریال House of Cards محصول مشترک انسان و هوش مصنوعی!

شاید جالب باشد بدانید که همین حالا هم سناریست‌ها و فیلمنامه‌نویس‌ها از هوش‌مصنوعی استفاده‌های زیادی می‌کنند.

در برخی از سریال‌هایی که تماشا می‌کنیم، شرکت‌های تهیه‌کننده در خلق آنها از هوش مصنوعی بهره برده و با کمک هوش مصنوعی، تشخیص می‌دهند که اگر چنین سریالی با این مشخصات بسازند، سریال موفقی خواهد بود. حتی با هوش مصنوعی تشخیص می‌دهند که بازیگر نقش اول این سریال باید کوین اسپیسی باشد و به همین‌ترتیب سریال House of Cards ساخته می‌شود که در واقع هوش مصنوعی در ساختش نقش خیلی پررنگی داشته و ترکیبی از نبوغ انسان و هوش مصنوعی بوده و دیدیم که چه عملکرد موفقی هم داشت.

این اتفاق، موضوعی است که در آینده بیش از این شاهدش خواهیم بود و این هوش مصنوعی و دیتایی که نت‌فلیکس مدل‌هایش را ساخته، در اختیار همه قرار خواهد گرفت و همه قادر به کار کردن با آن خواهند بود و در نتیجه شاهد این خواهیم بود که کیفیت کارهای خلاقانه بالاتر خواهد رفت.

و شغل‌های جدیدی که باید منتظرشان باشیم!

اتفاقی که در آینده دور یا نزدیک رخ خواهد داد این است که شغل‌های جدیدی برای انسان‌ها ایجاد خواهد شد. شغل‌هایی که شاید همین یکی دو سال قبل برای ما خیلی عجیب به نظر می‌رسیدند.

کشاورز در این باره توضیح داد:« در حال‌حاضر شغلی به نام prompt engineer به لیست مشاغل دنیا اضافه شده که این فرد باید بلد باشد و بداند که چطور سوالات را از هوش‌مصنوعی بپرسد و چطور گفتگو را با هوش مصنوعی جلو ببرد و مثلا چطور متن را به هوش مصنوعی بدهد که تصویر مدنظر را از او بگیرد. در آینده شاهد شغل‌های این چنینی بیشتری خواهیم بود و تحول خیلی بزرگی در این زمینه خواهیم داشت.»

او ادامه داد:« برخی شغل‌های جدید حتی شاید برای ما ناملموس باشند؛ مثلا شغل روان‌شناسی ربات‌ها. یعنی هوش مصنوعی در آینده خودش مورد روان‌شناسی قرار خواهد گرفت. اینها شاید به نظر خنده‌دار بیایند؛ ولی دنیای آینده در این حد برای ما عجیب خواهد بود.»

اما راهکار ما برای بیکار نشدن چیست؟

کشاورز درباره راهکارهایی که افراد در قبال آینده عجیب و غریبی که با ظهور هوش مصنوعی پیش رو باید درنظر بگیرند، گفت:« به نظر من قاعدتا افرادی که در حوزه‌های خلاقانه کار می‌کنند، باید کار با این ابزارهای جدید را یاد بگیرند.»

او ادامه داد:« این ابزارها درآینده بسیار تاثیرگذارتر خواهند شد؛ مثلا همین ChatGPT، در حال حاضر ابزاری است که به‌صورت عام فعالیت می‌کند و همه رشته‌ها را در بر می‌گیرد ولی در آینده، چت‌های تخصصی خواهیم داشت که در زمینه‌های مشخصی کار خواهند کرد. پس برای افراد بسیار مهم خواهد بود تا یاد بگیرند که چطور با این ابزارها کار کنند و چطور این ابزارها را برای کار خودشان دراختیار داشته باشند.»

کشاورز در مورد آینده شغلی کودکان و نوجوانان هم توصیه‌ای داشت:« مسئله مهم دیگری که متاسفانه در جامعه ایران پررنگ هم هست، این موضوع است که والدین فرزندانشان را به سمت مشاغلی که خودشان دوست دارند یا به نظرشان مشاغل پردرآمدی هستند، سوق می‌دهند. مثلا به بچه ده ساله توصیه می‌کنند که حتما در آینده در این شغل که درآمد بالایی دارد، مشغول به کار شو و می‌کوشند تا شغل مدنظرشان را برای فرزندشان جا بیندازند. اما نکته مهم اینجاست که آینده بازار شغلی دنیا، خیلی متفاوت از چیزی خواهد بود که ما تصور می‌کنیم و دیگر مثل سابق نیست که شغل‌های دویست سال پیش و آبا و اجدادی، نسل به نسل منتقل شده و به نسل‌های بعدی برسند و واقعا شاید خیلی از شغل‌هایی که امروزه وجود دارند، پنج یا ده سال آینده حتی وجود نداشته باشند.»

او در بخش پایانی صحبت‌هایش گفت:«همه اینا باعث می‌شوند که اگر ما بخواهیم به این موضوع بیندیشیم، شاید بهتر باشد که فرزندان را به سمت یادگیری مسائل جدید سوق دهیم تا مرتبا در حال یادگیری باشند و خود یادگیری را آموخته و به فرآیند "از یادسپاری" مسلط شوند؛ یعنی اینکه بتوانند مهارت یاد گرفته را فراموش کرده و در زمان مناسب، مهارت جدیدی را یاد بگیرند. »

وحشت گوگل از ChatGPT

يكشنبه, ۲ بهمن ۱۴۰۱، ۰۶:۴۵ ب.ظ | ۰ نظر

برخی می گویند که چت بات ChatGPT که نسل چهارم خود را معرفی کرده ممکن است بتواند موتور جستجوی گوگل را شکست دهد؛ ظاهرا گوگل از این موضوع ترسیده و به دنبال ارتقای سیستم خود است.
به گزارش فارس به نقل از انگجت، شرکت  گوگل همزمان با اخراج 12هزار کارمند خود میزان به کار گیری هوش مصنوعی را دو برابر می کند.

به نظر می رسد گوگل خطر هوش مصنوعی معرفی شده توسط شرکت OpenAI را احساس می کند. چت بات مبتنی بر هوش مصنوعی طی چند ماه گذشته طوفانی را در دنیای فناوری به پا کرده است؛ زیرا می تواند اطلاعاتی را که  کاربران به دنبال آن هستند در قالبی قابل فهم در اختیارشان قرار دهد.

به گزارش نیویورک تایمز، گوگل ChatGPT را تهدیدی برای موتور جستجوی خود می بیند و برنامه های خود را در چند هفته گذشته تغییر داده است.

این گزارش ادعا می‌کند که ساندار پیچای مدیرعامل این شرکت اعلام وضعیت قرمز کرده و توسعه هوش مصنوعی را پر اهمیت خوانده است. گویا گوگل در حال آماده شدن برای نمایش حداقل 20 محصول مبتنی بر هوش مصنوعی و یک چت بات برای موتور جستجوی خود در سال جاری است که حداقل برخی از آنها در کنفرانس I/O اردیبهشت ماه معرفی خواهند شد.

تایمز گزارش داد که از جمله پروژه های هوش مصنوعی که گوگل روی آن کار می کند، ابزار تولید تصویر، نسخه ارتقا یافته «AI Test Kitchen» حالت صفحه سبز به سبک TikTok برای یوتیوب و ابزاری که می تواند ویدیوها را برای خلاصه کردن کلیپ های دیگر تولید کند. AI Test Kitchen اپلیکیشنی است که افراد می توانند در مورد فناوری هوش مصنوعی در حال ظهور اطلاعات کسب کرده و بازخورد بدهند.

 همچنین قابلیتی با عنوان«Shopping Try-on»(شاید شبیه به برنامه ای که آمازون در حال توسعه آن است) در راه است: ایجاد کننده والپیپر برای تلفن های پیکسل و ابزارهای مبتنی بر هوش مصنوعی که می تواند ساخت برنامه های اندروید را برای توسعه دهندگان آسان تر کند.

پیچای در ماه گذشته لری پیج و سرگئی برین بنیانگذاران گوگل را برای دیدار با رهبران فعلی، بررسی برنامه‌های هوش مصنوعی و ارائه نظرات فراخواند. این دو از سال 2019 ارتباط روزانه زیادی با این شرکت نداشته اند؛ زیرا آنها روی پروژه های دیگر تمرکز کرده اند.

ادعا شده که گوگل تلاش کرده فرآیندهای تایید محصول را سرعت بخشد تا در جهت اطمینان از اینکه فناوری مبتنی بر هوش مصنوعی منصفانه و اخلاقی است پیش برود. علاوه بر این، گفته می‌شود که این شرکت در حال تعدیل سطوح ریسکی است؛ اولویت‌های چت بات جستجو ظاهراً شامل ایمنی، دقت و مسدود کردن اطلاعات نادرست است.  این شرکت سعی خواهد کرد مسائل مربوط به نفرت، خطر و اطلاعات نادرست را به جای جلوگیری از آنها مهار کند. اخیراً، گوگل در مورد رونمایی از محصولات جدید کمی احتیاط کرده است.

طبق گزارش‌ها، حق نسخه‌برداری، حریم خصوصی و ضد انحصاری بودن را به عنوان خطرات اصلی فناوری هوش مصنوعی ذکر کرده و راه حل هایی برای جلوگیری از مطالب دارای حق چاپ و جلوگیری از اشتراک گذاری اطلاعات شناسایی شخصی مورد نیاز است.

در چند سال گذشته، واکنش‌های زیادی علیه مدیریت گوگل در مورد هوش مصنوعی وجود داشته است. تیمنیت گبرو و مارگارت میچل، دو محقق برجسته اصول اخلاقی هوش مصنوعی که گوگل آنها را اخراج کرد؛ به سانسور تحقیقاتی که مدل‌های یادگیری زبان هوش مصنوعی را مورد انتقاد قرار می‌دهند، از جمله نگرانی‌هایی مبنی بر کدگذاری سوگیری‌های موجود در داده‌های آموزشی، متهم بودند. محققان در مقاله‌ای نوشتند که هوش مصنوعی می‌تواند منجر به مدل‌هایی شود که روابط کلیشه‌ای و تحقیرآمیز را در امتداد جنسیت، نژاد، قومیت و وضعیت ناتوانی رمزگذاری می‌کنند. دو محقق برجسته اخلاقی دیگر اوایل سال گذشته، پس از جدایی گبرو و میچل، گوگل را ترک کردند.

درک اینکه چرا گفته می شود گوگل از  ChatGPT وحشت کرده، دشوار نیست. اوایل این ماه، گزارش‌ها حاکی از آن بود که مایکروسافت (یک سرمایه‌گذار OpenAI) قصد دارد برخی از فناوری‌های قدرتمند ChatGPT را در Bing بگنجاند. این شرکت این هفته گفت که به زودی ChatGPT را در سرویس OpenAI Azure ادغام خواهد کرد.

آخرین گزارش در مورد پاسخ گوگل به ChatGPT درست پس از آن منتشر شد که این شرکت اعلام کرد 12هزار نفر را اخراج می کند. مدیر عامل شرکت افزود که این شرکت در حال آماده شدن برای رونمایی از برخی از تجربیات کاملاً جدید برای کاربران، توسعه دهندگان و کسب و کارها است. وی افزود ما با هوش مصنوعی در محصولات خود فرصت قابل توجهی در پیش داریم و آماده هستیم تا با شجاعت و مسئولانه به آن نزدیک شویم.

هوش مصنوعی خبرنگار فناوری شد!

يكشنبه, ۲ بهمن ۱۴۰۱، ۰۶:۰۵ ب.ظ | ۰ نظر


یک نشریه حوزه فناوری با استفاده از هوش مصنوعی ۷۳ پست تولید و منتشر کرده است.
به گزارش مهر به نقل از انگجت، با توجه به تکامل بسیار سریع چت بات های هوش مصنوعی مانندChat-GPT ، VALL-E و همچنین BlenderBot3 و قابلیت های روبه افزایش آنها برای تولید متن مشابه نویسندگان انسانی، تهدید جایگزین شدن نویسندگان با ربات ها جدی تر شده است.

در این میان به نظر می رسد چنین تهدیدی در نشریه CNET بیش از پیش آشکار شده است. نشریه بایت در گزارشی فاش کرده این وب سایت اخبار فناوری از نوامبر ۲۰۲۲ میلادی یک فناوری اتوماسیون برای تولید مجموعه ای از پست های توصیف اصطلاحات مالی را تحت عنوان کارکنان بخش CNET Money Staff به کار گرفته است. پس از کلیک روی نام نویسنده مشخص می شود مقاله مذکور به طور کامل توسط یک فناوری اتوماسیون نوشته و به وسیله یک ادیتور در تیم تحریریه کنترل شده است.

گیل برتون یکی از فروشندگان آنلاین نخستین بار چهارشنبه گذشته در توئیتر چنین محتوایی را مشخص کرد. در کل این وب سایت فناوری از نوامبر ۲۰۲۲ تاکنون ۷۳ پست با فناوری مذکور با تیترهایی مانند « Zelle چیست و چگونه کار می کند؟» منتشر کرده است.

اما از زمانیکه اخبار مذکور منتشر شده، CNET بخش بیو صفحه CNET Money Staff و همچنین پست های متعددی را پاک کرده است.

استفاده از تولید کننده های متن در حال حاضر یک فرایند گسترده در فضای ژورنالیستی است اما نشریاتی مانند آسوشیتدپرس و واشنگتن پست از آنها برای فعالیت های کپی رایت بسیار سطح پایین استفاده کردند. به عنوان مثال واشنگتن پست از این فناوری برای نوشتن مطلبی درباره فوتبال در دبیرستان و همچنین یک متن بی اهمیت درباره المپیک ۲۰۱۶ ریو استفاده کرده است.

اما هنگامیکه یک ناشر تغییری بنیادین و مشابه آنچه گفته شد در فعالیت های خبری اش ایجاد می کند، به طور معمول بیانیه ای منتشر یا در شبکه اجتماعی آن را اطلاع رسانی می کند. اما به نظر نمی رسد CNET چنین بیانیه عمومی منتشر کرده باشد.

پس از انتشار این خبر نشریه مذکور در بیانیه ای اعلام کرد مشغول آزمایش یک دستیار هوش مصنوعی است. در بیانیه آمده است: هیاهوی بسیاری درباره موتورهای هوش مصنوعی و شیوه استفاده از آنها در اتاق های خبر، نشریات، بازارایابی و دیگر سرویس های مبتی بر اطلاعات در ماه ها و سال های آینده وجود دارد. ChatGPT و فناوری های خودکار مشابه سوالات مهمی درباره ایجاد اطلاعات و اشتراک گذاری آنها و کیفیت محتوای تولیدی و کارآمدی آنها برای خوانندگان ایجاد کرده است. در همین راستا تصمیم گرفتیم برای پاسخ به این سوالات آزمایشی انجام دهیم.

طبق گزارشی جدید چین می تواند از هوش مصنوعی برای دخالت آمریکا در امور تایوان جلوگیری کند. همچنین احتمالا چین به رهبر جنگ افزارهای هوشمند جهان در آینده تبدیل شود.

به گزارش خبرگزاری مهر به نقل از اینترستینگ انجینرینگ، نشریه ساوت چاینا مورنینگ پست در گزارشی به نقل از کارشناسان چینی حوزه امور تایوان نوشته است: ارتش چین باید تمرین‌های مسدودسازی اطراف تایوان انجام دهد و از هوش مصنوعی برای جلوگیری از دخالت آمریکا استفاده کند.

نی یونگجی معاون مؤسسه شانگهای در مطالعات تایوان در این باره می‌گوید: ارتش باید تمرین‌های مسدودسازی اطراف جزیره انجام دهد و با کمک فناوری هوش مصنوعی از دخالت آمریکا و نیروهای استقلال طلب تایوان جلوگیری کند.

به گفته او ارتش چین ایده «بازداری هوشمند» را بررسی کرده است. یونگجی این اظهارات را در مقاله‌ای بیان کرده که به تازگی منتشر شده است.

این کارشناس معتقد است ارتش چین با استفاده از مهارت‌های خود در هوش مصنوعی، ابر رایانشی، داده‌های کلان، حملات و دفاع سایبری و همچنین تجهیزات بی سرنشین می‌تواند به رهبر جنگ افزارهای هوشمند جهان در آینده تبدیل شود.

ارتش چین از هوش مصنوعی برای شبیه سازی بازی‌های جنگی برای عملیات‌های تهاجمی علیه و همچنین شناسایی زیردریایی‌ها استفاده کرده است.

یکی از کارشناسان حوزه هوش مصنوعی معتقد است «هوش مصنوعی مولد» مانند ChatGPT درآینده شیوه توسعه محتوای دیجیتال را به طور کامل دگرگون و تا ۲۰۲۵ میلادی ۹۰ درصد محتوای آنلاین را تولید می کند.

به گزارش خبرگزاری مهر به نقل از یاهو فایننس،ChatGPT یک چت بات است که توسط شرکت OpenAI در نوامبر ۲۰۲۲ میلادی راه اندازی شد. این ربات بر روی مدل های زبان خانواده GPT-3 OpenAI ساخته شده است.

نینا شیک یکی از کارشناسان حوزه هوش مصنوعی در این باره می گوید: تصور می کنم تا ۲۰۲۵ میلادی حدود ۹۰ درصد محتوای آنلاین با هوش مصنوعی تولید شود. این فناوری رشد سریعی دارد. من معتقدم بیشتر محتوای دیجیتال در آینده به وسیله هوش مصنوعی تولید شود. به عنوان مثال ChatGPT را در نظر بگیرید. البته انبوهی از پلتفرم ها و اپلیکیشن های مشابه دیگر نیز در حال توسعه هستند.

افزایش توجه به ChatGPT به بحث و گمانه زنی های وسیعی درباره هوش مصنوعی و به خصوص هوش مصنوعی مولد و نقش گسترده آن در جهان منجر شده است.

شیک در این باره می گوید: کاری که هوش مصنوعی مولد انجام می دهد در حقیقت تولید محتوا و محصول جدید است. حال آنکه تاکنون تصور می شد این قابلیت فقط مختص هوش و خلاقیت انسان است. هوش مصنوعی مولد می تواند در سراسر رسانه ها محتوای مانند متن، ویدئو، صوت و تصویر را تولید کند و جالب آنکه هر واسطه دیجیتالی را می توان با هوش مصنوعی مولد فعال کرد. بنابراین من تصور می کنم ارزش Open AI در آینده بیشتر می شود و همزمان در ۲۰۲۳ میلادی شاهد تعداد بیشتری از شرکت های توسعه دهنده هوش مصنوعی مولدی خواهیم بود که در بسیاری صنایع کاربرد دارند.

او در ادامه افزود: این پدیده واقعاً نوین است زیرا کاربردهای هوش مصنوعی مولد اخیراً و از ۲۴ تا۶ ماه گذشته توجهات را جلب کرده اند.

شیک معتقد است فضای هوش مصنوعی مولد در سال آینده میلادی رقابتی تر می شود و شرکت های بزرگی مانند آلفابت (شرکت مادر گوگل)،مایکروسافت و اپل نیز فعالیت های متعددی در این فضا انجام دهند.

حملات سایبری هوش مصنوعی بیشتر می‌شود

دوشنبه, ۲۸ آذر ۱۴۰۱، ۰۳:۰۵ ب.ظ | ۰ نظر

طبق تحقیقی که در فنلاند انجام شده احتمالا در ۵ سال آینده حملات سایبری مبتنی بر هوش مصنوعی گسترده تر می شوند و به طور حتم تکنیک های جعل هویت در حملات فیشینگ ارتقا می یابند.

به گزارش خبرگزاری مهر به نقل از اینترستینگ انجینرینگ، یک گزارش تحلیلی سایبری جدید هشدار داده در آینده حملات سایبری که با کمک هوش مصنوعی انجام می‌شوند، احتمالاً گسترده‌تر و تهاجمی‌تر شوند.

شرکت امنیت سایبری و حریم خصوصی «ویت سکیور»، آژانس حمل ونقل و ارتباطات فنلاند و آژانس ملی ذخایر اضطراری این کشور در نوشتن گزارش همکاری کرده اند.

اندی پاتل یکی از محققان «ویت سکیور» در این باره می‌گوید: هرچند محتوای تولید شده با هوش مصنوعی برای مقاصد مهندسی اجتماعی به کار می‌رود، اما تکنیک‌های این فناوری برای کمپین‌های مستقیم طراحی شده اند و می‌توانند حملات مستقیم انجام دهند یا کنترل بدافزاری را برعهده گیرند که هنوز ردیابی نشده است.

چنین تکنیک‌هایی نخست توسط گروه‌هایی با منابع وسیع و ماهر مانند هکرهای دولتی انجام می‌شود. این تحقیق روندها و پیشرفت‌های فعلی در هوش مصنوعی، حملات سایبری و دیگر حوزه‌های متداخل را بررسی کرد و نتایج نشان داد مراحل اولیه به کارگیری و تکامل اقدامات پیشگیرانه در برابر تهدیدهای پیش رو کلیدی است.

مؤلفان پژوهش معتقدند با اطمینان می‌توان ادعا کرد هک‌های مبتنی بر هوش مصنوعی اکنون بسیار نادر هستند و بیشتر اوقات برای مقاصد مهندسی اجتماعی به کار می‌روند. با این وجود آنها به شیوه‌هایی به کار می‌روند که تحلیلگران و محققان نمی‌توانند به طورمستقیم آنها را رصد کنند.

هم اکنون بیشتر سیستم‌های هوش مصنوعی توسعه یافته به اندازه انسان هوشمند نیستند و نمی‌توانند به طور خودکار حملات سایبری را برنامه ریزی کنند.

اما مهاجمان سایبری احتمالاً در ۵ سال آینده نوعی از این فناوری را ابداع می‌کنند که قادر خواهد بود به طور خودکار ضعف‌ها را شناسایی، کمپین هک را برنامه ریزی کند و انجام دهد، از روش‌های مخفیانه برای اجتناب از سیستم‌های دفاعی استفاده و داده‌های سیستم‌های مبتلا به بدافزار را استخراج کند.

در بخش دیگری از گزارش آمده است: حملات مبتنی بر هوش مصنوعی به دلیل ماهیت اتوماسیون این فناوری سریع‌تر انجام می‌شوند و قربانیان بیشتری را هدف می‌گیرند.

حملات هوش مصنوعی به طور حتم جعل هویت را پیشرفته‌تر می‌کند. از این تکنیک به طور مرتب در حملات سایبری فیشینگ استفاده می‌شود.

تنقیح قوانین با هوش مصنوعی تا پایان سال

دوشنبه, ۲۱ آذر ۱۴۰۱، ۰۷:۰۶ ب.ظ | ۰ نظر

رئیس مرکز پژوهش‌های مجلس با بیان اینکه رویکرد کارآمدسازی پژوهش‌ها، بعد از ارائه تحقیق تمام نمی‌شود، گفت: بعد از ارائه تحقیق، تک تک گزارش‌ها را راهبری می‌کنیم تا ببینیم چه پیشنهاد علمی بدهیم.
به گزارش خانه ملت، بابک نگاهداری رئیس مرکز پژوهش‌های مجلس در مراسم گرامیداشت هفته پژوهش و تقدیر از پژوهشگران برتر که صبح امروز (دوشنبه، ۲۱ آذر ماه) با حضور قالیباف رئیس مجلس شورای اسلامی در محل این مرکز برگزار شد، با ارائه گزارش عملکردی از مهرماه ۱۴۰۰ تا ابتدای مهرماه ۱۴۰۱، گفت: ۴ رویکرد تحولی هوشمندسازی، مردمی سازی، شفاف سازی و کارآمد سازی را در یکسال گذشته در مرکز پژوهش‌های مجلس در دایره توجه قرار دادیم.

رئیس مرکز پژوهش‌های مجلس در ادامه با اشاره به اهمیت کارآمدی، عنوان کرد: مجموعه در این راستا اقداماتی انجام داد تا کارآمدسازی را داشته باشیم و بنیه کارشناسی را تقویت کنیم که خروجی یکی از آن‌ها امروز با رونمایی از نقشه پویایی شناسی چالش‌های حکمرانی و سامانه شبیه سازی سیاستگذاری به نمایش گذاشته می‌شود و نقشه استراتژیک حکمرانی کشور را نشان می‌دهد.

وی در ادامه با بیان اینکه بنیه کارشناسی مرکز را به چند سطح ارتقا داده و تفکر مرکز را از حالت خطی به چرخه‌ای تبدیل کردیم، اظهار داشت: از سوی دیگر تقویت بخش داده کاوی را داشتیم که پیش از این با مشکلاتی مواجه بوده ایم؛ ما توانستیم ۱۷۰ داشبورد مدیریتی را در مرکز داده کاوی ایجاد کرده و از همکاری دانشگاه‌ها نیز در این زمینه استفاده کنیم.

نگاهداری با اشاره به این مطلب که برای کارآمدسازی، برنامه محوری را در نظر گرفتیم، عنوان کرد: طی ۶ ماه، ۳۰۰ اقدام را مد نظر قرار دادیم و در سال ۱۴۰۲ می‌خواهیم بیش از ۷۰۰ اقدام تحقیقاتی دیگر داشته باشیم. میانگین پیشرفت تحقق برنامه‌های مرکز در نیمه دوم ۱۴۰۰ را به اینگونه بود که توانستیم آن‌ها را به تحقق کامل برسانیم.

رئیس مرکز پژوهش‌های در ادامه با نگاهی به حجم فعالیت‌های این مرکز یادآور شد: در نیمه دوم سال ۱۴۰۰، حدود ۲۲۳ اظهار نظر و ۱۳۷ گزارش تحلیلی راهبردی داشتیم همچنین در نیمه اول سال ۱۴۰۱، درباره حدود ۱۱۹ طرح و لایحه اظهار نظر شد و در جمع بندی ۳۴۲ اظهار نظر درباره طرح‌ها و لوایح و ۳۲۶ مطالعه و گزارش راهبردی و نظارتی داشتیم.

وی در ادامه با اشاره به اینکه در مرکز پژوهش ها، شاخص عملکردی ایجاد کرده، ورودی ها، خروجی‌ها و منابع را دیدیم، بیان داشت: برای کارها امتیاز لحاظ کرده و پرداخت‌ها را بر اساس کارنامه بهره وری قرار دادیم.

نگاهداری ادامه داد: رویکرد بعدی مرکز، کمیسیون محوری و نماینده محوری بود که در این راستا جلسات مستمری با کمیسیون‌ها داشته ایم و شخصا حداقل دو بار به هر کمیسیونی رفته و گزارش کار داده ام. ما در مرکز پژوهش‌ها اولویت‌های آن‌ها را مد نظر قرار می‌دهیم و نشست‌هایی با شورای دبیران کمیسیون‌ها داریم که بنده نیز در این جلسات حضور دارم.

رئیس مرکز پژوهش‌های مجلس یازدهم با بیان اینکه وضعیت پاسخگویی به کمیسیون‌ها در راستای کمیسیون محوری بوده و حدود ۳۴۲ اظهار نظر و ۱۱۶ پیش نویس قانون در اختیار آن‌ها گذاشته ایم، گفت: محصولاتی که به کمیسیون‌ها می‌رسانیم را مدیریت زمان کردیم که پیش از این با تأخیرهایی مواجه بود. در حال حاضر ۹۳ درصد اظهار نظرهای ما به صحن می‌رسد که میزان آن پیش از این، بسیار پایین‌تر بود از این رو ۲۸ درصد ارتقای عملکرد در تسریع این موضوع داشته ایم.

وی در ادامه با اشاره به متنوع سازی پلتفرم اظهار نظر به نمایندگان، عنوان کرد: برای ایجاد تنوع و استفاده راحت نمایندگان از اظهارنظرهای مرکز، پادکست‌هایی ایجاد کردیم که در ۳ دقیقه نماینده بتواند تحقیقات را مطالعه کرده و بشنود همچنین ره‌نامه‌ای منتشر کرده ایم که به صورت تک برگ و پشت و رو است که گزیده خروجی هر ماهه مرکز است.

به گزارش خانه ملت، نگاهداری در ادامه با بیان اینکه به صورت وسیع پاسخگویی به درخواست‌های نمایندگان را تقویت کردیم، عنوان کرد: در این یک سال ۶۰۷ نامه درخواست رسمی کارشناسی نمایندگان را پاسخ دادیم که پیش از دوره ما ۲۹ درصد بود و اکنون به ۷۵ درصد رسیده است. یعنی اگر این درخواست ها، اطلاعات و آماری از دستگاه‌ها نخواهد، بقیه نامه‌ها را پاسخ داده ایم.

رئیس مرکز پژوهش‌های مجلس در ادامه با بیان اینکه رویکرد دیگر مرکز برای کارآمدسازی پژوهش‌ها و راهبری نتایج آن این است که بعد از ارائه تحقیق، کار ما تمام نمی‌شود، اذعان داشت: ما تک تک گزارش‌ها را راهبری می‌کنیم که چه پیشنهاد عملی به دولت، چه پیشنهاد نظارتی به کمیسیون و چه خبری به رسانه‌ها می‌توانیم بدهیم.

وی افزود: بر این اساس، ۶۲۶ مکاتبه با وزارتخانه‌ها و ۳۴۲ مکاتبه با کمیسیون‌ها داشته ایم همچنین ۱۰ هزار و ۷۰۰ خبررسانه برای راهبری رسانه‌ها جهت تنویر افکار عمومی ایجاد کرده و ۱۹۵ برنامه تلویزیونی با حضور همکاران مرکز اجرا شده است.

نگاهداری ادامه داد: تولید نشریات و ویژه نامه‌های علمی را در استمرار گذشته ادامه داده و طی این مدت، ۴ شماره فصلنامه منتشر کرده و در تلاش برای دریافت مجوز ۲ فصلنامه در حوزه مجلس و اقتصاد و مجلس و قانونگذاری هستیم همچنین انتشار دو ماهنامه‌ای در حوزه اقتصاد بین الملل را دنبال می‌کنیم.

رئیس مرکز پژوهش‌ها در ادامه با بیان اینکه ستادی در این مرکز به ریاست بنده برای بررسی بودجه ایجاد شد، گفت: تحول فرهنگ و پیشنهادات تحولی درباره تبصره‌های ۱۸ گانه را در این ستاد در دستور کار قرار دادیم و بعد از اینکه سیاست‌های کلی تأمین اجتماعی از سوی حضرت آقا ابلاغ شد، برنامه‌های عملیاتی برای آن تهیه کردیم که ظرف روزهای آتی ارائه می‌شود.

وی اضافه کرد: از جمله اقدامات دیگر به عنوان کارفرمای ویژه، استفاده از هوش مصنوعی در تنقیح قوانین است که پروژه آن تا پایان سال جاری به اتمام می‌رسد.

نگاهداری با تأکید مجدد بر در نظر گرفتن اولویت کمیسیون‌های مجلس، بیان داشت: از طریق شورای هماهنگی مجلس با کمیسیون‌ها ارتباط داشتیم و در این راستا شوراهای راهبردی با حضور افراد شاخص و صاحبنظر را راه اندازی کردیم که تا کنون ماهانه جلساتی در این خصوص تشکیل شده و مرکز تحقیقات استراتژیک مجمع، پژوهشگاه قوه قضائیه و مرکز تحقیقات نیروهای مسلح عضو این کنسرسیوم هستند و درباره مسائل مهم و کلان کشور جلسه می‌گذاریم و بیانیه‌های سیاستی برای ایجاد وفاق میان قوای سه گانه صادر می‌کنیم که مثال آن بیانیه‌ای در حوزه بحران آب بوده که در اختیار مسئولان مربوطه قرار گرفته است.

رئیس مرکز پژوهش‌های مجلس شورای اسلامی در ادامه با اشاره به توافقنامه‌هایی با وزرای اقتصاد، دفاع و فرهنگ و رؤسای سازمان‌های مختلف، یادآور شد: ساختار سازمانی را چابک سازی کرده و زیرساخت‌ها را تأمین کرده ایم تا از همه ظرفیت‌ها استفاده کنیم.

وی با اشاره به رویکرد مردمی سازی این مرکز و اقداماتی که برای تحقق آن صورت گرفت، ابراز داشت: برای حفظ ظرفیت‌ها و تقویت نوآوری‌ها اقدام به پذیرش کارشناس کرده و بر این اساس ۲ هزار و ۵۰۰ نفر در فراخوان مرکز پژوهش‌ها شرکت کردند. در رویداد نوآیند هم مسابقاتی برگزار شد و در پارلمان دانشجویی ۵۰۰ نفر شرکت کردند و شبیه سازی‌هایی داشته ایم که در جریان آن جوانان نخبه دانشگاهی نظرات خود را ارائه کرده و با مسائل حکمرانی آشنا می‌شوند.

نگاهداری ادامه داد: رویکرد دیگر برای مردمی سازی تقویت افکارسنجی بوده است که در این راستا رویدادهای نوآیند یک و دو و چند رویداد دیگر در راستای مردمی سازی و جلب نظر نخبگان را داشتیم.

رئیس مرکز پژوهش‌های مجلس یازدهم با بیان اینکه برای هوشمندسازی و تحقق آن سامانه ستادی حداکثری را برای مرکز پژوهش‌ها داشته و داشبوردهای مختلفی ایجاد کردیم که یکی از آن‌ها اپلیکیشنی است که برای ارتباط با نمایندگان رونمایی می‌شود، اظهار کرد: سامانه یکپارچه را برای گزارش‌های مرکز پیاده سازی کردیم و کارهایی که تا کنون دستی بوده از این به بعد از طریق سامانه ستادی خواهد بود.

وی در ادامه با اشاره به راه اندازی سامانه نشر علمی برای دریافت آثار علمی محققان کشور و ایجاد پنجره خدمات الکترونیک مرکز، بیان داشت: کار دیگر نمایه سازی گزارش‌های مطالعاتی است که بیش از ۱۳ هزار و ۵۰۰ گزارش کارشناسی از نورمگز و ISC داشته ایم جمع آوری شد و اکنون همه می‌توانند از آن استفاده کنند و راهی برای برقراری ارتباط با دانشگاه‌ها است.

نگاهداری در ادامه با تأکید بر اینکه در حوزه شفاف سازی تلاش کردیم فرایندهای مدیریت مرکز را به حداکثر شفافیت برسانیم، عنوان کرد: پیش از این جذب نیرو در مرکز به صورت فراخوانی نبود، اما برای اولین بار در تاریخ مرکز، فراخوان عمومی دادیم که بیش از ۵ هزار نفر در آن شرکت کرده و بعد از ارائه گزارش‌ها و مصاحبه ها، در نهایت ۲۰۳ نفر انتخاب شدند که اکنون با مرکز به صورت گزارشی و حجمی همکاری می‌کنند تا نخبه‌ترین‌های آن‌ها را جذب مرکز کنیم.

رئیس مرکز پژوهش‌های مجلس شورای اسلامی در پایان با اشاره به بروزرسانی دستورالعمل‌های مرکز، خاطرنشان کرد: اساسنامه قبلی، اختیارات بسیاری به رئیس مرکز می‌داد که بنده همه آن‌ها را از خود سلب و تلاش کردم از طریق ایجاد کمیته‌ها و هیأت‌ها تصمیم گیری صورت گیرد و پشت درهای بسته هم نباشد همچنین تلاش شد ۱۵ سامانه مختلف در حوزه قوانین و مقررات در مرکز ایجاد کنیم.

به گزارش خانه ملت، در ادامه این نشست دو تن از کارشناسان مرکز پژوهش‌های مجلس شورای اسلامی گزارشی دیگری از عملکرد این مرکز ارائه داده و به تشریح اطلاعاتی درباره نرم افزار تلفن همراه مرکز پژوهش‌ها و سامانه شبیه سازی سیاستگذاری پرداختند.

هوش مصنوعی گوگل نویسنده شد

يكشنبه, ۲۰ آذر ۱۴۰۱، ۰۳:۰۰ ب.ظ | ۰ نظر

زیرمجموعه آلفابت یک ابزار هوش مصنوعی ساخته که می تواند در فیلمنامه نویسی و شخصیت سازی و توصیف صحنه ها کارآمد باشد.

به گزارش خبرگزاری مهر به نقل از انگجت، شرکت هوش مصنوعی «دیپ مایند» که آلفابت( شرکت مادر گوگل) تعلق دارد، یک ابزار کمک نویسنده به نام «دراماترون»(Dramatron) ابداع کرده که می تواند توصیفاتی برای شخصیت ها، تحولات در داستان، توصیف مکانی و دیالوگ را ابداع کند.

ایده اصلی آن است که یک انسان (نویسنده) می تواند آنچه را که «دراماترون» ابداع می کند را گردآوری، ادیت و بازنویسی کند تا به یک فیلمنامه تبدیل شود.

برای شروع کاربر نیازمند یک کلید Oppen AI AOI Key است و اگر وی خواهان کاهش ریسک ایجاد یک متن اهانت آمیز توسط دراماترون است به یک Perspective API Key نیاز دارد. برای تست دراماترون یک خط نوشته طولانی به عنوان ایده فیلم به آن ارائه شد .

هوش مصنوعی به سرعت عنوانی برای یک صحنه، شخصیت، صحنه و جزئیات آن را ساخت. دیالوگی که هوش مصنوعی تولید کرد منطقی اما تکراری بود. به غیر از آن تقریباً دراماترون یک فیلمنامه از جمله یک صحنه را به راحتی از ذهن کاربر بیرون کشید.

برای تست ابزار محققان ۱۵ نمایشنامه و فیلمنامه نویس را دعوت کردند تا یک فیلمنامه بنویسند. طبق تحقیق انجام شده نمایشنامه نویسان اعلام کردند از ابزار هوش مصنوعی مذکور برای نوشتن یک متن کامل استفاده نمی کنند. آنها معتقد بودند بازده هوش مصنوعی مذکور ممکن است براساس یک فرمول ارائه شود. با این وجود آنها معتقد بودند دراماترون برای جمله سازی کمک حال است یا به آنها کمک می کند در خصوص عناصر داستان یا شخصیت ها روش های مختلف را بررسی کنند. آنها اشاره کردند هوش مصنوعی برای تولید ایده های خلاقانه نیز کارآمد است.

استفاده از ابزارهای هوش مصنوعی ممکن است سوالاتی درباره مالکیت و اینکه چه کسی یا چیزی متن را نوشته، ایجاد کند. سال گذشته دادگاه تجدیدنظری در انگلیس اعلام کرد هوش مصنوعی را نمی توان قانونا به عنوان مخترع یک حق امتیاز ثبت کرد.

دیپ مایند نیز اشاره کرده دراماترون می تواند بخش هایی از یک متن را تولید کند که برای آموزش مدل زبانی به کار می رود که در صورت به کارگیری در متن ممکن است به اتهامات سرقت ادبی منجر شود.

گوگل، استارت‌آپ اسرائیلی بریزومتر (BreezoMeter) را با قیمت بیش از 200 میلیون دلار خریداری کرد.
به گزارش سایبربان؛ گوگل، استارت‌آپ اسرائیلی بریزومتر (BreezoMeter) را خریداری کرد؛ این غول فناوری در گفتگو با وبگاه تخصصی «CTech» این موضوع را تأیید کرد. هدف BreezoMeter نظارت بر کیفیت هوا و بهبود سلامت مردم با استفاده از داده‌های جوی است که از طریق ایستگاه‌های سنجش متعدد، هوش مصنوعی و الگوریتم‌های یادگیری ماشینی به‌دست می‌آید که برای شناسایی و تشخیص انواع مختلف آلاینده‌ها آموزش دیده‌اند.

هزینه خرید هنوز فاش نشده اما کالکالیست (Calcalist) تخمین زد که بین 200 تا 250 میلیون دلار باشد.

گوگل به CTech گفت : «پس از فعالیت‌های چندین ساله خود در بخش‌هایی مانند بینش‌های زیست محیطی، موتور «Google Earth»، اکسپلورر (Explorer) و پروژه «Air View»، ما مشتاق هستیم که همچنان بینش‌های زیست محیطی را به مردم، سازمان‌ها و سیاست‌گذاران در سراسر جهان ارائه دهیم.»

هدف فناوری BreezoMeter نظارت و گزارش کیفیت هوا و اطلاع رسانی به مردم است تا بتوانند اقدامات پیشگیرانه را زودتر از موعد انجام دهند. این شرکت در سال 2014 به‌وسیله ران کوربر (Ran Korber)، مدیرعامل مهندسی محیط زیست و امیل فیشر (Emil Fisher)، مدیر ارشد فناوری تأسیس شد.

BreezoMeter سری سوم سرمایه‌گذاری 30 میلیون دلاری را در ماه ژوئن 2021 جمع‌آوری کرد و مجموع بودجه خود را به 45 میلیون دلار رساند.

این دور به‌وسیله «Fortissimo Capital» هدایت شد. «Entrée Capital» که از زمان تأسیس BreezoMeter همراه با سرمایه‌گذاران فعلی «JumpSpeed ​​Ventures»، «Launchpad Digital Health»، «AxessVentures»، «Goldacre Ventures» و «idinvest Partners» حمایت کرده نیز در این دور شرکت کردند.

شرکت‌هایی از جمله «AstraZeneca»، بوش (Bosch)، دایسون (Dyson)، ورایزون مدیا (Verizon Media)، «L'Oréal» و صدها شرکت دیگر، در حال حاضر از APIهای آلودگی هوا، گرده و آتش BreezoMeter برای ارائه توصیه‌های کیفیت هوا به مصرف‌کنندگان از طریق برنامه‌های تلفن همراه، دستگاه‌های اینترنت اشیای خانگی هوشمند، خودروها و سایر تجربیات مرتبط استفاده می‌کنند.

کوربر در مصاحبه با CTech توضیح داد : «آزمایش کیفیت هوا از اوایل دهه 1900 در دسترس بوده و متأسفانه سنسورهایی که ما به آنها تکیه می‌کنیم، پوشش محدودی دارند. حسگرها در اسرائیل از هم فاصله زیادی دارند و معمولاً فقط قادر به تشخیص یک نوع آلاینده هوا هستند، در حالیکه در ایالات متحده فقط در شهرهای بزرگ در دسترس هستند، اما کسانی که در مناطق روستایی زندگی می‌کنند هیچ راهی برای بررسی کیفیت هوا ندارند.»

این شرکت فناوری توسعه داده که از یادگیری ماشینی و هوش مصنوعی استفاده می‌کند و همه آلاینده‌های منتشر شده از هر فعالیت خاصی را در نظر می‌گیرد.

همچنین داده‌های مربوط به تراکم ترافیک را جمع‌آوری و هر نوع آلاینده جوی، ناشی از آتش‌سوزی‌های جنگلی، انتشار گازهای گلخانه‌ای نیروگاه‌ها و غیره، را شناسایی می‌کند.

مدیرعامل مهندسی محیط زیست خاطرنشان کرد : «ما در سال 2014 زودتر شروع کردیم و شاهد رشد آگاهی مردم درباره سلامتی بودیم، اما کووید-19 قطعاً تقاضای محصول ما را تسریع کرد. با این اوصاف، ما در سال‌های 2016 و 2017 شرکت‌های پیشرو داشته‌ایم که با ما همکاری می‌کنند، بنابراین وقتی همه‌گیری شیوع پیدا کرد، آگاهی از سلامت، عوامل استرس‌زای محیطی و چگونگی تأثیر آنها بر سلامت به نگرانی‌های بزرگ‌تری تبدیل شد. هدف ما این است که مردم را از محیط خود آگاه کنیم تا تأثیر بر محیط زیست را درک کنند و به آنها آموزش دهیم که چگونه و چه زمانی از دارو و محصولات بهداشتی به درستی استفاده کنند.»

رمزگشایی از گفتار با هوش مصنوعی

دوشنبه, ۲۱ شهریور ۱۴۰۱، ۰۳:۴۶ ب.ظ | ۰ نظر

پژوهشگران موفق شدند نوعی هوش مصنوعی طراحی کنند که قادر است با اندازه‌گیری فعالیت مغزی با دقت شگفت‌آوری از گفتار رمزگشایی کند. این فناوری می‌تواند به بیمارانی که هوشیاری بسیار کمی دارند در برقراری ارتباط کمک کند.

به گزارش ایرنا از وبگاه سایِنس نیوز (Science News)، هوش مصنوعی می‌تواند کلمات و جملات را از روی فعالیت مغز با دقت شگفت‌آور اما محدود رمزگشایی کند. دانشمندان در تحقیقات اولیه دریافتند که فقط با استفاده از چند ثانیه داده فعالیت مغزی، هوش مصنوعی حدس می‌زند که یک شخص چه شنیده است و تا ۷۳ درصد اوقات، پاسخ صحیح را در میان ۱۰ احتمال برتر لیست می‌کند.  

این هوش مصنوعی که در شرکت والد فیس‌بوک - متا، طراحی شده است، ‌می‌تواند به هزاران نفر در سراسر دنیا که قادر نیستند از طریق سخن‌گفتن، تایپ‌کردن یا حرکات بدن ارتباط برقرار کنند، کمک کند؛ از جمله به بیمارانی که هوشیاری بسیار کمی دارند یا زندگی نباتی دارند، یعنی به افرادی که دچار مشکلی هستند که عموماً به‌عنوان سندرم بیداری بدون پاسخ شناخته می‌شود.

بیشتر فناوری‌های موجود که قصد دارند به چنین بیمارانی برای برقراری ارتباط کمک کنند، نیازمند عمل‌های پرخطر جراحی مغز برای کاشت الکترودها هستند. این شیوه جدید، به احتمال زیاد راهی بادوام و غیرتهاجمی برای کمک به بیمارانی فراهم خواهد کرد که در برقراری ارتباط مشکل دارند.

پژوهشگران فرانسوی به یک ابزار محاسباتی آموزش دادند که کلمات و جملات ۵۶ هزار ساعت گفتار ضبط‌شده به ۵۳ زبان را تشخیص دهد. این ابزار که به‌عنوان مدل زبان نیز شناخته می‌شود، یاد گرفت که چگونه ویژگی‌های خاص زبان را هم در سطح دقیق، حروف یا هجاها و هم در سطح وسیع‌تر، مانند یک کلمه یا جمله، تشخیص دهد.

این تیم پژوهشی، هوش مصنوعی را با این مدل زبانی در پایگاه‌های داده چهار مؤسسه به‌کار برد که شامل فعالیت‌های مغزی ۱۶۹ داوطلب بود.

در این پایگاه‌های اطلاعاتی، شرکت‌کنندگان به داستان‌ها و جملاتی از برخی کتاب‌ها مثلاً کتاب پیرمرد و دریا نوشته ارنست همینگوِی و آلیس در سرزمین عجایب نوشته لوئیس کارول گوش می‌دادند و در همان زمان مغز آنها با استفاده از مغناطیس‌نگاری مغزی یا نوار مغزی اسکن می‌شد. این تکنیک‌ها جزء مغناطیسی یا الکتریکی سیگنال‌های مغز را اندازه می‌گیرد.

سپس، تیم پژوهشی تلاش کرد با کمک یک روش محاسباتی که به توضیح تفاوت‌های فیزیکی مغزهای شرکت‌کنندگان کمک می‌کرد، مواردی را که شرکت‌کنندگان شنیده‌اند، فقط با استفاده از سه ثانیه داده‌ فعالیت مغزی هرکدام از آن‌ها رمزگشایی کند.

این تیم به هوش مصنوعی آموزش داد که صداهایی را که هنگام خواندن داستان‌ها ضبط شده بود با الگوهای فعالیت مغزی که هوش مصنوعی آن را با آنچه مردم می‌شنوند مربوط می‌کرد، تراز کند سپس با توجه به بیش از هزار احتمال، پیش‌بینی‌هایی درباره آنچه ممکن است فرد در این مدت کوتاه بشنود، انجام داد.

پژوهشگران به این نتیجه رسیدند که با استفاده از مغناطیس‌نگاری مغزی در ۷۳ درصد مواقع، پاسخ درست در میان ۱۰ حدس برتر هوش مصنوعی قرار داشت. با نوار مغزی این مقدار به حدود ۳۰ درصد کاهش یافت. هرچند عملکرد مغناطیس‌نگاری مغزی بسیار خوب بود؛ اما پژوهشگران به استفاده عملی از آن خوش‌بین نبودند؛ زیرا نیازمند دستگاهی بزرگ و گران‌قیمت است. آوردن این فناوری به درمانگاه‌ها نیازمند نوآوری‌های علمی برای ارزان‌تر کردن آنها و آسان‌تر کردن استفاده از آنها است.

فناوری هوش مصنوعی نیازمند استراتژی‌های ملی

دوشنبه, ۱۴ شهریور ۱۴۰۱، ۰۲:۴۲ ب.ظ | ۰ نظر

مریم حق شناس - کارشناس مرکز ملی فضای مجازی - ایرنا - هم‌راستایی ورود به دوره جدیدی از تحول با عنوان انقلاب صنعتی چهارم و پیشرفت بسیار سریع فناوری‌­های نوین، فناوری هوش مصنوعی را به یک ابزار قدرتمند در برنامه­‌های اقتصادی، سیاسی و نظامی تبدیل کرده است. انعکاسی از انقلاب دیجیتالی این فناوری، به تعیین نظم بین‌المللی در دهه‌های آینده کمک می‌کند.

هوش مصنوعی که پیشتر فقط در تخیلات ما وجود داشته، با توسعه فناوری اطلاعات همچون افزایش قدرت محاسبات، تجمع داده‌ها و پیشرفت شبکه‌های ارتباطی نسل پنجم، به سرعت در حال رشد است. سیستم‌های مبتنی بر این فناوری در سراسر جهان با طیف وسیعی از سایر فناوری‌ها از جمله کلان داده، فناوری‌های زیستی، به منظور تقویت امنیت جهانی، در تعامل است. استفاده‌ از داده‌های حاصل از الگوهای ترافیکی شهرها، بازارهای مالی، رفتار مصرف‌کننده، پرونده‌های سلامت و علم ژنتیک به منظور پیش‌بینی جنبه‌های مختلف زندگی روزمره انسان‌ها، نشان از ارتباط و تعامل این فناوری با دیگر فناوری­‌ها است.

به‌کارگیری هوش مصنوعی در تمام صنایع از جمله تولید، مراقبت‌های بهداشتی، حمل‌ونقل، محیط‌زیست و آموزش گسترش یافته و اکنون تقریباً در همه جنبه‌های زندگی روزمره با این فناوری مواجه هستیم. بر اساس تأکید مجمع جهانی اقتصاد، جهان امروزی در اسرع وقت نیاز به ایجاد یک قرارداد اجتماعی جدید دارد تا ایمنی در نوآوری فناورانه، به ویژه فناوری هوش مصنوعی و هماهنگی آن با نیازهای اخلاقی یک جامعه جهانی را تضمین کند.

هوش مصنوعی با ایجاد کاتالیزور نوآوری در کل صنایع و فراهم کردن راحتی بیشتر در زندگی روزمره مردم، ابزاری قدرتمند در حل مشکلات اجتماعی مانند پیری جمعیت و پیشگیری از جرم خواهد بود. اساساً نحوه کار و ساختار شغلی را تغییر می‌دهد و درعین‌حال گسترش آن می‌تواند موجب اختلال در عملکرد و تهدیدهای امنیتی باشد. بنابراین باید به جای پذیرش منفعلانه این تغییرات، عوامل تغییر فعال در ایجاد آینده‌ای روشن را فراهم کنیم.

در طی سال‌های آینده، فناوری هوش مصنوعی به عنوان یکی از عوامل رشد اقتصادی و ایجاد تحول در صنایع مختلف خواهد بود. بررسی­های موسسه PWC حاکی از آن است که میزان تأثیر هوش مصنوعی در تولید ناخالص داخلی جهانی در سال ۲۰۳۰ به ۱۵.۷ هزار میلیارد دلار می­رسد که ۶۰ درصد آن از طریق مصرف و ۴۰ درصد آن به دلیل بهره‌­وری است.

لذا نه تنها حوزه اقتصادی بلکه سایر حوزه­ها و صنایع نیز متأثر از پیشرفت و توسعه این فناوری در کشور خواهد بود. بطوریکه امروزه اغلب استارت­آپ­های فعال دنیا در حوزه هوش مصنوعی در زمینه‌هایی همچون تحلیل اطلاعات و بهینه‌سازی و پیش‌بینی مبتنی بر آن، هوشمندسازی خدمات، تجهیزات، ماشین‌آلات و کمک ابزارها، ایجاد امنیت، جلوگیری از تقلب و پردازش صوت و تصویر فعال هستند. بنابراین نیاز است این صنایع از ظرفیت تعامل با کاربران بهره‌برداری کند. عدم توجه به ظهور و حضور این فناوری­‌ها، موجب کاهش مخاطبان، دورماندن از بازار رقابت و عدم کارایی و بهره‌­برداری از منابع خواهد شد.

لذا وقت آن رسیده که برای جهانی آماده شویم که مردم و هوش مصنوعی بتوانند در آن هم­زیستی داشته باشند. برای این منظور، نیاز به تدوین یک استراتژی ملی برای این فناوری با هدف به حداکثر رساندن نقاط قوت ملی و زیرساخت مناسب فناوری اطلاعات و درعین‌حال تحقق بخشیدن به هوش مصنوعی مردم محور، فراتر از دیدگاه‌های فنی و صنعتی وجود دارد. قطعاً با همکاری بخش­های دولتی و خصوصی برای اجرای موفقیت‌آمیز این استراتژی ملی، می‌توان از رقابت دیجیتال در کلاس جهانی اطمینان حاصل نمود و کیفیت زندگی افراد را تا سال ۲۰۳۰ به طور قابل‌توجهی بهبود بخشید.

پاسخگویی یک مرده با کمک هوش مصنوعی

سه شنبه, ۲۵ مرداد ۱۴۰۱، ۰۶:۰۰ ب.ظ | ۰ نظر

یک زن متوفی (مادر مدیر شرکت استوری‌فایل در لس‌آنجلس) با کمک هوش مصنوعی در مراسم سوگواری خود با حضار صحبت کرد و به سوالات آنان پاسخ داد.

به گزارش ایرنا از روزنامه «دیلی میل»، فناوری جدید شرکت «استوری‌فایل» در لس‌آنجلس به «مارینا اسمیت» اجازه داد که در مجلس سوگواری خود صحبت کند. اسمیت که ماه ژوئن در سن ۸۷ سالگی دار فانی را وداع گفته بود، در مراسمی پس از کفن و دفنش به شکل یک هولوگرام ظاهر شد و ضمن ایراد سخنانی کوتاه درباره زندگی خود به سوالات اعضای خانواده و شرکت‌کنندگان در مراسم پاسخ داد. این متوفی در واقع مادر دکتر «استیفن اسمیت» مدیر اجرایی شرکت «استوری‌فایل» و یکی از اولین کسانی است که از این فناوری استفاده کرده است. 

دکتر اسمیت در این خصوص گفت: مادرم به سوالات خویشاوندان سوگوار جواب داد و نکته جالب اینکه او به سوالات با جزئیات و صداقت جدیدی پاسخ می داد. 

وی می افزاید: مردم زمانی که داده‌های خود را ضبط می‌کنند، احساس شجاعت بیشتری می‌کنند و سوگواران با یک نسخه جدید و حقیقی‌تر از عزیز از دست رفته آشنا می‌شوند.

بر اساس این گزارش، نحوه کار فناوری شرکت «استوری‌فایل» به این صورت است که با استفاده از ۲۰ دوربین هماهنگ شده (synchronised) در هنگام پاسخ به یک رشته از سوالات، یک نسخه دیجیتالی از فرد سوژه را تهیه می‌کند.

در مرحله بعد، کارشناسان فیلم تهیه شده را مورد پردازش و ویرایش قرار می‌دهند و از آن برای آموزش دادن به یک برنامه هوش مصنوعی استفاده می‌کنند. این برنامه هوش مصنوعی قادر است، با زبان طبیعی به سوالات جواب بدهد.

یک متوفی با کمک هوش مصنوعی به سوالات حضار در مراسم سوگواری پاسخ داد

محصول نهایی در نهایت روی پلتفرم استوری‌فایل بارگذاری می‌شود و به این ترتیب بعد از فوت آن فرد، امکان تعامل با او از طریق این پلتفرم وجود خواهد داشت و این فناوری احساس یک گفت‌وگوی واقعی و همزمان را به بازماندگان خواهد داد. خانم اسمیت در ماه ژانویه گذشته چند ماه قبل از مرگش چندین ساعت را در یک دوره زمانی دو روزه صرف پاسخ دادن به سوالاتی با استفاده از رایانه و دوربین «وب‌کم» کرد.

افراد داوطلب برای استفاده از این فناوری موضوعاتی را که به گمانشان برای بازماندگان جالب خواهد بود، انتخاب می‌کنند و سپس به ۷۵ سوال از بین ۲۵۰ هزار سوال بالقوه با ویدئوهای دو دقیقه‌ای پاسخ می‌دهند.

این برنامه همانند ویدئوهای جعلی (deepfake) حرف در دهان افراد سوژه نخواهد گذاشت اما اگر پاسخ سوال مطرح شده را نداشته باشد، هولوگرام فرد متوفی به شکلی فرد سوال کننده را ترغیب می‌کند تا سوال دیگری را مطرح کند. 

مزایا و معایب هوش مصنوعی در امنیت سایبری

چهارشنبه, ۱۹ مرداد ۱۴۰۱، ۰۶:۰۴ ب.ظ | ۰ نظر

در این گزارش به تعریف خلاصه‌ای از کاربرد هوش مصنوعی در افزایش امنیت سایبری و معایب و مزایای آن پرداخته شده است.
به نقل از techgenix، شما می‌توانید از هوش مصنوعی (AI) برای خودکارسازی کار‌های تکراری پیچیده بسیار سریع‌تر از انسان استفاده کنید. فناوری هوش مصنوعی می‌تواند ورودی‌های پیچیده و تکراری را به صورت منطقی مرتب کند، به همین دلیل است که هوش مصنوعی برای تشخیص چهره و اتومبیل‌های خودران استفاده می‌شود. اما این توانایی راه را برای امنیت سایبری هوش مصنوعی هموار کرد. این به ویژه در ارزیابی تهدیدات در سازمان‌های پیچیده مفید است. وقتی ساختار‌های کسب و کار به طور مداوم در حال تغییر هستند، مدیران نمی‌توانند به طور سنتی نقاط ضعف را شناسایی کنند.

علاوه بر این، کسب و کار‌ها در ساختار شبکه پیچیده‌تر می‌شوند. این بدان معناست که مجرمان سایبری سوء استفاده بیشتری علیه شما دارند. این را می‌توانید در کسب‌وکار‌های تولید خودکار یا شرکت‌های یکپارچه مانند صنعت نفت و گاز مشاهده کنید. برای این منظور، شرکت‌های امنیتی مختلف ابزار‌های امنیت سایبری هوش مصنوعی را برای کمک به محافظت از کسب‌وکار‌ها توسعه داده‌اند.

هوش مصنوعی یک روش منطقی سازی با استفاده از یک ماتریس وزن دار آماری است. به این ماتریس شبکه عصبی نیز می‌گویند. شما می‌توانید این شبکه را به عنوان یک ماتریس تصمیم با گره‌هایی در نظر بگیرید که برای هر فرآیند فیلترینگ دارای یک سوگیری وزنی هستند. شبکه عصبی پایگاه، داده‌ای از داده‌های از پیش کامپایل شده را دریافت خواهد کرد. این داده‌ها حاوی پاسخ‌هایی به یک سوال اساسی است که هوش مصنوعی آن را می‌کند. به این ترتیب هوش مصنوعی یک سوگیری ایجاد می‌کند.

به عنوان مثال یک پایگاه داده حاوی تصاویر مختلف را در نظر بگیرید. فرض کنید هوش مصنوعی تصاویری از صورت یک فرد و سایر تصاویر دارد، علاوه بر این، هر تصویر دارای یک برچسب برای بررسی هر مورد است. همانطور که هوش مصنوعی یاد می‌گیرد که آیا درست حدس زده است یا نه، سیستم وزن گره‌ها را افزایش می‌دهد. این روند تا زمانی ادامه می‌یابد که سیستم به درصد خطای از پیش تعریف شده برسد. این اغلب به عنوان یادگیری عمیق شناخته می‌شود که به لایه‌های تصمیم گیری که عمق را ایجاد می‌کنند اشاره دارد.

 

مراحل حیاتی در پردازش داده‌های هوش مصنوعی

سنسور‌های ورودی داده‌ها را دریافت می‌کنند.
داده‌ها از طریق یک CPU خارج و به یک فرآیند هوش مصنوعی هدایت می‌شوند.
داده‌ها وارد ماتریس وزنی آماری راه حل هوش مصنوعی می‌شوند. هر گره این اطلاعات را پردازش می‌کند. سپس با استفاده از هر فیلتر مربوطه تصمیم می‌گیرد.
داده‌ها به گره نهایی ماتریس دارای وزن آماری می‌رسند. این تصمیم نهایی را تعیین می‌کند.

نکته مهم این است که سیستم‌های هوش مصنوعی همیشه دارای درجه‌ای از خطا هستند. هیچ کدام معصوم نیستند و هرگز نخواهند بود؛ اما گاهی اوقات درصد خطا می‌تواند قابل قبول باشد.

امنیت سایبری هوش مصنوعی به نیاز به خودکارسازی ارزیابی تهدید‌ها در محیط‌های پیچیده می‌پردازد. به طور خاص، در اینجا ۲ مورد استفاده برای هوش مصنوعی در امنیت سایبری هوش مصنوعی وجود دارد:

تشخیص ناهنجاری‌های هوش مصنوعی اغلب ناهنجاری‌ها را در عملکرد روزانه شبکه تشخیص می‌دهد، این به شما کمک می‌کند تا ببینید کاربران شما چه زمانی و کجا به شبکه دسترسی دارند. دستگاه‌های دروازه همچنین دارای یکپارچه سازی هوش مصنوعی برای تجزیه و تحلیل هستند. در صورت رفتار غیرعادی، برخی راه حل‌ها کاربران را قفل می‌کنند. راه حل‌های دیگر فقط هشدار ارسال می‌کنند.

هوش مصنوعی به طور موثر یک ابزار طبقه بندی است. این امر روند غربالگری بدافزار یا بازیگران بد را سرعت می‌بخشد. این در سازمان‌هایی که داده‌های زیادی دارند مفید است.

همانطور که گفته شد، هوش مصنوعی مزایای زیادی دارد. وظایف تکراری را برای شناسایی ناهنجاری‌ها یا طبقه بندی داده‌ها به ویژه در تجارت شما انجام می‌دهد؛ با این حال چند اشکال بزرگ ممکن است مزایای آن را از بین ببرد.

اولین اشکال، دقت راه حل امنیت سایبری هوش مصنوعی است. این دقت به عوامل زیادی نیز بستگی دارد. این شامل اندازه شبکه عصبی و تصمیمات تعریف شده برای فیلتر است. همچنین به تعداد تکرار‌های استفاده شده برای رسیدن به درصد خطای از پیش تعریف شده بستگی دارد.

یک ارائه‌دهنده راه‌حل‌های امنیت سایبری هوش مصنوعی ممکن است هوش/دقت راه‌حل خود را برای رسیدن به جمعیت هدف کاهش دهد. اما گاهی اوقات مشکل هوش نیست بلکه تاخیر کم و آسیب‌پذیری‌های امنیتی است. هنگام جستجوی راه حل امنیت سایبری هوش مصنوعی، میزان امنیت آن را در شبکه خود در نظر بگیرید.

 

آموزش استاتیک و مستمر

یک ماتریس وزن دار آماری هوش مصنوعی پس از آموزش، اغلب در خدمات مجدد آموزش داده نمی‌شود. متوجه خواهید شد که این به دلیل کمبود منابع پردازشی موجود در سخت افزار است. گاهی اوقات، سیستم چیزی یاد می‌گیرد که آن را بدتر کرده و اثربخشی را کاهش می‌دهد. برعکس انسان‌ها به صورت مکرر یاد می‌گیرند. این بدان معنی است که آن‌ها باعث تصادفات زیادی می‌شوند. در نتیجه ارائه دهندگان راه حل باید اطمینان حاصل کنند که نرم افزار در حین استفاده الزامات مشخصات را برآورده می‌کند.

امنیت سایبری اغلب برای مقابله با سوء استفاده‌های جدید نیاز به به روز رسانی دارد. برای این منظور آموزش هوش مصنوعی به قدرت زیادی نیاز دارد. علاوه بر این، فروشنده امنیت سایبری هوش مصنوعی شما باید به طور منظم برای مقابله با تهدیدات سایبری به روز رسانی کند.

با این حال مؤلفه هوش مصنوعی یک راه حل امنیت سایبری هوش مصنوعی برای طبقه بندی داده‌ها و ارزیابی ناهنجاری‌ها در داده‌های پایه است در نتیجه، مشکلی برای به روز رسانی لیست بدافزار ایجاد نمی‌کند. این بدان معناست که شما همچنان می‌توانید از امنیت سایبری هوش مصنوعی استفاده کنید.

همانطور که گفته شد، مشاغل بسیار خودکار ضعیف‌ترین امنیت سایبری را دارند. به طور کلی محیط‌های خودکار با فناوری اطلاعات (IT)، فناوری عملیاتی (OT) و اینترنت اشیا (IoT) همپوشانی دارند. این برای بهبود بهره وری، کاهش هزینه واحد محصول و کاهش رقابت است، اما آسیب پذیری‌هایی را ایجاد می‌کند. برای این منظور، امنیت سایبری هوش مصنوعی برای یافتن سوء استفاده‌های بالقوه در این شرکت‌ها عالی است. راه حل‌ها یا به مدیر اطلاع می‌دهند یا به طور خودکار وصله‌ها را اعمال می‌کنند.

با این حال این ممکن است کافی نباشد. مجرمان سایبری در حال حاضر به شرکت‌های بزرگ و بسیار یکپارچه حمله می‌کنند. برای انجام این کار، آن‌ها از OT استفاده می‌کنند که هیچ امنیتی ندارد. OT برای شبکه‌های سیمی برای ارسال دستورات به سخت افزار مانند تجهیزات کارخانه در نظر گرفته می‌شود، این بدان معنی است که هرگز یک ضعف امنیتی ایجاد نکرده است. امروزه مهاجمان از OT برای دسترسی به قسمت‌های دیگر شبکه یا آفلاین کردن تجهیزات کارخانه استفاده می‌کنند.

 

چه زمانی باید از امنیت سایبری هوش مصنوعی استفاده کنید؟

همانطور که در بالا توضیح داده شد، مشاغلی که از تجهیزات تولیدی و کارخانه استفاده می‌کنند باید از امنیت سایبری هوش مصنوعی استفاده کنند. در بیشتر موارد شما همچنین باید به دنبال یک راه حل مدیریت ریسک OT برای کاهش خطرات مرتبط با OT باشید.

اگر کسب و کار شما از اینترنت اشیاء و فناوری اطلاعات استفاده می‌کند، می‌توانید از امنیت سایبری هوش مصنوعی استفاده کنید. به این ترتیب می‌توانید خطرات ناشی از اکسپلویت‌ها را برای شبکه کاهش دهید. دستگاه‌های اینترنت اشیاء عموما رقبا را پایین می‌آورند، بنابراین هزینه اضافه کردن اقدامات امنیتی کافی را دور می‌زنید.

در نهایت، حتی اگر شرکت شما فقط از فناوری اطلاعات استفاده کند، می‌توانید از هوش مصنوعی استفاده کنید. هوش مصنوعی به ارزیابی ترافیک نامنظم کمک می‌کند، بنابراین دروازه‌های شما محافظت می‌شوند، علاوه بر این، می‌توانید از تجزیه و تحلیل داده‌های هوش مصنوعی استفاده کنید. به این ترتیب، متوجه خواهید شد که آیا شخصی از سخت افزار شما برای اهداف مخرب استفاده می‌کند یا خیر. 

شما همیشه می‌توانید از امنیت سایبری هوش مصنوعی بهره‌مند شوید. مهم نیست که فناوری کسب و کار شما چقدر یکپارچه است. عملکرد هوش مصنوعی برای طبقه بندی داده‌ها با استفاده از عملیات هوشمند عالی است. به این ترتیب می‌توانید سرعت جستجوی خود را برای بدافزار افزایش دهید. امنیت سایبری هوش مصنوعی برای یافتن استفاده غیرعادی از شبکه نیز مفید است. (باشگاه خبرنگاران)

شرکت دولتی توزیع برق چین به تازگی یک سیستم هوش مصنوعی به کار گرفته که مشکلات تامین برق را در ۳ثانیه حل می کند.  این درحالی است که چنین فرایندی به طور معمول ۶تا۱۰ ساعت طول می کشد.

به گزارش خبرگزاری مهر به نقل از اینترستینگ انجینرینگ، البته سیستم قدرتمند و کارآمد جدید در هرجایی قابل اجرا نیست. این سیستم فقط به مدت یک ماه در منطقه مسکونی Qitailu با بیش از ۲۰۰ خانواده در استان سین کیانگ اجرا شده است.

شبکه توزیع برق جدید دارای چند حسگر است که هرکدام از آنها مغز مخصوص خود را دارند. این مغزها به طور خودکار می توانند کارآمدترین و مناسب ترین مسیرهای تامین برق را انتخاب کنند. در این فرایند نیاز به دخالت انسان نیست و تمام فعالیت های مربوط به شبکه برق سریع تر انجام می شوند.

سیستم هوش مصنوعی طوری طراحی شده تا در صورت وقوع هرگونه قطعی، به طور لحظه ای عملیات ترمیم خود از جمله مکان یابی اختلال، ایزوله سازی اختلال و احیای جریان برق را آغاز کند. به همین دلیل تامین برق به میزان قابل توجهی ارتقا یافته است.

یکی از ساکنان این منطقه به نشریه «ساوث چاینا مورنینگ پست» در این باره می گوید: اکنون قطعی برق تقریباً از بین رفته است. به محض قطع شدن برق، جریان آن دوباره وصل می شود و زندگی و کار ما به هیچ وجه تحت تاثیر آن قرار نمی گیرد.

با این وجود بیشتر مشکلات قطعی برق در این کشور به طور دستی برطرف می شوند.