ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۵۴۸ مطلب با کلمه‌ی کلیدی «هوش مصنوعی» ثبت شده است

تحلیل


رتبه دوم عربستان در آگاهی اجتماعی هوش مصنوعی

شنبه, ۲۶ فروردين ۱۴۰۲، ۰۴:۵۹ ب.ظ | ۰ نظر

به گفته کارشناسان، عربستان سعودی رتبه دوم جهانی را در آگاهی جامعه از هوش مصنوعی دارد.
به گزارش سایبربان؛ خبرگزاری عربستان سعودی (SPA) گزارش داد که این کشور در رتبه دوم آگاهی اجتماعی از هوش مصنوعی در جهان قرار دارد.

بررسی شاخص هوش مصنوعی در ششمین ویرایش آن، که به‌وسیله دانشگاه استنفورد (Stanford) آمریکا منتشر شد، نشان داد که میزان اعتماد شهروندان سعودی در برخورد با محصولات و خدمات هوش مصنوعی در این کشور بسیار زیاد است.

این کشور پس از چین قرار گرفت که از نظر مثبت‌اندیشی و خوش‌بینی شهروندان سعودی نسبت به محصولات و خدمات هوش مصنوعی ارائه شده در عربستان در مراحل فعلی و آینده رتبه اول را به خود اختصاص داد.

نظرسنجی شامل تعدادی معیار بود که مهم‌ترین آنها میزان دانش جامعه از مزایا و ارزش محصولات و خدمات هوش مصنوعی بود.

عربستان سعودی در مقام اول جهان، برابر با چین و بالاتر از کره جنوبی و آمریکا، در پرسشی در مورد تأثیر مثبت محصولات و خدمات هوش مصنوعی بر زندگی پاسخ دهندگان در نظرسنجی طی 3 تا 5 سال آینده قرار گرفت.

زمانی که این پرسش مطرح می‌شود که آیا محصولات و خدمات هوش مصنوعی زندگی پاسخگویان را آسان‌تر می‌کند یا خیر، عربستان سعودی در رتبه دوم جهان، بالاتر از کره جنوبی و برزیل، قرار گرفت.

همچنین زمانی که از پاسخ دهندگان در مورد دانش آنها درباره مزایا و ارزش محصولات و خدمات هوش مصنوعی پرسیده شد، در سطح جهانی بالاتر از هند، فرانسه و روسیه در رتبه دوم قرار گرفت.

کارشناسان معتقدند که تلاش‌ها در عربستان سعودی برای توسعه هوش مصنوعی متوقف نمی‌شود و ریاض در سال 2021 اعلام کرد که قصد دارد 400 شرکت در زمینه هوش مصنوعی تأسیس کند و در جذب سرمایه‌گذاری در این زمینه طی 10 سال آینده، حدود 80 میلیارد ریال سعودی مشارکت داشته باشد.

عبدالله بن شرف الغامدی (Abdullah bin Sharaf Al-Ghamdi)، رئیس اداره اطلاعات و هوش مصنوعی عربستان سعودی، در سال 2022 گفت که تا سال 2024، 70 درصد مؤسسات در این کشور از زیرساخت‌های مبتنی بر هوش مصنوعی و خدمات ابری هوشمند برای فعال کردن هوش مصنوعی استفاده خواهند کرد.

به گفته الغامدی، بیش از 50 درصد سازمان‌ها از خدمات هوش مصنوعی میزبانی شده استفاده می‌کنند و تا سال 2023 مجموعه‌های کاربردی خود را افزایش می‌دهند.

ارتش رژیم صهیونیستی فناوری هوش مصنوعی میدان نبرد را با ادعای مقابله با حماس و محافظت در برابر تهدید ایران ایجاد می‌کند.
به گزارش سایبربان؛ ارتش رژیم صهیونیستی بر این باور است که ادغام هوش مصنوعی (AI) در عملیات‌های نظامی یک جهش به جلو است، اما محققان نگرانی‌هایی را در مورد تشدید بالقوه هوش مصنوعی در میدان نبرد مطرح کرده‌اند.

اوری (Uri)، رئیس بخش داده و هوش مصنوعی، بخش تحول دیجیتال، به فاکس نیوز دیجیتال گفت : «ارتش اسرائیل پتانسیل زیادی برای یک جهش رو به جلو وجود دارد. هرکسی که بخواهد چنین تغییری ایجاد کند با چالش بزرگی روبرو است.»

به گزارش اورشلیم پست، ارتش اسرائیل در ماه فوریه امسال اعلام کرد که استفاده از هوش مصنوعی را در عملیات‌های خود آغاز کرده و روش‌های دیجیتال جدید به تولید 200 دارایی هدف جدید در طی یک عملیات 10 روزه در سال 2021 کمک کرد تا با موفقیت حداقل 2 فرمانده حماس را هدف قرار دهد.

یوآو (Yoav)، فرمانده علوم داده و هوش مصنوعی در مورد این عملیات ادعا کرد : «شکستن سد انسانی را به خاطر بسپارید؛ مواقعی بود که تقریباً یک سال برای ما زمان برد. چگونه این کار را انجام دهیم؟ ما زیر گروه‌های اصلی را می‌گیریم، حلقه نزدیک آنها [ارتباطات شخصی] و ویژگی‌های مربوطه را محاسبه، نتایج را رتبه‌بندی، آستانه‌ها را تعیین و از بازخورد افسران اطلاعاتی برای بهبود الگوریتم استفاده می‌کنیم.»

وی خاطرنشان کرد که ارتش اسرائیل حداقل یک فرمانده موشکی جوخه حماس و یکی از واحدهای موشکی ضد تانک حماس را از این طریق پیدا کرده است. او از جنگ 2021 غزه به عنوان نخستین جنگ دیجیتال یاد کرد و اظهار داشت که افسران چند پیشرفت بزرگ را مشاهده و سیستم ‌ا را 150 بار در 10 روز به‌روزرسانی کرده‌اند.

بحث آزاد در مورد استفاده ارتش اسرائیل از هوش مصنوعی باعث نگرانی 2 محقق به نام‌های تال میمران (Tal Mimran) و لیور واینشتاین (Lior Weinstein) از دانشگاه عبری اورشلیم شد. این زوج عجله برای پذیرش هوش مصنوعی را «نابه‌هنگام» نامیدند و هشدار دادند که استفاده از هوش مصنوعی به «احتیاط بیشتری» در هنگام استقرار ابزارها نیاز دارد.

یکی از نگرانی‌هایی که محققان در مقاله‌شان در وب‌سایت مؤسسه لیبر (Lieber) وست پوینت (West Point) منتشر کرده‌اند، بر عدم شفافیت در مورد چگونگی دستیابی هوش مصنوعی به نتیجه‌گیری‌های آنها، که اسرائیل براساس آن عمل می‌کند و همچنین نگرانی‌هایی مبنی بر اینکه چنین ابزارهایی ممکن است از سوی شرکای نظامی خصوصی مورد سوءاستفاده قرار گیرد، تمرکز کرده است.

به گفته محققان، بسیار مهم است که اسرائیل از این فناوری علیه چه کسی استفاده می‌کند و استفاده از آن علیه کشوری با فناوری‌های پیشرفته دیگر مانند ایران در مقابل ساکنان کرانه باختری بر «ادراکی» که پیرامون استفاده از این ابزارها ایجاد می‌شود، تأثیر می‌گذارد.

علاوه بر این، آنها استدلال کردند که استفاده از ابزارهای هوش مصنوعی گروه‌های دشمن را دعوت می‌کند تا از این ابزارها نیز علیه ارتش اسرائیل و شهروندان اسرائیلی استفاده کنند، با این استدلال که کاربرد ارتش اسرائیل استفاده متقابل از این ابزارها را توجیه می‌کند.

اوری این مسائل را به عنوان بخشی از چالش بزرگ تصدیق و تأکید کرد که عنصر انسانی برای استفاده منصفانه و ادغام فناوری هوش مصنوعی حیاتی است.

وی افزود : «ماهیت تحول دیجیتال تغییر این سازمان است. ما و بسیاری از ارگان‌هایی که با یکدیگر همکاری می‌کنند، به یک ارتباط نیاز داریم و سپس تحول آغاز می‌شود. بخشی از آن صحبت کردن به یک زبان است، بخشی از آن درک بزرگی فرصت و نوع تغییر است. ما به دنبال جایگزینی افراد نیستیم، بلکه به دنبال بهبود و ارتقای سطح اثربخشی عملیاتی هستیم. در شمارش شما به عنوان یک انسان محدودیتی وجود دارد که می‌توانید پردازش کنید.»

نگرانی آمریکا از ورود چین به هوش مصنوعی

جمعه, ۲۵ فروردين ۱۴۰۲، ۰۴:۲۱ ب.ظ | ۰ نظر

اعلام کشور چین برای توسعه هوش مصنوعی نگرانی‌هایی را در آمریکا و اروپا ایجاد کرده و درخواست‌هایی را برای اعمال مقررات و ممنوعیت ها علیه این جریان ایجاد کرده است.
به گزارش تسنیم به نقل از "ان تی وی" آلمان، کشور چین می خواهد از توسعه هوش مصنوعی حمایت کند . این بیانیه باعث نگرانی اروپا و ایالات متحده شده است و فراخوان های اعمال مقررات یا ممنوعیت ها بلندتر می شود.

به این ترتیب دستورات برنامه‌ریزی شده چین برای جهت‌گیری ایدئولوژیک سیستم‌های هوش مصنوعی آن، به درخواست‌ها در غرب برای تنظیم این صنعت به سرعت در حال تحول دامن زده است.

فلوریان تورسکی، وزیر امور مربوط به دیجیتالی سازی اتریش در این باره گفت که در صورت اجرای این طرح‌ها، لازم است سیستم‌های هوش مصنوعی ایجاد شده در چین از بازار اتحادیه اروپا حذف و در اروپا ممنوع شوند.

"چاک شومر"، رهبر اکثریت مجلس سنای ایالات متحده، همچنین به چین اشاره کرد و از نیاز به اقدام سریع با توجه به تأثیر هوش مصنوعی بر جامعه آمریکا و اقتصاد جهانی صحبت کرده و تاکید کرد که او در حال تدارک یک طرح غیرحزبی برای این منظور است.

تنظیم‌کننده اینترنت چین، CAC، روز سه‌شنبه اعلام کرد که از توسعه هوش مصنوعی مولد برای مثال، نوع فناوری ChatGPT پشتیبانی می‌کند . در این بیانیه آمده است: با این حال، محتوای متناظر باید با ارزش های اساسی سوسیالیستی مطابقت داشته باشد. بنابراین، ارائه‌دهندگان باید در قبال داده‌ها مسئول باشند و در صورت عدم رعایت قوانین باید منتظر مجازات باشند.

"تورسکی" اعلامیه چین را تهدیدی برای دموکراسی خوانده و گفت: هوش مصنوعی نباید از هیچ ایدئولوژی تحمیلی دولتی پیروی کند. این منجر به ورود سیستم های هوش مصنوعی چینی به اروپا می شود که ردپای ایدئولوژیک حزب کمونیست چین را دارند. بنابراین وی از کمیسیون اتحادیه اروپا خواسته است تا مجموعه قوانین مربوط به قانون هوش مصنوعی را در اسرع وقت تکمیل کند. این مسئله در نظر گرفته شده است تا اطمینان حاصل شود که از پتانسیل هوش مصنوعی می توان به طور ایمن استفاده کرد. تورسکی توضیح داد که نمی توان تا اوایل سال 2025 برای مقررات اتحادیه اروپا صبر کرد. دو سال پیش، کمیسیون اتحادیه اروپا اولین پیش‌نویس این قانون را با هدف محافظت از شهروندان در برابر خطرات هوش مصنوعی ارائه کرد.

به گفته وی با این حال، به دلیل توسعه سریع، امیدها برای توافق در سطح اتحادیه اروپا از بین رفت.

به گفته دفتر شومر، ایالات متحده ماه هاست در مورد یک چارچوب اساسی برای مقررات بحث کرده است و کارشناسان برجسته هوش مصنوعی نیز در این کار حضور داشتند. هدف ارائه مشخصاتی است که بتوان آن را با پیشرفت‌های بعدی تطبیق داد. در ابتدا هیچ نظری از سوی جمهوری خواهان وجود نداشت. آنها اکثریت مجلس نمایندگان را در اختیار دارند و به طور سنتی در مورد مقررات ایالتی تردید دارند. روز سه‌شنبه، دولت جو بایدن، رئیس‌جمهور آمریکا اولین گام‌ها را به سوی دستورالعمل‌های ممکن برداشت و اعلام کرد که یک کمیته مشورتی در وزارت بازرگانی خواستار بیانیه‌های عمومی درباره مکانیسم پاسخگویی برای هوش مصنوعی شد.

هوش مصنوعی مولد از طریق ChatGPT هلدینگ مایکروسافت OpenAI موجی در سیاست و تجارت ایجاد کرده است. به عنوان مثال، این برنامه می تواند به سوالات پاسخ دهد یا متون کامل را بر اساس چند کلمه کلیدی ایجاد کند. مقادیر زیاد و از پیش تغذیه شده متن به عنوان پایه عمل می کند. نگرانی هایی در مورد پاسخ های نادرست و حفاظت از داده ها در این تکنولوژی وجود دارد. ChatGPT در ایتالیا مسدود شده است. . افسر حفاظت از داده های فرانسه CNIL هم این اقدام را در دستور کار قرار داده است. در آلمان، وزارت دیجیتال فدرال این ممنوعیت را رد می کند.

استفاده و سواستفاده ایرانی‌ها از ChatGPT

سه شنبه, ۲۲ فروردين ۱۴۰۲، ۰۲:۱۸ ب.ظ | ۰ نظر

عباس پورخصالیان – تا پیش از معرفی چَتباتِ OpenAI در اکتبر سال 2022، برترینِ فراورده‌های هوش مصنوعی، روبات‌هایی خودکار بودند. عروس روبات‌های خودکار نیز خودروهای خودرانِ ساخت کارخانۀ تسلای ایلان ماسک

اپراتورها و آینده هوش مصنوعی در ایران

سه شنبه, ۲۲ فروردين ۱۴۰۲، ۱۱:۴۷ ق.ظ | ۰ نظر

هوش مصنوعی یا به اختصار AI اکنون وارد فاز رشد انفجاری خود شده و آینده بسیاری از فناوری‌های دیگر نیز بر پایه همین فناوری شکل می‌گیرد.  

توانایی هوش مصنوعی در هک نیمی از پسوردها

يكشنبه, ۲۰ فروردين ۱۴۰۲، ۰۶:۲۷ ب.ظ | ۰ نظر

متخصصان از مدل هوش مصنوعی سخن به میان می آورند که توان شکستن نیمی از پسوردهای موجود روی کرۀ زمین در کمتر از یک دقیقه را دارد!

به گزارش برنا، هوش مصنوعی (Artificial Intelligence) مولد تاکنون کاربرد های بسیاری برای کاربران داشته است. برخی از این کارکردها امکان دارد بسیار خطرناک باشند. طبق گزارش ۹to5Mac، سرویس مبتنی بر هوش مصنوعی به نام PassGAN قادر است نیمی از پسوردها را تنها کمتر از یک دقیقه تشخیص دهد. همچنین رمز عبور ۷۱ درصد از آن ها در کمتر از یک روز شناسایی شد.

ماه گذشته مایکروسافت (Microsoft) ضمن اشاره به خطرات هوش مصنوعی در آینده از سرویس جدیدی به نام Security Copilot رونمایی کرد که میتواند از بروز این خطرات جلوگیری کند. همچنین پژوهشگران امنیتی می توانند در مقابل سواستفاده از تجهیزات مدرن از این قابلیت استفاده کنند. یک شرکت امنیتی به نام Home security Heroes در این مورد تحقیقاتی را انجام داده است. این شرکت با این مطالعه چهره ترسناک و قدرتمند هوش مصنوعی مولد را نشان داده است. در این تحقیق از سیستم PassGAN و حدود ۱۵ میلیون نام کاربری و رمز عبور استفاده شد.

پس از این موضوع محققان امنیتی بطور دستی رمزهای عبور شکسته شده را مورد بررسی قرار دادند. البته PassGAN میتواند بطور خودکار در فهرست های فاش شده به سراغ توزیع رمزهای عبور واقعی رفته و آن ها را یاد بگیرد.

کاربران برای ایمن داشتن حساب های کاربری خود باید از رمز عبورهای ایمن تر استفاده کنند. یک رمز عبور ایمن شامل ۱۲ کاراکتر است که در آن حروف کوچک و بزرگ، عدد و نمادها استفاده شده باشد. این رمز عبورها به راحتی رمزهای عبور ساده تشخیص داده نخواهند شد.

۱۰ شغل در معرض خطر با هوش مصنوعی

يكشنبه, ۲۰ فروردين ۱۴۰۲، ۰۶:۱۱ ب.ظ | ۰ نظر

در مطلب زیر به بررسی قربانیان نگون بخت انقلاب تکنولوژی ۲۰۲۳ پرداخته‌ایم.
این روزها به هر طرف که نگاه می‌کنید صحبت از هوش مصنوعی است. همان طور که متاورس(محیط‌های مجازی سه بعدی، شبیه به زندگی واقعی) در سال ۲۰۲۲ بسیار بر سر زبانها بود، امسال نیز هوش مصنوعی روی کار آمده است؛ نوآوری تکنولوژیکی که یا نحوه زندگی ما را بهبود می‌بخشد یا آن را تهدید خواهد کرد.

اگرچه زندگی دوم (به انگلیسیSecond Life، یک دنیای مجازی است که در آن کاربران کامپیوتر می‌توانند یک شخصیت مجازی بسازند و زندگی مجازی را تجربه کنند) به واقعیت تبدیل نشد، اما احتمالا هوش مصنوعی بسیار تأثیرگذارتر خواهد بود. برخی آن را با ظهور اتوماسیون در چند دهه اخیر مقایسه می‌کنند، که در آن تمام صنایع توسط ماشین‌های روباتیک و خودکار تغییر شکل دادند. هوش مصنوعی نیز خبر از همین سرنوشت برای مشاغل اداری را می‌دهد و طبق گزارش اخیر گلدمن ساکس، تخمین زده می‌شود که هوش مصنوعی جایگزین ۳۰۰ میلیون کارگر انسانی شود. در اینجا به بررسی ۱۰ شغلی می‌پردازیم که هوش مصنوعی می تواند آنها را کاملا نابود کند.

 

۱- حسابدارها

گام بعدی در توسعه مدل‌های جدید هوش مصنوعی، آموزش برنامه‌های تخصصی‌تر خواهد بود، تا آنها بتوانند بجای آموزش در طیف وسیعی از داده‌ها، مسیرهای هدفمندتری را دنبال کنند. یکی از هدفمندترین و امیدوارکننده‌ترین این مسیرها، ساختن یک هوش مصنوعی برای انجام وظایف اصلی حسابداری است. شغل حسابداران محدود به قوانینی واضح و قابل درک است، و این دقیقا همان چیزی است که برای آموزش یک هوش مصنوعی استفاده می‌کنید.

در حال حاضر شرکت‌های حسابداری مانند Sage برای خودکار سازی فرآیندهای خود از هوش مصنوعی استفاده می‌کنند و با پایدار و قابل اعتماد شدن این الگوریتم‌ها، نیاز به نیروی کار انسانی کاهش می‌یابد. اتوماسیون، کار حسابدارانی که در سطوح پایین کار می‌کنند را حذف خواهد کرد و این صنعت تنها به حسابرسان و ناظران ارشد برای بررسی کارهای انجام شده توسط هوش مصنوعی نیاز خواهد داشت.

 

۲- مدیران محتوا

در مورد بار عاطفی محتوای شبکه‌های اجتماعی مانند فیس‌بوک و توییتر مطالب زیادی نوشته شده است. موضوعی که ناظران محتوای خود را مجبور می‌کنند تا عکس‌ها، ویدیوها و سایر محتواهای وحشتناک را فیلتر کنند تا بقیه، آنها را نبینند. بخش قابل توجهی از این کار قبلاً توسط الگوریتم‌های هوش مصنوعی بررسی شده است، اما اغلب، تصمیم نهایی باید توسط یک انسان گرفته شود. طبیعتا با پیشرفت این برنامه‌ها، تعداد تصمیمات انسانی کاهش می‌یابد و هوش مصنوعی روز به روز دقیق و دقیق تر می‌شود. با اینکه ما هرگز دوست نداریم کسی شغل خود را از دست بدهد، اما هر چقدر تعداد افرادی که مجبور هستند این اصلاحات وحشتناک را انجام دهند کمتر شود، بهتر است.

 

۳- معاونان و مشاوران حقوقی

این ایده قبلا مطرح شده که به هوش مصنوعی اجازه داده شود تا در دادگاه‌ها حاضر شده و پرونده‌ها را دنبال کنند، اما هنوز مطمئن نیستیم که هیچ الگوریتمی آماده باشد تا در مقابل یک قاضی حاضر شود و یا حتی مشتری را پیدا نخواهید کرد که دفاع از پرونده خود را به دست یک هوش مصنوعی بسپارد. اما احتمالا زمانی که وکلا بفهمند تا چه حد می‌توانند از هوش مصنوعی در بررسی رویه قضایی برای تهیه خلاصه پرونده‌ها و احکامی که به آن استناد می‌کنند استفاده کنند، رده‌های پایین‌تر شغلی در این زمینه، احساس آسیب‌پذیری خواهند کرد. هیچ پرونده‌ای بدون بررسی پیشینه‌های تاریخی و بدون کمک یک تیم که این کار را انجام دهند به دادگاه نخواهد رفت، و این کاری است که ماشین‌ها در انجام آن فوق‌العاده هستند. البته برای این شغل بخشی وجود دارد که نیاز به تفسیر دارد، و این کار را می‌توان به اعضای ارشد تیم سپرد.

 

۴- تصحیح کنندگان

همه می‌دانیم که توانایی ChatGPT برای تولید متون خوانا ثابت شده است، اما کیفیت واقعی آن متون می‌تواند بسیار ضعیف باشد. با این حال، از هوش مصنوعی می‌توان به عنوان یک مصحح برای متونی که توسط انسان‌ها نوشته شده است استفاده کرد. روش کار به این صورت است که در نرم‌افزارهایی مانند Google Docs که برای نوشتن و پردازش متون استفاده می‌شوند، زیر کلماتی که املای آنها غلط است یک خط قرمز کشیده می‌شود، و تصحیح این غلط‌ها، کاری است که به طور سنتی توسط انسان‌ها انجام می‌شده است. اما با گسترده شدن مجموعه داده‌های هوش مصنوعی، آنها می‌توانند به خوبی از عهده انجام این کار بربیایند.

 

۵- معامله گران

درک جریان آشفته بازارهای مالی کار سختی است، و افرادی که در راس این مشاغل هستند اغلب بر اساس غریزه و ادراک عمل می‌کنند. اما معامله‌گران سهام بانک‌های بزرگ، که در سطح مبتدی هستند و به تازگی از دانشگاه بازرگانی خارج شده‌اند، بیشتر وقت خود را صرف مدل‌سازی پیش‌بینی در برنامه اکسل و انجام مدیریت داده‌ها می‌کنند. این کاری نیست که اتکای زیادی به محاسبات مغز انسان داشته باشد، و انجام آن توسط هوش مصنوعی کارآمدتر خواهد بود؛ زیرا احتمال خطا کاهش یافته و هوش مصنوعی می‌تواند مدل‌سازی‌های مقایسه‌ای پیچیده‌تری را انجام دهد. افرادی با مشاغل سطح بالاتر و کسانی که در این بانک‌ها و صندوق‌ها نقش مهم‌تری دارند همچنان مورد نیاز خواهند بود، اما افراد پایین این هرم باید آماده باشند تا هوش مصنوعی خیلی زود جای آنها را بگیرد.

 

۶- تایپیست‌ها(کسانی که گفتار را به متن تبدیل می‌کنند)

این جایگزینی از مدت‌ها قبل آغاز شده است، زیرا الگوریتم‌های تشخیص صدا در دهه‌های گذشته با سرعت خیره‌کننده‌ای پیشرفت کرده‌اند. سیستم‌های تبدیل گفتار به متن برای اولین بار در سال ۱۹۵۲عرضه شدند، اما یادگیری ماشینی مدرن، سیستم‌ها را قادر ساخته تا مجموعه داده‌های عظیمی از گفتار انسان را برای ایجاد رونویسی صوتی فوق‌العاده دقیق و سریع دریافت کنند. مشاغل زیادی از جمله وکالت و روزنامه‌نگاری، به تایپ و تبدیل فایل‌های صورتی به نوشتاری وابسته هستند، و در آینده‌ای نزدیک تمام این کارها توسط ماشین‌ها انجام خواهند شد.

 

۷- طراحان گرافیک

از بین رفتن این شغل بسیار دردناک است، اما این واقعیت تلخی است که در حال وقوع است. مدل‌های هوش مصنوعی قبلاً توانایی ایجاد تصاویر در سبک‌های مختلف را نشان داده‌اند. طراحی گرافیکی، که اصول خاصی از رنگ، ترکیب و خوانایی را رعایت می کند، فرصت‌های زیادی برای آزمون و خطا داشته است. تصور کنید بتوانید یک متن و چند عکس را به یک هوش مصنوعی طراح بدهید و این هوش مصنوعی ده‌ها طرح مختلف برای یک مجله، بیلبورد، یا مطالب تصویری به شما ارائه دهد. وقتی مشتری طرحی را انتخاب می‌کند، تبدیل طرح انتخابی او به یک فایل نهایی و آماده چاپ کاری ساده است. ممکن است که "تخیلات" از بین رفته باشد، اما اکثریت قریب به اتفاق مشتریان طراحی، در وهله اول خواهان تخیل نیستند.

 

۸- خدمات مشتری(خدمات پس از فروش)

یکی از سرگرمی‌های آمریکایی‌ها شکایت از خدمات پس از فروش است، فرقی نمی‌کند که این خدمات از خارج برای آنها مهیا شود یا حتی ارائه‌دهنده آن انسان نباشد. همانطور که نرم‌افزارهای تبدیل متن به گفتار سریعتر و پیشرفته‌تر می‌شوند، پس باید انتظار داشته باشید کسی که آن طرف خط تلفن پاسخگوی شماست، هوش مصنوعی است. سرمایه‌گذاری بر روی هوش مصنوعی بسیار آسان‌تر از مرکز تماسی است که بسته به تعدادی از عوامل خارجی، هزینه‌های کارکنان آن غیرقابل پیش‌بینی است. همه ما به شنیدن پیغام‌های صوتی، هنگام تماس با شرکت‌ها و وصل شدن به منوهای مختلف پاسخگویی آنها آشنا هستیم و به آنها عادت کرده‌ایم. استفاده از سرویس خدمات مشتری که بصورت هوش مصنوعی باشد، گامی اجتناب ناپذیر است و صنایع نیز موافق این موضوع هستند.

 

۹- سربازان

تلفات جانی در عملیات نظامی، بار سنگینی برای یک کشور است. به همین دلیل است که استفاده از وسایل نقیله‌ای که از راه دور توسط انسان‌ها هدایت می‌شوند و همچنین سایر پیشرفت‌های تکنولوژیکی، به شکل چشم‌گیری افزایش یافته است. همچنین کسانی که به میدان‌های جنگ می‌روند، دچار آسیب‌های روانی می‌شوند که باید بتوانیم از وقوع آنها جلوگیری کنیم. تجهیزات جنگی خودکار، پدیده‌ای جدید نیستند. اما پیشرفت‌های فناوری، این امکان را ایجاد کرده تا هواپیماهای بدون سرنشین و سایر سلاح‌های جنگی، بتوانند بدون نظارت انسانی تصمیم گیری کرده و بجنگند. ممکن است جنگ جهانی سوم، جنگی بین ماشین‌ها با یکدیگر، یا جنگ ماشین‌ها با ما باشد!

 

۱۰- نویسندگان

تصور نکنید که همه متخصصان واژه‌شناس در دنیا، توسط قدرت هوش مصنوعی بیکار خواهند شد. هوش مصنوعی هنوز این توانایی را ندارد که بتواند رمانی ارزشمند در مورد شرایط انسان‌ها بنویسد. اما می‌تواند نوشته‌های زیادی فقط برای پر کردن فضای رسانه‌ها، جلب رضایت موتورهای جستجو و شاید برای ارائه اطلاعات مفید تولید کند. برخی از رسانه‌ها قبلاً از برنامه‌هایی مانند ChatGPT برای نوشتن مقالات و پست‌های وبلاگ استفاده می‌کردند. با اینکه آنها تابحال به نتایج عالی نرسیده‌اند، اما در حال نزدیک شدن به نتیجه دلخواه هستند. اگر برای شما حجم مطالب تولیدی مهمتر از کیفیت است، هوش مصنوعی پیشنهاد جذابی برایتان خواهد بود. فقط امیدوار باشید که یک هوش مصنوعی کلماتی را که در حال حاضر مشغول خواندن آن هستید را ننوشته باشد!

منبع: خبرآنلاین

آلمان به دنبال ممنوعیت چت جی‌پی‌تی است

يكشنبه, ۲۰ فروردين ۱۴۰۲، ۰۵:۴۷ ب.ظ | ۰ نظر

ایتالیا نخستین کشور غربی بود که ربات چت جی‌پی‌تی را ممنوع کرد، با این حال، این برنامه در کشور‌هایی مانند چین، ایران، کره شمالی و روسیه نیز از دسترس خارج است.
به گزارش خبرگزاری صداوسیما، به نقل از پایگاه اینترنتی ایندیپندنت، در پی اقدام ایتالیا برای ممنوعیت ربات چت هوش مصنوعی جی‌پی‌تی، آلمان نیز درنظر دارد به دلیل نگرانی درمورد حریم خصوصی، استفاده از آن را ممنوع کند.

«اولریش کلبر» رئیس حفاظت از داده‌های کشور آلمان، به روزنامه هندلسبلات (Handelsblatt) گفت به دنبال ممنوعیت این ربات چت هوش مصنوعی در ایتالیا در هفته گذشته، ناظران آلمانی با همتایان ایتالیایی خود در ارتباط هستند.

کلبر گفت: «دراصل، احتمال دارد چنین اقدامی در آلمان نیز صورت بگیرد.

پس از آنکه مقام‌های حفاظت داده‌های ایتالیا به نتیجه رسیدند که این سامانه ربات چت هوش مصنوعی مبنای قانونی مناسبی برای جمع‌آوری اطلاعات شخصی افرادی که از آن استفاده می‌کنند ندارد، آن را مسدود کردند.

اوپن ای‌آی سازنده چت جی‌پی‌تی برای کمک به الگوریتم هوش مصنوعی که پاسخ‌ها را تولید می‌کند، داده‌هایی را جمع‌آوری می‌کند.

مقام‌های ایتالیایی همچنین اوپن ای‌آی را متهم کردند که بررسی‌های تایید سنی را برای کاربران چت‌جی‌پی‌تی انجام نداده است، چون کاربران جوان احتمالا در معرض «پاسخ‌های نامناسب» قرار دارند.

اداره حفاظت از داده‌های ایتالیا (GPDP) گفت که اوپن ای‌آی برای توجیه «جمع‌آوری و ذخیره انبوه داده‌های شخصی به منظور «آموزش» الگوریتم‌های زیربنایی عملکرد این پلتفرم» هیچ مبنای قانونی ندارد.

به نوشته ایندیپندنت، گویا سایر مقام‌های حفاظت داده‌های اروپایی، از جمله ناظران فرانسه و ایرلند نیز با سازمان حفاظت داده‌های ایتالیا در ارتباط هستند.

سخنگوی کمیسیون حفاظت داده‌های ایرلند (DPC) به خبرگزاری رویترز گفت: «ما با ناظر ایتالیایی تماس داریم تا مبنای اقدام آن‌ها را بفهمیم. ما با تمام مقام‌های حفاظت از داده‌های اتحادیه اروپا درمورد این موضوع همکاری خواهیم کرد».

ایندیپندنت در ادامه نوشت: ایتالیا نخستین کشور غربی بود که چت جی‌پی‌تی را ممنوع کرد، با این حال، این برنامه در کشور‌هایی مانند چین، ایران، کره شمالی و روسیه که بسیاری از برنامه‌های آمریکا در آن مسدود است، نیز از دسترس خارج است.

سازمان مصرف‌کنندگان اروپایی (BEUC) از اتحادیه اروپا خواست خطر‌های چت جی‌پی‌تی و ربات‌های مشابه چت را برای مصرف‌کنندگان اروپایی بررسی کند. اوپن ای‌آی به درخواست ایندیپندنت برای ابراز نظر درمورد این ممنوعیت پاسخ نداد.

این شرکت به‌دنبال ممنوعیت چت جی‌پی‌تی در ایتالیا آن را در این کشور مسدود کرد و دیگر اطلاعات کاربران ایتالیایی را پردازش نمی‌کند.

خطرات چت‌ربات‌های هوش مصنوعی برای حریم خصوصی

يكشنبه, ۲۰ فروردين ۱۴۰۲، ۰۵:۳۸ ب.ظ | ۰ نظر

ربات‌های چت هوش مصنوعی، از نظر استانداردهای فنی نسبتاً قدیمی هستند، اما جدیدترین محصول که توسط چت جی‌پی‌تی و بارد هدایت می‌شود، بسیار قوی‌تر از اجداد خود فعالیت می‌کنند.

به گزارش خبرگزاری صداوسیما به نقل از انگجت، انفجار اخیر در توسعه هوش مصنوعی نگرانی‌هایی را در مورد اطلاعات نادرست، سرقت ادبی و تولید بدافزارها ایجاد کرده است.

اکنون این سوال مطرح می‌شود که هوش مصنوعی ممکن است چه مشکلاتی برای حریم خصوصی کاربران عادی اینترنت ایجاد کند؟ به گفته کارشناسان، پاسخ این سوال تا حد زیادی به نحوه آموزش این ربات‌ها و میزان برنامه‌ریزی ما برای تعامل با آنها بستگی دارد.

چت‌ربات‌های هوش مصنوعی به منظور تکرار تعاملات شبیه انسان بر روی مقادیر انبوه داده آموزش می‌بینند.

«مگا سریواستاوا» دانشجوی دکترای دپارتمان علوم کامپیوتر استنفورد و عضو سابق هوش مصنوعی مایکروسافت ریسرچ، در این باره می‌گوید: این مدل‌ها در حال واکاوی مجموعه بزرگی از داده‌های در دسترس عموم در اینترنت هستند.

حتی اگر دسترسی به این اطلاعات برای کاربران معمولی دشوار باشد، این امکان وجود دارد که توسط ربات‌چت ذخیره شود.

«دیو لی» ستون‌نویس نشریه بلومبرگ در توییتر نوشت: وقتی شخصی از چت جی‌پی‌تی خواست تا در پلتفرم پیام‌رسانی رمزگذاری‌شده چت کند، شماره تلفن دقیق او را ارائه کرد.

وقتی از OpenAI، شرکت سازنده چت جی‌پی‌تی پرسیدیم که چه اقداماتی برای محافظت از حریم خصوصی داده‌ها انجام می‌دهد‏، پاسخی نداد.

بنابراین ما بهترین کار را انجام دادیم و از خود چت جی‌پی‌تی پرسیدیم. چت جی‌پی‌تی به ما گفت که برنامه‌ریزی شده تا از استانداردهای اخلاقی و قانونی که از حریم خصوصی و اطلاعات شخصی کاربران محافظت می‌کند، پیروی کند و به اطلاعات شخصی دسترسی ندارد.

گوگل هم در پاسخ به این سوال گفت که اقدامات مشابهی را در بارد برنامه‌ریزی کرده تا از اشتراک‌گذاری اطلاعات شخصی در طول مکالمه جلوگیری کند.

چت جی‌پی‌تی‏، دومین عامل مهمی که ممکن است توسط هوش مصنوعی برای حفظ حریم خصوصی ایجاد خطر کند را از طریق اطلاعات به اشتراک گذاشته‌شده مستقیم عنوان کرد.

خط‌مشی رازداری OpenAI به اطلاعات جمع‌آوری شده از کاربران اشاره می‌کند که می‌توانند قابل شناسایی باشند.

چت جی‌پی‌تی پس از راه‌اندازی به کاربر هشدار می‌دهد که ممکن است مکالمات توسط مربیان هوش مصنوعی برای بهبود سیستم‌ها بررسی شود.

در مقابل‏، بارد خط‌ مشی رازداری مستقلی ندارد اما از سند عمومی حریم خصوصی به اشتراک گذاشته شده توسط سایر محصولات گوگل استفاده می‌کند.

این شرکت گفت که مکالمات با بارد نباید در حساب گوگل کاربر ذخیره شود و کاربران می توانند مکالماتشان را حذف کنند.

«ریشی جتلی» استاد و محقق برجسته علوم انسانی در ویرجینیا در این زمینه گفت: کاربران باید در مورد سیاست‌های حفظ حریم خصوصی و رویه‌های حفاظت از داده‌ها آگاه باشند.

بر اساس صفحه پرسش‌های متداول سرویس چت جی‌پی‌تی استفاده از امکان مکالمات پاک، عملاً داده‌های کاربر را حذف نمی‌کند و OpenAI نیز قادر به حذف درخواست‌های خاص نیست.

در حالی که OpenAI کاربرانش را از اشتراک‌گذاری هر داده حساس منع می‌کند، ظاهراً تنها راه برای حذف اطلاعات شناسایی شخصیِ ارائه‌شده به چت جی‌پی‌تی، حذف حساب کاربر است که همه داده‌های مرتبط را برای همیشه حذف می‌کند.

در نتیجه برای آینده، بهتر است با این نوع ربات‌های چت با همان سوءظنی برخورد کنیم که کاربران باید با هر محصول فناوری دیگری رفتار کنند.

به گفته «مگا سریواستاوا»، کاربری که از این مدل‌های هوش مصنوعی استفاده می‌کند باید با این توقع وارد شود که هرگونه تعامل با مدل، نوعی بازی است که OpenAI یا هر یک از این شرکت‌ها می‌توانند از آن به نفع خود استفاده کنند.

برد لاتاری به کمک «ChatGPT»!

شنبه, ۱۹ فروردين ۱۴۰۲، ۰۴:۲۱ ب.ظ | ۰ نظر

یک مرد تایوانی ادعا می‌کند از فناوری «ChatGPT» برای تولید اعدادی استفاده کرده است که به او در برنده شدن قرعه‌کشی کمک کرده‌اند.

به گزارش ایسنا و به نقل از دیجیتال ترندز، «پاتاویکورن بونرین»(Patthawikorn Boonrin)، یک کاربر تایوانی فناوری «ChatGPT» اخیرا پس از به اشتراک گذاشتن جزئیات برنده شدن خود در لاتاری، در «تیک‌تاک»(TikTok) معروف شده است. بونرین در یک ویدئو، درباره نحوه استفاده از چت‌بات هوش مصنوعی شرکت «OpenAI» برای تولید اعدادی توضیح می‌دهد که آنها را برای شرکت در قرعه‌کشی و برنده شدن به کار گرفته است. راهبرد او شامل وارد کردن چند پرسش فرضی و تعدادی از اعداد برنده قبلی برای جستجوی ChatGPT است.

اعداد برنده بونرین برای قرعه‌کشی ۵۷، ۲۷، ۲۹ و ۹۹ بود و او ۲۰۰۰ بات تایلند معادل ۵۹ دلار آمریکا برنده شد. اگرچه این یک جایزه بزرگ نبود اما بونرین در مصاحبه با یک نشریه محلی گفت که از این راهبرد برای تولید اعداد قرعه‌کشی استفاده کرد و ChatGPT به او گفت که در مورد این روش، بیش از اندازه وسواس نداشته باشد و خاطرنشان کرد که برنده شدن در بخت‌آزمایی، یک شانس است. همچنین، ChatGPT به او پیشنهاد کرد که بیرون برود و کمی ورزش کند.

بونرین قصد دارد بیشتر در مورد تجربه خود در استفاده از ChatGPT برای تولید شماره‌های قرعه‌کشی صحبت کند. مطمئنا اگر بونرین یک برد دیگر و حتی بزرگتر به دست بیاورد، توجه بیشتری را به خود جلب خواهد کرد. بونرین ممکن است شرکت‌های قرعه‌کشی را به گفتگوی مداوم پیرامون اصول اخلاقی ChatGPT وارد کند.

از زمان آغاز کار ChatGPT در نوامبر ۲۰۲۲، نظرات متعددی درباره اخلاق و مشکلات مربوط به این فناوری وجود داشته است. موسساتی مانند کالج‌ها و دانشگاه‌ها، استفاده از این چت‌بات هوش مصنوعی را با این فرض که ممکن است سرقت ادبی و تقلب را در دانشگاه‌ها افزایش دهد، ممنوع کرده‌اند. در همین حال، چندین حوزه از جمله روزنامه‌نگاری، ارتباطات، هنر، فناوری و سایر صنایع از این خدمات استقبال کرده‌اند.

با وجود این، اجرای ChatGPT بدون حماقت نبوده است. مشخص شد انتشاراتی که هوش مصنوعی را برای تولید بی‌سروصدای مقالات به کار می‌برند، قطعاتی حاوی اطلاعات نادرست منتشر می‌کنند. آثار هنری که ظاهرا شبیه انسان هستند، اندام‌های لازم را ندارند و مدل زبانی GPT که توسط شرکت‌های دیگر استفاده می‌شود، زمانی که در معرض دید عموم قرار گرفت، نادرست عمل کرد.

نمی‌توان گفت که اگر افراد بیشتری سعی کنند ChatGPT را به عنوان روشی برای تولید اعداد قرعه‌کشی به کار ببرند، چه مشکلاتی ممکن است پیش بیاید.

تلاش چت جی‌پی‌تی برای رفع فیلتر در ایتالیا

شنبه, ۱۹ فروردين ۱۴۰۲، ۰۳:۳۷ ب.ظ | ۰ نظر

آژانس حفاظت از داده‌های ایتالیا گفت: شرکت OpenAI (سازنده چت جی‌پی‌تی) قرار است اقداماتی را در جهت رفع نگرانی‌هایی که منجر به ممنوعیت این فناوری در ایتالیا شده، ارائه دهد.
به گزارش خبرگزاری صداوسیما به نقل از رویترز، آژانس حفاظت از داده‌های ایتالیا گفت: OpenAI، سازنده چت جی پی تی، قصد دارد اقداماتی را برای رفع نگرانی‌هایی که منجر به ممنوعیت این فناوری در ایتالیا شده، ارائه دهد.

شرکت OpenAI تحت حمایت مایکروسافت، پس از آن که این آژانس هفته گذشته چت جی پی تی را به طور موقت محدود و تحقیقاتی را در مورد نقض مشکوک به قوانین حریم خصوصی آغاز کرد، چت جی پی تی را در ایتالیا آفلاین کرد.

این آژانس هفته گذشته OpenAI را متهم به اینکه سن کاربران چت جی پی تی را بررسی نکرده و عدم وجود هرگونه مبنای قانونی که جمع آوری و ذخیره گسترده داده‌های شخصی را توجیه کند، متهم کرد.

روز پنجشنبه این آژانس اعلام کرد که قصد ندارد مانع توسعه هوش مصنوعی شود، اما بر اهمیت احترام به قوانین با هدف حفاظت از اطلاعات شخصی شهروندان ایتالیایی و اروپایی تاکید کرد.

این آژانس گفت: OpenAI متعهد شد که در مورد نحوه مدیریت داده‌های کاربر و تایید سن کاربر شفاف‌تر عمل کند.

این شرکت هم گفت که سندی را در مورد اقدامات لازم برای پاسخگویی به درخواست‌های این آژانس ارسال خواهد کرد.

شرکت OpenAI یک پست وبلاگی با عنوان رویکرد ما به ایمنی هوش مصنوعی منتشر کرد و در آن گفت که در حال تلاش برای ایجاد سیاست‌های ظریف در برابر رفتار‌هایی است که نشان دهنده یک خطر واقعی برای مردم است.

در این بیانیه آمده: ما از داده‌ها برای فروش خدمات، تبلیغات یا ساختن پروفایل افراد استفاده نمی‌کنیم. ما از داده‌ها استفاده می‌کنیم تا مدل‌ها را برای افراد مفیدتر کنیم. برای مثال، چت جی پی تی با آموزش بیشتر در مورد مکالمه‌ای که مردم با آن دارند، بهبود می‌یابد. در حالی که برخی از داده‌های آموزشی ما شامل اطلاعات شخصی است که در اینترنت در دسترس است، ما می‌خواهیم مدل‌های ما در مورد جهان یاد بگیرند، نه افراد خصوصی.

این شرکت گفت: در صورت امکان اطلاعات شخصی را از مجموعه داده‌های خود حذف می‌کند.

ممنوعیت ایتالیا، حساسیت سایر تنظیم‌کننده‌های حریم خصوصی در اروپا را برانگیخته و در حال بررسی این هستند که آیا اقدامات سخت‌تر برای چت‌بات‌ها مورد نیاز است یا خیر.

در ماه فوریه، آژانس حفاظت از داده‌های ایتالیا شرکت ربات چت هوش مصنوعی Replika را از استفاده از اطلاعات شخصی کاربران ایتالیایی منع کرد و دلیل آن را خطراتی برای خردسالان و افراد احساسی دانست.

 

کار و بار سکه فیلترشکن فروش‌های ایتالیایی بعد از فیلتر یک اپلیکیشن

با محدود شدن دسترسی به «چت جی‌پی‌تی» در ایتالیا کاربران اینترنت در این کشور در به در دنبال فیلترشکن می‌گردند و جستجوی کلمه «VPN» رشدی باورنکردنی داشته است.

با فیلترشدن سرویس هوش مصنوعی محبوب «چت جی‌پی‌تی» در ایتالیا مردم این کشور بیش از هر زمانی دیگری اینترنت را برای یافتن فیلترشکن جستجو می‌کنند.

به گزارش خبرآنلاین، یک نهاد نظارتی در ایتالیا جمعه گذشته ممنوعیت فوری دسترسی به ربات چتِ محبوبِ مبتنی بر هوش مصنوعی ساخته شرکت آمریکایی «اُپن اِی. آی. / OpenAI» به دلیل ادعای نقض حریم خصوصی را صادر کرد.

حالا با محدود شدن دسترسی به این سرویس در ایتالیا کاربران اینترنت در این کشور در به در دنبال فیلترشکن می‌گردند و جستجوی کلمه «VPN» رشدی باورنکردنی داشته است.

روش پاسخ چت هوش مصنوعی به سؤالات

شنبه, ۱۹ فروردين ۱۴۰۲، ۰۳:۲۵ ب.ظ | ۰ نظر

این روزها در هر جمعی که باشید امکان ندارد حرف و حدیثی از هوش مصنوعی و چت‌جی‌پی‌تی نشنوید. برخی از افراد آن را یک اتفاق بسیار مهم و در واقع یک انقلاب در حوزه هوش مصنوعی می‌دانند و بسیاری حتی از سازوکار آن بی‌اطلاعند. در واقع ربات ChatGPT با درک بهتر زبان طبیعی انسان جهت ارائه پاسخ‌های دقیق‌ طراحی شده است.

تبیان نوشت: ChatGPT دستاورد شرکت تحقیقاتی OpenAI است که یک نمونه اولیه از چت‌بات دیالوگ‌ محور مبتنی بر هوش مصنوعی به حساب می‌آید که می‌تواند زبان طبیعی انسان را متوجه شود و متون نوشتاری بسیار دقیقی مشابه انسان تولید کند.
این دستاورد توانسته انقلابی در حوزه هوش مصنوعی ایجاد کند و  به کاربر این قابلیت را می‌دهد که با یک ربات صحبت کند و از او سوال بپرسد. این ربات به قدری پتانسیل بالایی دارد که توانسته به راحتی مقاله بنویسد، امتحان بدهد، ایمیل بفرستد و حتی مسائل پیچیده برنامه نویسی و ریاضیات را حل کند.

 

چت هوش مصنوعی چطور کار می‌کند؟

اما سؤالی که ذهن بسیاری از ما را درگیر کرده این است که این فناوری چگونه کار می‌کند و اصلا جواب این همه سوال را از کجا می‌آورد. اگر به صورت تخصصی بخواهیم جواب این پاسخ را بدهیم باید ابتدا اطلاعاتی درباره پردازش زبان طبیعی و مدل زبانی بزرگ داشته باشیم.
پردازش زبان طبیعی (Natural Language Processing) که به اختصار NLP نیز نامیده می‌شود، روشی است برای درک زبان انسانی برای رایانه؛ این علم یکی از زیر شاخه‌های دانش هوش مصنوعی محسوب می‌شود و به رایانه‌ها کمک می‌کند تا با آگاهی از چگونگی استفاده بشر از زبان، زبان انسانی را درک کند.
حال جدیدترین پیشرفت‌ها در حوزه پردازش زبان طبیعی مدل‌های زبانی بزرگ (Large language model) یا به اختصار LLM هستند. از این مدل‌های بزرگ زبانی می‌توان به LaMDA و یا GPT-3 اشاره کرد.
GPT-3 که مخفف Generative Pre-trained Transformer است، یک مدل زبانی به حساب می‌آید که از یادگیری عمیق برای تولید متنی شبیه انسان استفاده می‌کند. حال ChatGPT نیز در واقع مبتنی بر نسخه‌ی به‌روز شده GPT-3 است. LaMDA هم همان مدل زبانی است که چند ماه پیش، یکی از کارمندان گوگل بنام بلیک لموین مدعی شد این مدل زبانی خودآگاه است و به ادراک رسیده است. در واقع این کیفیت متن تولید شده توسط این مدل‌های زبانی و به ویژه GPT-3 به حدی بالا است که تعیین اینکه آیا توسط انسان نوشته شده‌است یا خیر، دشوار است.
حال برگردیم به موضوع اصلی، ChatGPT یک مدل زبان مبتنی بر ترانسفورماتور است که از تکنیک‌های یادگیری عمیق برای تولید متن استفاده می‌کند.
ترانسفورمر یا تبدیل کننده بنابر تعریف گوگل مدلی تولید می‌کند که می‌تواند برای خواندن کلمات پشت سرهم (مثلا یک جمله یا پاراگراف) آموزش داده شود و به نحوه‌ی ارتباط آن کلمات با یکدیگر را بررسی و سپس پیش‌بینی می‌کند که به‌نظرش، کلمات بعدی چه خواهند بود. به زبان ساده یعنی ترانسفورمر به جای بررسی کلمه به کلمه کل جملات را هم‌ زمان بررسی می‌کند و می‌تواند روابط بین آن‌ها را برای درک بهتر کلام ورودی و متناسب با موقعیتی که این جملات به‌کار رفته‌اند، مدل‌سازی کند.

 

این سیستم چطور پاسخ درست با جمله‌بندی مناسب ارائه می‌‌دهد؟

وقتی کاربر یک سؤال می‌پرسد و یا یک درخواستی دارد، چت جی‌پی‌تی آن را به عنوان اطلاعات ورودی دریافت می‌کند و از این اطلاعات برای ایجاد یک پاسخ منسجم و مرتبط با زمینه استفاده می‌کند. هوش مصنوعی از طریق استفاده از تکنیک‌های یادگیری عمیق، الگوریتم‌های آموزش داده شده و با استفاده از منبع عظیم داده‌های متنی که دارد، می‌تواند پاسخی را تولید کند که هم از نظر گرامری صحیح و هم از نظر معنایی معنی‌دار باشد. البته اکثر کارشناسان بر این باورند که این گونه سوال و جواب و شیوه پاسخگویی برای افراد عادی ساخته شده و نه متخصصان هر حوزه. در واقع اینگونه برداشت می‌شود که پاسخ‌های ارائه شده در صد در صد مواقع درست نیست و نباید در موارد تخصصی به آن تکیه کرد.

 

ChatGPT با موتور جستجو چه تفاوتی دارد؟

حال که تا حدودی با نحوه کار این ربات آشنا شدیم، این سؤال پدید می‌آید که پس چه تفاوتی با موتورهای جستجو دارد؟
هدف این چت‌بات گفتگو با کاربر طراحی شده در حالیکه موتور جستجو، فهرستی از داده‌های موجود بر روی شبکه اینترنت را تهیه می‌کند. یعنی ChatGPT توانایی جستجو در داده‌های موجود بر روی شبکه اینترنت را ندارد و از اطلاعاتی که برای آموزش آن استفاده شده و استفاده از منبع اطلاعاتش در ارائه خروجی استفاده می‌کند. در واقع تا عمق بسیار زیادی از کتاب‌ها، مقالات و محتواهای منتشر شده بر بستر اینترنت را تا پایان سال 2021 خوانده و ذخیره کرده است. برای درک این مطلب یک مثال می‌زنیم: فرض کنید می‌خواهید نتیجه یک مسابقه فوتبال را که ساعتی قبل به پایان رسیده بدانید و یا مثلا قیمت روز بیت کوین را بپرسید، قاعدتا پاسخ اشتباه می‌دهد، در صورتی که در کسری از ثانیه موتور جستجوی گوگل پاسخ صحیح را به شما ارائه می‌دهد.
البته ناگفته نماند نسخه حرفه‌ای‌تر ChatGPTکه اصطلاحا به آن Playground یا زمین بازی می‌گویند، به اینترنت متصل است، قابلیت جستجو و تنظیمات دارد ولی مانند ChatGPT رایگان نیست و هزینه اشتراک ماهانه دارد. ولی چیزی که این روزها اکثر افراد درباره آن صحبت می‌کنند، چت جی‌پی‌تی است که اطلاعاتش تا آخر 2021 بروز شده و نواقصی در خود دارد که نمی‌شود به طور کامل به پاسخ‌های آن اتکا کرد و بیشتر به عنوان یک مشاور کارایی دارد.

پایان پیام/ت

 

ورود علی بابا به میدان رقابت با ChatGPT

شنبه, ۱۹ فروردين ۱۴۰۲، ۰۳:۱۳ ب.ظ | ۰ نظر

شرکت علی‌بابا آزمایش مدل هوش مصنوعی خود را آغاز کرده است و می‌خواهد با این محصول به جنگ ChatGPT برود.
به گزارش خبرگزاری صدا و سیما، شرکت علی‌بابا، غول تجارت الکترونیک چین، درحال کار روی یک مدل هوش مصنوعی جدید است و از کاربران دعوت کرده تا به آزمایش چت‌بات آن‌ها موسوم به Tongyi Qianwen بپردازند. این چت‌بات در رقابت با ChatGPT ساخته شده که در ماه‌های اخیر توجهات بسیاری را به خود جلب کرده است.
براساس گزارش رویترز، علی‌بابا به‌دنبال شرکت‌هایی می‌گردد که حاضر به آزمایش چت‌بات هوش مصنوعی آن‌ها باشند. این چت‌بات ظاهراً نه برای عموم کاربران، بلکه با هدف استفاده تجاری توسط کسب‌وکار‌ها ساخته شده است. علی‌بابا در همین زمینه مکاتباتی را از طریق WeChat با شرکت‌ها انجام داده تا آزمایش این نرم‌افزار را شروع کنند.
خبرگزاری South China Morning Post نیز می‌گوید مشتریان تجاری این شرکت می‌توانند به‌وسیله اکانت رسمی WeChat کسب‌وکار ابری علی‌بابا به این چت‌بات دسترسی پیدا کنند. افرادی که مایل به انجام این کار هستند، می‌توانند شماره تلفن و آدرس ایمیل خود را در اختیار این شرکت قرار دهند تا با آن‌ها تماس برقرار شود.
درحال‌حاضر اطلاعات زیادی درباره قابلیت‌های Tongyi Qianwen در دسترس نیست، اما کسب‌وکار ابری علی‌بابا سه‌شنبه همین هفته رویدادی برگزار خواهد کرد تا به‌صورت رسمی از این چت‌بات پرده بردارد. پس از این مراسم می‌توانیم مقایسه دقیق‌تری بین این هوش مصنوعی، ChatGPT، بینگ مایکروسافت و بارد گوگل داشته باشیم.
با توجه به رقابت سنگین شرکت‌های فناوری در حوزه هوش مصنوعی، اگر Tongyi Qianwen برتری خاصی نسبت به محصولات رقبا داشته باشد، بقیه شرکت‌ها هم طبیعتاً بیکار نخواهند نشست و به‌دنبال توسعه مدل‌های خود می‌روند تا از این رقابت عقب نمانند.
بلومبرگ می‌گوید نام چت‌بات علی‌بابا با الهام از «منسیوس»، فیلسوف چینی، انتخاب شده است و ترجمه آن تقریباً معادل «حقیقت هزاران سؤال» است. از آنجایی که وب‌سایت مربوط به این سرویس تنها به زبان چینی در دسترس است، بعید به‌نظر می‌رسد که خود مدل هوش مصنوعی با زبان‌های دیگری عرضه شود.

تفاوت عکس‌های واقعی با عکس‌های هوش مصنوعی

جمعه, ۱۸ فروردين ۱۴۰۲، ۰۴:۳۸ ب.ظ | ۰ نظر

سیستم‌های تولید تصویر مبتنی بر هوش مصنوعی تشخیص عکس‌های جعلی را چنان سخت می‌کنند که برای شناسایی آن‌ها مجدد به هوش مصنوعی نیاز داریم.

به گزارش برنا؛ شاید عکس‌هایی را دیده باشید که چیز دیگری را نشان می‌دهند، مانند تصاویر بازداشت دونالد ترامپ، رئیس‌جمهور سابق آمریکا هفته گذشته یا یک کت سفید شیک و درخشان به تن پاپ در فرانسه.

این تصاویر ویروسی اخیر ثمره سیستم‌های هوش مصنوعی است که درخواست متنی کاربر را برای ایجاد تصاویر پردازش می‌کند. آن‌ها نشان می‌دهند که چگونه این برنامه‌ها به سرعت توسعه یافته و اکنون به اندازه‌ای قانع‌کننده هستند که یک ناظر را ناخواسته فریب دهند.

پس چگونه کاربران می‌توانند تصاویری را که ممکن است توسط یک سیستم هوش مصنوعی مانند DALL-E، Midjourney یا Stable Diffusion تولید شده باشد، تشخیص دهند؟ هر مولد تصویر هوش مصنوعی و هر تصویر از هر مولد مشخصی در میزان متقاعدکننده بودن و اینکه چه علائمی ممکن است الگوریتم خود را از بین ببرد، متفاوت است؛ به عنوان مثال، سیستم‌های هوش مصنوعی در طول تاریخ برای تقلید از دست‌های انسان تلاش کرده‌اند و زائده‌های درهم ریخته با ارقام بیش از حد تولید کرده‌اند. با این حال با پیشرفت فناوری، به نظر می‌رسد سیستم‌هایی مانند Midjourney V۵ این مشکل را برطرف کرده‌اند، حداقل در برخی نمونه‌ها. در کل کارشناسان می‌گویند تشخیص بهترین تصاویر از بهترین ژنراتور‌ها اگر غیرممکن نباشد، دشوار است.

شیام ساندار محقق دانشگاه ایالتی پنسیلوانیا که تاثیرات روانی فناوری‌های رسانه‌ای را مطالعه می‌کند، می‌گوید: «از نظر کاری که تولیدکنندگان تصویر هوش مصنوعی قادر به انجام آن هستند، بسیار شگفت‌انگیز است. در یک سال گذشته یک جهش بزرگ از نظر توانایی‌های تولید تصویر صورت گرفته است».
ساندار اشاره می‌کند که برخی از عوامل پشت این جهش در توانایی عبارتند از تعداد روزافزون تصاویر موجود برای آموزش چنین سیستم‌های هوش مصنوعی و همچنین پیشرفت در زیرساخت‌های پردازش داده و رابط‌هایی که این فناوری را برای کاربران عادی اینترنت قابل دسترسی می‌سازد. او می‌گوید نتیجه این است که تصاویری که به‌طور مصنوعی تولید می‌شوند همه جا هستند و تشخیص آن‌ها تقریبا غیرممکن است.

یکی از آزمایش‌های اخیر نشان داد که هوش مصنوعی چقدر می‌تواند فریب دهنده باشد. سوفی نایتینگل، روانشناس دانشگاه لنکستر در انگلیس که بر فناوری دیجیتال تمرکز دارد، پژوهشی را انجام داد مبنی بر اینکه آیا داوطلبان آنلاین می‌توانند بین عکس‌های گذرنامه مانند ایجاد شده توسط یک سیستم هوش مصنوعی به نام StyleGAN۲ و تصاویر واقعی تمایز قائل شوند. نتایج ناامیدکننده بود، حتی در اواخر سال ۲۰۲۱، زمانی که محققان این آزمایش را انجام دادند. نایتینگل می‌گوید: «به طور متوسط، مردم تقریبا قادر به تشخیص نبودند. اساسا ما در نقطه‌ای هستیم که آنقدر واقع‌بینانه است که مردم نمی‌توانند به طور قابل اعتماد تفاوت بین آن چهره‌های مصنوعی و چهره‌های واقعی را درک کنند». نایتینگل می‌گوید این احتمال قوی وجود دارد که افراد به دنبال استفاده از چنین برنامه‌ای برای اهداف پلید باشند.

در آزمایش دوم، محققان سعی کردند به افراد آزمایش کمک کنند تا توانایی‌های تشخیص هوش مصنوعی خود را بهبود بخشند. آن‌ها پس از پاسخ دادن شرکت‌کنندگان، هر پاسخ را درست یا غلط علامت‌گذاری کرده و شرکت‌کنندگان را با خواندن توصیه‌هایی برای تشخیص تصاویر تولید شده مصنوعی از قبل آماده کردند. این توصیه، مناطقی را که الگوریتم‌های هوش مصنوعی اغلب در آن‌ها تلو تلو می‌خورد و گوشواره‌های نامتناسب ایجاد می‌کنند، یا دندان‌های فرد را روی هم تار می‌کند، برجسته کرد. نایتینگل همچنین خاطرنشان می‌کند که الگوریتم‌ها اغلب برای ایجاد چیزی پیچیده‌تر از یک پس زمینه ساده تلاش می‌کنند، اما حتی با وجود این موارد، دقت شرکت‌کنندگان تنها حدود ۱۰ درصد افزایش یافت و سیستم هوش مصنوعی که تصاویر مورد استفاده در آزمایش را تولید می‌کند، از آن زمان به نسخه جدید و بهبود یافته ارتقاء یافته است.

از قضا با ادامه پیشرفت فناوری تولید تصویر، بهترین دفاع انسان‌ها در برابر فریب خوردن توسط یک سیستم هوش مصنوعی ممکن است یک سیستم هوش مصنوعی دیگر باشد: سیستمی که برای تشخیص تصاویر مصنوعی آموزش دیده است. کارشناسان می‌گویند با پیشرفت تولید تصویر هوش مصنوعی، الگوریتم‌ها برای شناسایی برخی از اثر انگشت‌های کوچک و در مقیاس پیکسلی ایجاد رباتیک مجهزتر از انسان‌ها هستند.

یونگ جائه لی، دانشمند کامپیوتر در دانشگاه ویسکانسین-مدیسون، می‌گوید: «ایجاد این برنامه‌های کارآگاه هوش مصنوعی مانند هر کار یادگیری ماشین دیگری عمل می‌کند. شما مجموعه‌ای از داده‌های تصاویر واقعی و نیز مجموعه داده‌ای از تصاویر تولید شده توسط هوش مصنوعی را جمع‌آوری می‌کنید، می‌توانید یک مدل یادگیری ماشینی برای تشخیص این دو آموزش دهید».

به گفته لی و دیگر کارشناسان، این سیستم‌ها دارای کاستی‌های قابل توجهی هستند. بیشتر چنین الگوریتم‌هایی بر روی تصاویر یک ژنراتور هوش مصنوعی خاص آموزش داده می‌شوند و قادر به شناسایی جعلی‌های تولید شده توسط الگوریتم‌های مختلف نیستند. اکثر آشکارساز‌ها همچنین فاقد رابط‌های کاربر پسندی هستند که افراد زیادی را وسوسه کرده است که این تصویر را امتحان کنند.

علاوه بر این، آشکارساز‌های هوش مصنوعی همیشه در تلاش هستند تا با تولیدکننده‌های تصویر هوش مصنوعی که برخی از آن‌ها الگوریتم‌های تشخیص مشابهی را در خود جای داده‌اند، اما از آن‌ها به عنوان راهی برای یادگیری نحوه کاهش خروجی جعلی خود استفاده می‌کنند. وائل عبدالمجید، دانشیار پژوهشی علوم کامپیوتر در دانشگاه کالیفرنیای جنوبی می‌گوید: نبرد بین سیستم‌های هوش مصنوعی که تصاویر تولید می‌کنند و سیستم‌های هوش مصنوعی که تصاویر تولید شده توسط هوش مصنوعی را تشخیص می‌دهند، یک مسابقه تسلیحاتی خواهد بود.

بعید است هیچ طرفی به این زودی برنده شود؛ هیچ رویکردی هرگز نمی‌تواند تک تک تصاویر تولید شده مصنوعی را ایجاد کند، اما این بدان معنا نیست که ما باید تسلیم شویم. او پیشنهاد می‌کند که پلتفرم‌های رسانه‌های اجتماعی باید شروع به مقابله با محتوای تولید شده توسط هوش مصنوعی در سایت‌های خود کنند، زیرا این شرکت‌ها نسبت به کاربران فردی برای پیاده‌سازی الگوریتم‌های تشخیص بهتر هستند.

ثبت نخستین شکایت حقوقی از ChatGPT

جمعه, ۱۸ فروردين ۱۴۰۲، ۰۴:۲۱ ب.ظ | ۰ نظر

یک شهردار استرالیایی اولین شکایت حقوقی جهان از ChatGPT را تنظیم می‌کند.
به گزارش فارس به نقل از رویترز، یک شهردار منطقه ای استرالیایی گفت که اگر ChatGPT ادعاهای نادرست مبنی بر گذراندن دوران محکومیت به دلیل رشوه خواری را تصحیح نکند، ممکن است از شرکت OpenAI (سازنده چت بات ChatGPT) شکایت کند.

برایان هود که در نوامبر گذشته به عنوان شهردار شایر هپبورن در 120 کیلومتری شمال غربی ملبورن انتخاب شد، زمانی که مردم به او گفتند ChatGPT به دروغ او را به عنوان یکی از طرفین مجرم در یک رسوایی رشوه خواری خارجی یکی از شرکت های تابعه بانک مرکزی استرالیا در اوایل دهه 2000معرفی کرده، نگران شهرت خود شد.

وکلای مدافع او گفتند که هود برای شرکت تابعه، Note Printing استرالیا کار می کرد، اما فردی بود که به مقامات در مورد پرداخت رشوه به مقامات خارجی برای برنده شدن در قراردادهای چاپ ارز اطلاع داد و هرگز متهم به جرم نشد.

وکلای دادگستری گفتند که در 21 مارس نامه ای نگران کننده به OpenAI مالک ChatGPT ارسال کردند که به این شرکت 28 روز فرصت دادند تا خطاها را برطرف کند یا با شکایت احتمالی افترا روبرو شود.

وکلا گفتند که OpenAI که در سانفرانسیسکو مستقر است، هنوز به نامه حقوقی هود پاسخ نداده است.

اگر هود شکایت کند، احتمالاً اولین بار است که شخصی از مالک ChatGPT به دلیل ادعاهای مطرح شده توسط این چت بات شکایت می کند.

پرداخت خسارت افترا در استرالیا به طور کلی حدود 400هزار دلار استرالیا (269,360 دلار) است.

اگر هود شکایتی را ارائه کند، ChatGPT را متهم می کند که با عدم ارائه اطلاعات درست به کاربران احساس نادرستی می دهد.

بیل گیتس اعلام کرد که فراخوان‌ها برای توقف هوش مصنوعی، چالش‌ها را حل نمی‌کند.
به گزارش فارس به نقل از رویترز، بیل گیتس، یکی از بنیانگذاران مایکروسافت، به رویترز گفت که درخواست‌ها برای توقف توسعه هوش مصنوعی چالش‌های پیش رو را حل نمی‌کند.

گیتس گفت که بهتر است روی بهترین روش استفاده از پیشرفت‌های هوش مصنوعی تمرکز کنیم، زیرا درک اینکه چگونه یک مکث می‌تواند در سطح جهانی چالش را حل کند دشوار است.

مصاحبه او با رویترز پس از یک نامه سرگشاده انجام شد که هفته گذشته منتشر و توسط ایلان ماسک و بیش از هزار کارشناس هوش مصنوعی امضا شد. این نامه خواستار توقف فوری در توسعه سیستم‌هایی GPT-4 جدید متعلق به شرکت OpenAI شد.

گیتس روز دوشنبه گفت: «فکر نمی‌کنم درخواست از یک گروه خاص برای توقف، چالش‌ها را حل کند.» وی افزود واضح است که مزایای زیادی در هوش مصنوعی وجود دارد؛ آنچه که باید انجام دهیم این است که نقاط دشوار را شناسایی کنیم.

در حالی که گیتس از حامیان خوش‌بینانه هوش مصنوعی بوده و آن را مانند اینترنت یا تلفن‌های همراه، انقلابی توصیف کرده است. مایکروسافت همواره  با سرمایه‌گذاری چند میلیارد دلاری در OpenAI، مالک ChatGPT، به دنبال پیشی گرفتن از همتایان خود بوده است.

او یک روز قبل از انتشار نامه سرگشاده، در وبلاگی با عنوان «عصر هوش مصنوعی» گفت که معتقد است باید از هوش مصنوعی برای کمک به کاهش برخی از بدترین نابرابری های جهان استفاده شود. گیتس گفت من واقعاً نمی‌دانم که آیا همه کشورهای جهان موافقت می‌کنند که هوش مصنوعی متوقف شود. اما نظرات متفاوت زیادی در این زمینه وجود دارد.

هشدار بایدن: از امنیت هوش مصنوعی مطمئن شوید

چهارشنبه, ۱۶ فروردين ۱۴۰۲، ۰۷:۳۷ ب.ظ | ۰ نظر

جو بایدن، رئیس‌جمهور آمریکا می‌گوید شرکت‌های فناوری باید مطمئن شوند که محصولات هوش مصنوعی آن‌ها قبل از عرضه ایمن شده است.

سرپوش - «جو بایدن»، رئیس‌جمهور آمریکا، دیروز با مشاورانی در حوزه علم و فناوری دیدار کرد تا ریسک‌ها و فرصت‌های توسعه هوش مصنوعی را بررسی کند. او در این نشست گفت شرکت‌های فناوری وظیفه دارند تا پیش از عرضه عمومی محصولات، از ایمنی آن‌ها اطمینان یابند.

به گزارش رویترز، بایدن گفت هوش مصنوعی می‌تواند برای کمک به حل چالش‌های سختی مثل بیماری‌ها و تغییرات اقلیمی مفید باشد، اما درعین‌حال باید پاسخی برای ریسک‌های احتمالی علیه جامعه، اقتصاد و امنیت ملی هم داشته باشد.

کاخ سفید می‌گوید رئیس‌جمهور ایالات‌متحده از این جلسه برای تأکید بر اهمیت حفاظت از حقوق و ایمنی مردم برای توسعه مسئولانه فناوری استفاده کرد. او همچنین یک‌بار دیگر خواستار تصویب قوانینی از سوی کنگره برای دفاع از کودکان و مقابله با گردآوری اطلاعات کاربران توسط شرکت‌های فناوری شد.

 

جو بایدن: هوش مصنوعی می‌تواند خطرناک باشد

بایدن در پاسخ به این سؤال که آیا به نظر او هوش مصنوعی فناوری خطرناکی است یا نه، گفت: «باید دید. می‌تواند خطرناک باشد.» او همچنین در ابتدای این جلسه گفت: «به نظر من شرکت‌های فناوری مسئولیت دارند تا مطمئن شوند که محصولاتشان پیش از عرضه عمومی ایمن هستند.»

رئیس‌جمهور آمریکا گفت تجربه شبکه‌های اجتماعی نشان داده است که عرضه یک فناوری بدون در نظر گرفتن تدابیر ایمنی می‌تواند چقدر آسیب‌زننده باشد. او مدعی شد که این فناوری‌ها چگونه بر سلامت روان و احساسات کاربران به‌خصوص جوانان اثر منفی گذاشته‌اند.

سهام شرکت‌های فعال در حوزه هوش مصنوعی پیش از جلسه جو بایدن افت قابل‌توجهی داشت. البته کلیت بازار در روز سه‌شنبه شرایط مناسبی را پشت سر نگذاشت. این جلسه با همراهی گروهی از دانشگاهیان و مدیران گوگل و مایکروسافت برگزار شد تا درباره ریسک و فرصت‌های هوش مصنوعی بحث شود.

 

آلمان هم احتمالاً مانند ایتالیا استفاده از ChatGPT را ممنوع می‌کند

هفته گذشته، آژانس حفاظت از داده‌های ایتالیا تصمیم گرفت استفاده از ChatGPT را به‌دلیل نگرانی‌های مربوط به حفظ حریم خصوصی داده‌ها ممنوع کند. اکنون به‌نظر می‌رسد که آلمان نیز قصد دارد به‌عنوان دومین کشور چنین تصمیمی بگیرد.

«اولریش کلبر»، کمیسر آلمان برای حفاظت از داده‌ها، در مصاحبه‌ای با روزنامه محلی Handelsblatt (به نقل از NeoWin) گفت که رگولاتورهای این کشور درحال مذاکره و گفت‌وگو با رگولاتورهای دولت ایتالیا درباره ممنوعیت ChatGPT بوده‌اند. کلبر در مصاحبه خود اعلام کرد: «اصولاً چنین اقدامی در آلمان نیز امکان‌پذیر است.»

دولت ایتالیا زمانی تصمیم به ممنوعیت ChatGPT گرفت که آژانس حفاظت از داده‌های این کشور گفته بود که این مدل هوش مصنوعی احتمالاً قوانین مربوط به جمع‌آوری داده‌ها را نقض می‌کند. همچنین ادعا کرد که OpenAI نظارتی بر استفاده از این سرویس توسط کودکان زیر ۱۳ سال ندارد. شرایط خدمات این چت‌بات هوش مصنوعی استفاده از آن توسط کودکان آن گروه سنی را ممنوع می‌کند.

پس از ممنوعیت ChatGPT در ایتالیا، «ماتئو سالوینی»، معاون نخست‌وزیر این کشور، اظهار داشت که این اقدام برای آژانس ناظر بر جمع‌آوری داده‌ها یک امر «ریاکارانه» بوده است. او اشاره کرد که سرویس‌های آنلاین دیگری نیز وجود دارند که قوانین جمع‌آوری داده‌ها و حفظ حریم خصوصی را نقض می‌کنند، اما مانند ChatGPT مسدود نشده‌اند.

 

احتمال ممنوعیت ChatGPT در کشورهای دیگر

علاوه بر آلمان، کشورهای دیگری نیز درحال گفت‌وگو با رگولاتورهای ایتالیا در مورد اقدامات خود هستد. سخنگوی کمیسر حفاظت از داده‌های ایرلند نیز اعلام کرد که آن‌ها درحال بررسی اقدامات ایتالیا برای ChatGPT هستند و «با تمام مقامات حفاظت از داده اتحادیه اروپا در رابطه با این موضوع در تماس خواهند بود». دولت فرانسه نیز درباره این تصمیم با ایتالیا در تماس بوده است.

OpenAI از زمان اعلام ممنوعیت در ایتالیا، ۲۰ روز فرصت دارد تا نحوه برنامه‌ریزی خود برای تطبیق با قوانین حریم خصوصی اتحادیه اروپا را اعلام کند و در غیر این صورت، استارتاپ آمریکایی ممکن است مجبور شود تا ۴ درصد از درآمد جهانی خود را به‌عنوان جریمه پرداخت کند.

نگرانی یوروپل از هوش مصنوعی

چهارشنبه, ۹ فروردين ۱۴۰۲، ۰۵:۱۹ ب.ظ | ۰ نظر

آژانس پلیس اتحادیه اروپا "یوروپل" هشدار داد که محصولات هوش مصنوعی مانند "ChatGPT" توسط کلاه‌برداران مورد استفاده برای انجام جرایم سایبری قرار گرفته‌اند.

بر اساس گزارش دویچه وله از آژانس پلیس اتحادیه اروپا (یوروپل) مستقر در لاهه، احتمال سوء استفاده از هوش مصنوعی برای کلاه‌برداری، جرایم گوناگون و اعمال خلاف‌کاری‌های سایبری، به طور گسترده قابل مشاهده است.

یوروپل معتقد است که وضعیت فعلی در فضای مجازی پیرامون استفاده کاربران از محصولات هوش مصنوعی، مانند برنامه و نرم‌افزار "ChatGPT" باعث ایجاد یک "چشم انداز تیره" شده است.

بر این اساس، پیشرفت چشمگیر مهارت‌های ربات‌های هوش مصنوعی "نه تنها برای بهبود زندگی بشر، بلکه برای فریب دادن آنها نیز مورد استفاده قرار خواهند گرفت."

آزمایشگاه ویژه یوروپل که بر روی بررسی نوآوری‌های جدید متمرکز است، نرم‌افزار ChatGPT را به عنوان شناخته‌شده‌ترین ربات مخصوص چت که کاربران از آن استفاده می‌کنند، مورد تحقیقات و بررسی خود قرار داده است.

این نرم‌افزار قادر است با استفاده از هوش مصنوعی به صورت خودکار، متن طراحی کند و بنویسد.

ChatGPT می‌تواند بر اساس دستورات یا جملاتی که کاربران تعیین و مشخص می‌کنند، به‌طور مستقل و با کمک از حجم وسیع داده‌های موجود در اینترنت، نتیجه‌های مورد نظر را تولید کند.

در سال‌‌های گذشته، وقتی که نرم‌افزار "Chatbot" برای نخستین بار وارد بازار شد و مورد استفاده قرار گرفت،‌ کاربران به سرعت از توانایی‌های این برنامه در زمینه پاسخ‌دادن به پرسش‌های پیچیده و سخت، کدنویسی و حتی دریافت جواب‌های صحیح برای قبولی در امتحانات، شگفت‌زده شدند.

حال آژانس پلیس اتحادیه اروپا هشدار داده است که حال برای کلاه‌برداران نیز این امکان بوجود آمده است تا با استفاده از ChatGPT، "فرآیند دستیابی به اطلاعات برای انجام جرم را به شدت سریع‌تر" کنند. 

یوروپل در ضمن اشاره کرده است که Chatbot می‌تواند به عنوان مثال اطلاعاتی را پیرامون "نحوه ورود به منزل برای سرقت، فعالیت‌های تروریستی، جرایم سایبری و تعرض جنسی به کودکان» ارائه دهد.

گفته می‌شود که این نرم‌افزاز همچنین قابلیت ارائه جمله‌بندی‌های خاص از سبک‌‌‌های متفاوت زبان‌ها را نیز دارد.

آژانس پلیس اتحادیه اروپا همچنین یادآور شد که قابلیت‌های هوش مصنوعی "هنوز در مراحل ابتدایی خود است و انتظار می‌رود که پیشرفت کند."

نامه متخصصان برای توقف توسعه هوش مصنوعی

چهارشنبه, ۹ فروردين ۱۴۰۲، ۰۴:۳۰ ب.ظ | ۰ نظر

پس از معرفی هوش مصنوعی ChatGPT و درک و دریافت پتانسیل‌های مفید و مخرب آن، حالا بیش از 1100 نفر از جمله افراد سرشناس نامه‌ای سرگشاده را امضا کرده‌اند که در آن از همه آزمایشگاه‌های هوش مصنوعی خواسته شده فوراً حداقل به مدت 6 ماه پروسه آموزش مدل‌های خود را متوقف کنند.

تا زمان نگارش این مطلب، بیش از 1100 امضاکننده از عموم گرفته تا افراد شاخصی چون ایلان ماسک، استیو وزنیاک و تریستان هریس، کارزاری امضا کرده‌اند که در آن از همه آزمایشگاه‌های هوش مصنوعی می‌خواهد فوراً حداقل به مدت 6 ماه آزمایش مدل‌های هوش مصنوعی قدرتمندتر از GPT-4 را متوقف کنند.

در بخشی از این نامه آمده است: سیستم‌های هوش مصنوعی معاصر اکنون در حال تبدیل شدن به رقیب انسان در امور روزمره هستند و ما باید از خود بپرسیم: آیا باید به ماشین‌ها اجازه دهیم کانال‌های اطلاعاتی ما را پر از تبلیغات و دروغ کنند؟ آیا باید تمام مشاغل، از جمله کارهای خدماتی را خودکار کنیم؟ آیا باید ذهن‌های غیرانسانی را پرورش دهیم که ممکن است در نهایت در تعداد و هوش، ما را منسوخ کرده و جایگزینمان شوند؟ آیا باید در خطر از دست دادن کنترل تمدن خود باشیم؟ چنین تصمیماتی نباید به رهبران فناوری ناخواسته واگذار شود. سیستم‌های هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آن‌ها مثبت و خطرات آن‌ها قابل مدیریت خواهد بود.

این کارزار همچنین به این استدلال می‌پردازد که «سطحی از برنامه‌ریزی و مدیریت» وجود دارد که «اجرایی نشده است» و در عوض، در ماه‌های اخیر، آزمایشگاه‌های هوش مصنوعی بی‌نام و نشان «در رقابتی خارج از کنترل برای توسعه و عرضه ذهن‌های دیجیتالی قدرتمندتری که هیچ‌کس - حتی سازندگان آن‌ها - نتواند درک کرده، پیش‌بینی کرده یا به‌طور قابل اطمینانی کنترل کند» مشغول شدند.

امضاکنندگان نامه لغو توسعه هوش مصنوعی که برخی از آن‌ها متخصصان هوش مصنوعی نیز هستند، می‌گویند وقفه‌ای که آن‌ها به دنبالش هستند باید «علنی و قابل تأیید باشد و همه بازیگران کلیدی این عرصه را شامل شود». این نامه اذعان دارد، اگر وقفه درخواست شده را «نمی‌توان به سرعت اعمال کرد، دولت‌ها باید وارد عمل شوند و یک تعلیق وضعیت کنند».

مطمئناً این موضوع همانقدر که برای امضا کنندگان این نامه از جمله برخی از مهندسان متا و گوگل، عماد مستقی بنیانگذار و مدیر عامل هوش مصنوعی Stability AI و افرادی که دیگر در آن فن‌آوری نیستند جالب توجه است، برای کسانی که آن را امضا نکرده‌اند نیز اهمیت دارد.

برای مثال، هیچ کس از خود شرکت OpenAI، که طراح مدل زبانی بزرگ GPT-4 است، این نامه را امضا نکرده است. همچنین هیچ کس از Anthropic که تیم آن از OpenAI خارج شد تا یک چت ربات هوش مصنوعی «ایمن‌تر» بسازد هم بین امضاکنندگان این نامه دیده نمی‌شود.

منبع:  شهر سخت افزار

کدنویسی با هوش مصنوعی آغاز شد

دوشنبه, ۷ فروردين ۱۴۰۲، ۰۴:۳۵ ب.ظ | ۰ نظر

یک آزمایشگاه تحقیقاتی هوش مصنوعی به هوش مصنوعی ChatGPT خود اجازه داده است تا به اینترنت دسترسی داشته باشد.

خبرگزاری برنا؛ هوش مصنوعی مدل زبان، هنر‌های ارتباطی و حل مسئله را بر اساس مجموعه محدودی از داده‌های آموزشی به خود آموزش می‌دهد. اکنون با راه اندازی یک زیست بوم پلاگین، GPT با برخی توانایی‌های جدید و چشمگیر ارتقا پیدا می‌کند.
ChatGPT یک ربات چت هوش مصنوعی است که توسط OpenAI توسعه یافته و در نوامبر ۲۰۲۲ راه اندازی شد. این ربات از مدل‌های زبان بزرگ ساخته شده و با استفاده از روش های یادگیری نظارت شده و تقویتی به خوبی تنظیم شده است.

OpenAI یک آزمایشگاه تحقیقاتی هوش مصنوعی آمریکایی است که تحقیقات هوش مصنوعی را با هدف ترویج و توسعه هوش مصنوعی دوستانه انجام می‌دهد.
سیستم جدید به اینترنت دسترسی پیدا کرده است به این معنا که اگر تشخیص دهد که شما به اطلاعات به روزی نیاز دارید که در پایگاه دانش آن نیست، می‌تواند در وب گشت و گذار کند و به دنبال پاسخ باشد. برای انجام این کار، رشته‌های جستجوی مربوطه را فرموله می کند، آن‌ها را به بینگ می‌فرستد، به نتایج نگاه می کند و سپس پیوند‌هایی را که شایسته می‌داند می‌خواند تا زمانی که به نتیجه مطلوب برسد.
در حال حاضر، نمی‌تواند فرم‌ها را پر کند یا هر کار دیگری را به صورت برخط انجام دهد. با این حال، OpenAI هر آنچه را که در جستجوی خود اتفاق می‌افتد از بقیه زیرساخت‌های خود جدا نگه می‌دارد تا مطمئن شود از وب‌گاه‌هایی که ایمن نیستند بازدید نمی‌کند. ثانیا، اکنون می‌تواند کدی را که می‌نویسد اجرا کند. OpenAI اکنون می‌تواند فایل‌ها را آپلود و دانلود کند؛ بنابراین اگر از آن سوالی بپرسید که نیاز به اعداد جدی دارد، اکنون می‌تواند یک نرم افزار را به طور خاص برای کار کدنویسی کند و آن کد را برای تکمیل کار شما اجرا کند. همچنین با این هوش مصنوعی می‌توان داده‌ها را در فایل خاصی به آن ارائه کرد و سامانه عملیات‌هایی را روی آن داده‌ها انجام داد و دوباره چیزی را به شما باز گرداند که شما درخواست می‌کنید.
برای مثال، افزونه‌های Expedia و OpenTable می‌توانند برای پروازها، رستوران‌ها، اقامتگاه‌ها و خودرو‌های کرایه‌ای جستجو و رزرو کنند. برخی دیگر از افزونه‌ها می‌توانند محصولات را پیدا و مقایسه کنند و سفارشات را تنظیم کنند. حتی یک افزونه به نام Wolfram|Alpha به قدرت‌های ریاضی و محاسباتی و همچنین جریان‌های داده‌های بی‌درنگ دسترسی می‌دهد.
در نهایت، یک افزونه دیگر به عنوان دروازه‌ای عمل می‌کند که از طریق آن هوش مصنوعی می‌تواند به ۵۰۰۰ برنامه دیگر از جمله Gmail، Google Sheets، Trello، HubSpot و Salesforce دسترسی داشته باشد. GPT با دسترسی به حجم عظیمی از اطلاعات شخصی و شرکتی و احتمالاً با انجام طیف وسیعی از وظایف، تبدیل به یک دستیار خارق العاده می‌شود.
خطرات بالقوه این فناوری استثنایی نیز کم نیست. اما با فرض اینکه این سیستم خوب عمل می‌کند باید برای توسعه هوش مصنوعی به آن‌ها اجازه رقابت داد. جالب اینجاست که با هر گامی که این فناوری برمی دارد قدرت‌ها و فرصت‌های باورنکردنی و خطرات بی سابقه‌ای به وجود می‌آورد.

فاجعه ChatGPT در گسترش اخبار جعلی

شنبه, ۵ فروردين ۱۴۰۲، ۱۲:۴۰ ب.ظ | ۰ نظر

غلامرضا فلسفی - از زمان بهره‌مندی از چت‌جی‌بی‌تی[1] تا هویدا شدن اثرات مخربِ این نرم‌افزار کاربردی هوش مصنوعی بر روزنامه‌نگاری، زمانی بسیار کوتاه لازم بود. یک ستون نویس حوزه فناوری نیویورک‌تایمز نوشت که یک چت‌بات (دستیار سایبری هوشمند) احساسات را بیان می‌کند[2] (که غیرممکن است). رسانه‌های دیگر نیز مملو از ارائه نمونه‌هایی[3] از عملکرد سیدنی[4] بودند که نتایج جست‌وجوی بینگ جدید[5] را که مبتنی بر هوش مصنوعی[6] است، سرشار از بی‌نزاکتی و قلدری بیان کرده بودند (که این هم غیرممکن است). بن تامپسون[7] مؤسس و نویسنده نشریه‌ای راهبردی که درباره وجوه تجاریِ فناوری و رِسانه همچنین تأثیر فناوری بر جامعه تحلیل ارائه می‌دهد، می‌گوید[8] که کار با سیدنی هیجان‌انگیزترین تجربه رایانه‌ای زندگی‌اش محسوب می‌شود. وی در ادامه نتیجه‌گیری کرد که هوش مصنوعی شیوه‌های برانگیختن واکنش‌های احساسی را آموخته و به نظر می‌رسد در انجام این مهم موفق هم عمل می‌کند.

سکویی که تقریرات انسانی را غیر متعهدانه و مقلدانه بازآفرینی می‌کند، عطیه‌ای به تبهکاران دیجیتالی است که از

اطلاعات نادرست عمدی منتفع می‌شوند. اکنون زمان آن است که حدودوثغورِ بهره‌مندی از این امکان مشخص شود

برای روشن‌تر شدن ابعاد موضوع ابتدا تصریح می‌شود که دارای احساسات بودن هوش مصنوعی همچون چت‌جی‌بی‌تی[9] و سیدنی تا به این لحظه امری غیرممکن است. دیگر این‌که چت‌جی‌بی‌تی و سیدنی نمی‌توانند در رابطه با معنی‌دار یا منطقی بودن تولیداتشان اعلام نظر کنند. آنچه این مدل‌ها در انجام آن بسیار عالی عمل می‌کنند عبارت از تقلید نثر انسان و پیش‌بینی کلمات صحیح در کنار یکدیگر است. این مدل‌های زبانی گسترده[10] نرم‌افزارهای کاربردی هوش مصنوعی مانند چت‌جی‌بی‌تی می‌توانند به این امر مبادرت ورزند چراکه خوراک مناسبی شامل میلیاردها مقاله و مجموعه‌هایی از داده‌های منتشرشده در اینترنت در اختیارشان قرارگرفته و بر این اساس آن‌ها قادر به پاسخگویی به انواع پرسش‌ها می‌شوند.

در چارچوب اهداف روزنامه‌نگاری، این چت‌بات‌ها می‌توانند در کم‌ترین زمان ممکن حجمی عظیم از محتوا را شامل کلمات، عکس‌ها، اصوات و فیلم‌ها بسازند؛ اما مشکل اینجاست که آن‌ها در ساخت محتوا به‌طور مطلق هیچ تعهدی به حقیقت ندارند. لحظه‌ای را تصور کنید که یک کاربر چت‌جی‌بی‌تی[11] با چه سرعتی می‌تواند اینترنت را از اخباری جعلی آکنده کند که به نظر ‌رسد توسط انسان تقریر شده است.

با عنایت بدین اوصاف از نوامبر 2022 میلادی که نسخه آزمایشی چت‌جی‌بی‌تی توسط شرکت هوش مصنوعی اُپن‌اِی‌آی[12] رونمایی شد و در اختیار عموم قرار گرفت، حواشی فراوان پیرامون این نرم‌افزار کاربردی بر اساس مشکلات بالقوه آن شکل گرفت که نگران‌کننده اما قابل پیش‌بینی بود. فضای حاکم بر این رویداد فناورانه همانند روزگار رونمایی از رسانه‌های اجتماعی با افزایش استقبال و حضور سرمایه‌گذاران و صاحبان شرکت‌ها همراه شده که به‌نوبه خود موجبات بیان مواضع صریح را فراهم کرده است. کریستوفر منینگ[13] مدیر آزمایشگاه هوش مصنوعی استنفورد در توئیتی اظهار کرد[14]: «از ابتدای سال 2023 میلادی گروه‌های اخلاق‌گرا در حوزه هوش مصنوعی درباره نمونه‌های هوش مصنوعیِ تولیدشده که برای استفاده از آن‌ها بیش‌ازحد تمایل وجود داشته و درعین‌حال غیرقابل‌اعتماد و خطرناک‌اند، به بیان موسع روایت‌هایی مشغول‌اند اما در پی طرح چنین مواضعی مردم علاقه‌مندند بدانند که این نمونه‌ها چگونه ظرفیت‌هایی جدید را برای تغییر در شیوه انجام امور، کسب اطلاعات و ایجاد سرگرمی برایشان فراهم می‌کنند.» من که خود عضوی از این جماعت اخلاق مدار محسوب می‌شوم تصریح می‌کنم که اگر می‌خواهیم از خطاهای وحشتناک 30 سال گذشته در حوزه فناوریِ مصرفی احتراز کنیم –از افشای اطلاعات کاربران فیس‌بوک و نشر اطلاعات نادرست غیرعمدی[15] که مخل در انتخابات است گرفته تا تحریک و دامن زدن به نسل‌کشی- بدون فوت وقت به استماع دغدغه‌ها و نگرانی‌های کارشناسان در مورد آسیب‌های احتمالی این فناوری نیازمندیم.

نگران‌کننده‌ترین واقعیتی که به‌طور مرتب باید تکرار و یادآوری شود آن است که چت‌جی‌بی‌تی هیچ تقیدی به حقیقت ندارد. همان‌طور که در بخش بررسی فناوری ام‌آی‌تی آمده[16] چت‌بات‌های مدل زبانی گسترده، یاوه‌گویانی بدنام محسوب می‌شوند. بدیهی است که اطلاعات نادرست عمدی[17]، شیادی و جنایت نیاز به التزام به حقیقت ندارد. اگر از اتاق‌های گفت‌وگوی تارنمای Black Hat World که در حوزه تجارت غیرقانونی فعال بوده و ایده‌هایی برای کسب انتفاع از محتوای جعلی در آن ارائه می‌شود، بازدید کنید؛ می‌بینید که چت‌جی‌بی‌تی در مقام برگی برنده برای ساختن دیدگاه‌های باورپذیرترِ جعلی و همچنین نظرات و نمایه‌های متقاعدکننده معرفی می‌شود.

اگر به موضوع چت‌بات‌های مدل زبانی گسترده از منظر روزنامه‌نگاری نیز توجه شود باید گفت چند صباحی است که بسیاری از اتاق‌های خبر از هوش مصنوعی بهره می‌برند. اگر به‌تازگی دریافته‌اید که برای کمک مالی به یک تارنما یا پرداخت هزینه خواندن یک مقاله به صفحه مالک تارنما هدایت‌شده‌اید یا اگر به هنگام وبگردی با تبلیغاتی تجاری مواجه می‌شوید که بیش‌ازپیش به ذائقه و سلیقه‌تان نزدیک است، می‌توانید نسبت به وجود رد و نشان هوش مصنوعی در آن گمانه‌زنی کنید.

امروزه برخی ناشران و مدیران رسانه تا مرحله‌ای که از هوش مصنوعی برای نوشتن گزارش استفاده ‌کنند پیش رفته‌اند که البته نتایجی متفاوت در پی داشته است. به‌طور مثال کاشف به‌عمل‌آمده که نشریه Cnet که در حوزه تجارت فناوری فعال است، با استفاده از مقالاتی که از سوی نرم‌افزارهای کاربردی تقریر می‌شده، انتشار می‌یافت. این امر زمانی افشا شد که یکی از کارکنان سابق این نشریه در استعفانامه الکترونیکی خود[18] مدعی شد محتوای ساخته‌شده توسط هوش مصنوعیِ این نشریه‌ با انتشار اطلاعاتی غلط همچون یک خبرنامه سایبریِ امنیتی، می‌تواند به‌طور مستقیم به خوانندگانش خسران وارد کند.

فلیکس سایمون[19] پژوهشگر ارتباطات در موسسه اینترنت آکسفورد درباره آینده هوش مصنوعی در اتاق‌های خبر، با بیش از 150 روزنامه‌نگار و صاحبان مؤسسات خبری مصاحبه کرد. او می‌گوید هوش مصنوعی ظرفیت لازم را دارد که نگارش مصاحبه‌ها یا خواندن سریع مجموع اطلاعات جمع‌آوری‌شده را برای روزنامه‌نگاران بسیار تسهیل کند اما مشکلات ریشه‌دار پیشین مانند بررسی صحت، بی‌طرفی و آگاهی از منبع داده‌ها همچنان به‌شدت به قضاوت انسانی وابسته است. چارلی بکت[20] که مدیر یک برنامه مرتبط با روزنامه‌نگاری و هوش مصنوعی در مدرسه علوم اقتصادی و سیاسی لندن است می‌گوید: حدود %90 بهره‌مندی از هوش مصنوعی در روزنامه‌نگاری در قالب کارهایی چون شخصی‌سازی تجمیع اخبار یا ایجاد دیوارهای پرداخت هوشمند برای مطالعه کاربران که اموری به نسبت ملال‌آور محسوب می‌شوند، به کار گرفته می‌شود. وی می‌افزاید که بلومبرگ سال‌هاست قسمت‌هایی فراوان از جمع‌بندی پوشش اخبار مالی خود را با این امکان به‌طور خودکار انجام می‌دهد. بااین‌حال ایده استفاده از برنامه‌هایی چون چت‌جی‌بی‌تی برای ساختن محتوا بسیار نگران‌کننده است. بکت اظهار می‌کند: برای اتاق‌های خبری که انتشار اخبار دروغ را غیراخلاقی می‌دانند، پیاده‌سازی طرح استفاده از چت‌جی‌بی‌تی بدون بهره‌مندی از ویراستاری انسانی و راستی آزمایی محتوا امری به‌غایت دشوار است.

فارغ از مشکلات مبتلابه نرم‌افزارهایِ کاربردی هوش مصنوعی، موضوعات اخلاقی همواره ماهیت عملکرد شرکت‌های فناوری را تحت تأثیر خود قرار داده است. افشاگری تایم[21] نشان داد شرکت اَپن‌اِی‌آی که شرکت پشتیبان چت‌جی‌بی‌تی است، به کارگرانی کنیایی کمتر از دو دلار در ساعت دستمزد می‌داد تا محتواهایی مانند کودک‌آزاری، خودکشی، زنای با محارم و شکنجه را که جزو محتوای مضر گرافیکی می‌دانسته، شناسایی کنند تا بتواند به چت‌جی‌بی‌تی آموزش دهد که این قبیل محتواها را موهن بداند. سایمون در این رابطه می‌گوید: در مقام فردی که از خدمات چت‌جی‌بی‌تی استفاده می‌کند تصریح می‌کنم که شرکت مذکور در رابطه با این قبیل محتواها، کنترلی روی نرم‌افزار کاربردیِ هوش مصنوعی خود ندارد.

طی مطالعه‌ای[22] در سال 2021 میلادی دانشگاهیان توجه خود را به مدل‌هایی از هوش مصنوعی مانند DALL-E[23] و Stable Diffusion[24] که نوشته را به‌عکس بدل می‌کنند، معطوف کردند. آن‌ها دریافتند که این سامانه‌ها «کلیشه‌های جمعیت‌شناختی» را در مقیاس بزرگ بازتولید کرده، تعمیم می‌دهند. به‌طور مثال وقتی از آنان خواسته شد تصویری از «شخصی که در حال نظافت است» تولید کنند، تمام عکس‌های ساخته‌شده ناظر به زنان بود. پژوهشگران همچنین اظهار کردند که وقتی از سامانه‌ها، تولید عکسِ یک فرد جذاب خواسته شد؛ همه چهره‌های بازتولید شده، نمایشگر و ناظر به «سفیدپوست ایدئال» بود.

مردیت بروسارد[25] استاد دانشگاه نیویورک که تحقیقاتش بر نقش هوش مصنوعی در روزنامه‌نگاری متمرکز است، کتابی با عنوان «بیش از یک خطای اتفاقی» به رشته تحریر درآورده که در مارس 2023 میلادی منتشر شد. وی در کتاب مذکور به راه‌های مقابله با مواردی چون تبعیض نژادی و تعصب جنسیتی و شایستگی در فناوری پرداخته است. بروسارد می‌گوید همه آن چیزی که تشکیل‌دهنده مدل‌های مولد کنونی مانند چت‌جی‌بی‌تی محسوب می‌شوند – از مجموعه داده‌ها تا منابع و سرمایه – همه و همه بازتاب‌دهنده عدم تنوع است. بروسارد می‌افزاید که این مسئله برگرفته از تک فرهنگی بودن ابر شرکت‌های فناوری است، بدین معنی که قریب به‌اتفاق محصولات فناورانه از تولیدات این ابر شرکت‌ها محسوب می‌شوند؛ لذا اتاق‌های خبر با تمسک به فناوری نمی‌توانند به‌راحتی از آن حذر کنند. امروزه اتاق‌های خبر در خدمت سرمایه‌گذاری‌های فناورانه از سوی ‌چنین شرکت‌هایی قرار دارند چراکه رسانه هیچ‌گاه سرمایه مالی مکفی برای رشد مستقل نداشته است.

در روزهای آغازین سال 2023 میلادی جونا پرتی[26] بنیان‌گذار و مدیرعامل بازفید[27] یادداشتی برای کارکنانش ارسال و اعلام کرد که مشتاقانه قصد دارد برای ارتقاء کار و کسب بازفید از چت‌جی‌بی‌تی استفاده کند. او در بخشی از یادداشت خود[28] نوشت: ما پیشرفت‌هایی را در حوزه هوش مصنوعی شاهدیم که دروازه عصری جدید از خلاقیت را با فرصت‌ها و برنامه‌های نامحدود برای همیشه به روی ما و دیگر رسانه‌های دیجیتال می‌گشاید. او در ادامه ‌اظهار کرد که محتوای الهام گرفته از هوش مصنوعی بازفید سال 2023 راه‌اندازی می‌شود تا فهرست‌ها، تجربه آزمونک‌ها و سایر محتواهای سرگرم‌کننده را تقویت، طوفان فکری ما را اطلاع‌رسانی و محتواهای ما را برای کاربران شخصی‌سازی ‌کند. این یادداشت باعث شد بلافاصله ارزش سهام خاموش این شرکت رسانه‌ای، خبری و اینترنتی در معاملات %150 افزایش‌یافته و به بیش از دو دلار به ازای هر سهم برسد. اتخاذ چنین راهبردی بسیار نگران‌کننده است چراکه این امر به‌طورقطع و یقین به ساخت و انتشار انبوهی از محتوای نازل از سوی این نرم‌افزار کاربردی هوش مصنوعی می‌انجامد. این قبیل روایت‌های نظام‌مندِ جدید، نه یک مدل کار و کسب آرمانی بلکه باید بدترین نوع برنامه‌ریزی آینده‌نگرانانه از سوی شرکت‌های رسانه‌ای تلقی شود. البته این میزان ذوق‌مندی نسبت به تولیدات هوش مصنوعیِ مولد می‌تواند این رویکرد مثبتِ فراگیر را دچار تزلزل کند، مبنی بر این‌که ممکن است این نرم‌افزارهای کاربردی، خیلی هم خوب و کارآمد از آب درنیایند.

ما در مرکز تحقیقاتی خود در دانشکده روزنامه‌نگاری دانشگاه کلمبیا درباره تلاش‌های انجام‌شده جهت تأمین منابع مالی شبکه‌های پول سیاه از طریق بودجه‌های سیاسی مطالعه می‌کنیم؛ شبکه‌هایی که صدها هزار روایت از اخبار محلی جوامع را جهت منافع سیاسی و تجاری هدف می‌گیرند و از تاکتیک (راهکنش) تکرارشونده بهره می‌برند. مطالعات مرکزمان نشان می‌دهد قابلیت‌های چت‌جی‌بی‌تی، این قسم خبرسازی‌ها را افزایش داده، آن را بسیار آسان‌تر و در اختیار مخاطبانی زیادتر قرار می‌دهد. همچنین در مقاله منتشرشده[29] طی سپتامبر 2022 میلادی درباره اطلاعات نادرست عمدی و هوش مصنوعی گفته‌شده پژوهشگران دانشگاه استنفورد شبکه‌ای از نمایه‌های جعلی را با استفاده از هوش مصنوعی مولد در لینکدین شناسایی کرده‌اند. البته به نظر می‌رسد ردوبدل کردن متن گمراه‌کننده‌ با چت‌بات‌ها که روزنامه‌نگاران آن را بسیار وسوسه‌انگیز می‌دانند در مقایسه با گفت‌وگو با کاربرانی آسیب‌پذیر که اطلاعات شخصی و جزئیات حساب بانکی خود را اعلان می‌کنند، از جذابیتی کمتر برخوردار است!

درباره ظرفیت فیلم‌ها و اصوات دیپ‌فیک – به ساخت تصاویر و اصوات واقع‌گرایانه بر پایه هوش مصنوعی گفته می‌شود که چهره‌ها و صداهای افراد به‌خصوص افراد مشهور جعل می‌شود. از مشهورترین نمونه‌های متأخر ساختن صدای جعلی «اما واتسون» در حال خواندن بخشی از کتاب نبرد منِ هیتلر است – مطالبی بسیار به رشته تحریر درآمده[30] اما با رونمایی از مدل‌های مولد کنونی به نظر می‌رسد خطر واقعی نمونه‌هایی مانند چت‌جی‌بی‌تی محسوب می‌شوند که مرزهای دنیای فریب آنی مانند جعل عمیق را درنوردیده‌اند چراکه در مقایسه با این نرم‌افزار کاربردی افراد را به‌راحتی می‌توان نسبت به خطرات جعل ژرف آگاه کرد. چت‌جی‌بی‌تی با ساختن و انتشار کثیری از جعلیات به راه انداختن طوفان در فضای سایبری مبادرت ورزیده ضمن ایجاد سردرگمی و فرسوده کردن کاربران، حقیقت را در طوفان جعلیات پایمال کرده یا جنبه‌های فکری میانه و متعادل را به حاشیه می‌برد.

برای برخی چون من که از دریچه اخلاق به فناوری می‌نگریم باورنکردنی است که از روند 20 سال گذشته و شیوه بسیار ضعیف مدیریت و نظارت بر فناوری‌های رسانه‌های اجتماعی آن‌هم در دو دهه‌ای که این رسانه‌ها به‌سرعت در حال گسترش بودند درس نگرفتیم و کاهلی در این امر سبب شد به‌جای بهبود شرایط، تشدید مشکلات اجتماعی و دموکراتیک را به نظاره بنشینیم. به نظر می‌رسد تاریخ در حال تکرار است و ما همچون دو دهه قبل توسط گروه‌هایی مشابه متشکل از شرکت‌های همسو و متمول حوزه فناوری همچنین صندوق‌هایی مالی در زمینه سرمایه‌گذاری در تولیداتی با ریسک بالا به سمت مسیرهایی به بوته آزمون سپرده نشده و فاقد مقررات رهنمون می‌شویم، با این تفاوت که این بار خطر بزرگ‌تر و توجه به امنیت کاربران کمتر از گذشته است. (منبع:شفقنا)

 

*این نوشتار ترجمه آزاد مقاله‌ای با عنوان A fake news frenzy: why ChatGPT could be disastrous for truth in journalism نوشته امیلی بل استاد دانشکده تحصیلات تکمیلی روزنامه‌نگاریِ دانشگاه کلمبیا و مدیر the Tow Center for Digital Journalism دانشگاه مذکور در نیویورک است که 3 مارس 2023 در تارنمای گاردین منتشر شد

 

[1] Chat Generative Pre-trained Transformers (ChatGPT)

[2] www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html

[3] www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams

[4]  Sydney اسم رمز پروژه موتور جست‌وجوی جدید مایکروسافت

[5] The New Bing

[6] Artificial intelligence (AI)

[7] Ben Thompson

[8] https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai

[9] www.theguardian.com/technology/chatgpt

[10] LLMs

[11] www.theguardian.com/technology/chatgpt

[12] https://openai.com

[13] Christopher Manning

[14] https://twitter.com/chrmanning/status/1625178544010838019?s=20&t=IPLveAStaG6PI0B_EgYGFA

[15] Misinformation

[16] www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines

[17] Disinformation

[18] www.theverge.com/2023/1/19/23562966/cnet-ai-written-stories-red-ventures-seo-marketing

[19] Felix Simon

[20] Charlie Beckett

[21] https://time.com/6247678/openai-chatgpt-kenya-workers

[22] https://arxiv.org/pdf/2211.03759.pdf

[23] https://openai.com/research/dall-e

[24] https://stablediffusionweb.com

[25] Meredith Broussard

[26] Jonah Peretti

[27] www.buzzfeed.com

[28] www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create-some-of-its-content-11674752660

[29] https://misinforeview.hks.harvard.edu/article/research-note-this-salesperson-does-not-exist-how-tactics-from-political-influence-operations-on-social-media-are-deployed-for-commercial-lead-generation

[30] https://vrgl.ir/ZJIDI

هوش مصنوعی گوگل به میدان آمد

شنبه, ۵ فروردين ۱۴۰۲، ۱۲:۲۱ ب.ظ | ۰ نظر

وگل، غول دنیای فناوری، اعلام کرد تازه‌ترین محصول هوش مصنوعی خود به نام چت‌بات «بارد» (Bard) را که در ماه فوریه تنها برای گروهی برگزیده از «تست‌کنندگان مورد اعتماد» عرضه شده بود برای استفاده به روی افراد بیشتری باز می‌کند.
به گزارش خبر آنلاین گوگل، که زیر مجموعه شرکت آلفابت است، هنوز اعلام نکرده به چند نفر اجازه دسترسی به این ربات خواهد داد. با این حال گفته است که متقاضیان اولیه فعلا به کشورهای ایالات متحده و بریتانیا محدود می‌مانند.

از زمانی که در اواخر سال گذشته میلادی یک ربات هوش مصنوعی مبتنی بر مکالمه موسوم به «چت جی‌پی‌تی» با توانایی‌های چشمگیر خود چشم‌ها را خیره کرد، نگاه‌ها متوجه گوگل شد تا ببینند این غول فناوری با چه محصولی به جنگ رقیب قدرتمند خود می‌رود.

ساندار پیچای، مدیر عامل گوگل، ‌می‌گوید این ربات در واقع «به دنبال ترکیب گستردگی دانش جهان با قدرت، هوش و خلاقیت مدل های بزرگ زبان ما است.»

گوگل بیش از دو دهه است که بر بازار جستجوهای اینترنتی تسلط دارد و به همین خاطر محتاطانه و با دقت در راه‌اندازی ابزارهای هوش مصنوعی خود قدم برمی‌دارد. دلیل این است که اگر این فناوری مطابق انتظارها رفتار نکند، می‌تواند به مدل کسب و کار مبتنی بر تبلیغات شرکت آسیب برساند. اتفاقی که یک بار در همین چند هفته پیش افتاد و در آگهی تبلیغاتی گوگل برای نشان دادن نحوه کار بارد، این ربات به سئوالی که از او شده بود پاسخی غلط داد.

در این تبلیغ از بارد پرسیده شده بود که به پرسش یک کودک ۹ ساله درباره اکتشافات تلسکوپ فضایی جیمز وب چه پاسخی می‌دهد. جواب بارد این بود که جیمز وب اولین تلسکوپی است که از یک سیاره خارج از منظومه شمسی عکس گرفته است. در حالی که در واقعیت این دستاورد متعلق به «تلسکوپ فوق‌العاده بزرگ اروپایی» در سال ۲۰۰۴ است.

روز بعد از این اتفاق و در پی پخش گسترده آن در شبکه‌های اجتماعی، سهام گوگل بیش از ۷ درصد و به اندازه ۱۰۰ میلیارد دلار سقوط کرد.

دو معاون مدیر گوگل، یعنی سیسی هسیائو و الی کالینز، در یک پست وبلاگی که گفته شده با کمک ربات بارد نوشته شده گفته‌اند علی‌رغم مشکلات احتمالی این فناوری، بارد همچنان «مزایایی باورنکردنی» همچون «بالا بردن بهره‌وری، خلاقیت و کنجکاوی انسانی» را ارائه می‌کند.

پیشتر ساندار پیچای، مدیرعامل گوگل، در یک پست وبلاگی در همین رابطه در ماه فوریه گفته بود کار گوگل در این زمینه هوش مصنوعی در سال ۲۰۱۷ با یک مقاله جامع درباره یک مدل یادگیری عمیق در زبان ماشین موسوم به «ترانسفورمر» و پیشرفت مدل‌های آن شروع شده بود که «بنیان بسیاری از کارها هستند و برنامه‌های مولد هوش مصنوعی که امروز شما می‌بینید بر پایه آن‌ها قرار دارند.»

طبق گفته مقامات گوگل بارد از اطلاعات گرفته شده از اینترنت «برای ارائه پاسخ‌های جدید و با کیفیت» استفاده می‌کند، هرچند نسخه فعلی آن به اینترنت متصل نیست. در واقع این ربات، مانند چت جی‌پی‌تی، بر روی یک پایگاه داده عظیم سوار شده و برای استفاده از آن آموزش داده شده است.

مایکروسافت که یکی از سرمایه‌گذاران اصلی پروژه «OpenAI» به عنوان خالق چت‌ جی‌پی‌تی است اخیراً یک ربات چت هوش مصنوعی را در موتور جستجوی «بینگ» خود راه‌اندازی کرده است. این مدلی است که در آن هوش مصنوعی به اینترنت متصل است و داده‌ها را به صورت آنلاین یا برخط دریافت و پردازش می‌کند.

هنوز مشخص نیست بارد تا چه حد ضعیف‌تر یا قوی‌تر از چت جی‌پی‌تی است و برای مقایسه فعلا باید کاربران منتظر بمانند تا نسخه عمومی در اختیار همگان قرار گیرد. با این حال تحلیل نسخه‌های اولیه نشان می‌دهد بارد نیز همچون چت‌ جی‌پی‌تی می‌تواند موضوعات پیچیده، مانند اکتشافات فضایی را با عباراتی به اندازه کافی ساده برای درک کودک توضیح دهد.

گوگل اعلام کرده است که بارد فعلا در حالت آزمایشی قرار دارد. این ربات پس از ثبت‌نام، پیامی به کاربر می‌گوید: «بارد یک نسخه آزمایشی است. همانطور که بارد را امتحان می‌کنید، لطفاً به یاد داشته باشید ربات همیشه درست کار نخواهد کرد و ممکن است پاسخ‌های نادرست یا نامناسب بدهد.»

همچنین به کاربران توصیه می‌شود از جستجوی گوگل برای بررسی پاسخ‌هایی که در مورد آن‌ها شک دارند استفاده کنند.

وجود ربات بارد کمتر از دو هفته پس از آن اعلام شد که مایکروسافت فاش کرد قصد دارد میلیاردها دلار دیگر در شرکت مادر چت‌ جی‌پی‌تی سرمایه‌گذاری کند. پیش از این مایکروسافت حدود یک میلیارد یورو در این شرکت سهام داشت.

این در شرایطی است که گوگل هفته گذشته اعلام کرد در حال سرمایه گذاری و مشارکت با «آنتروپیک»، یک شرکت دانش‌بنیان هوش مصنوعی به رهبری برخی از مدیران سابق شرکت مادر چت‌ جی‌پی‌تی، است.

بسیاری از تحلیلگران بر این باورند که فناوری هوش مصنوعی به اندازه رایانه‌های شخصی، اینترنت و تلفن‌های هوشمند تحول‌آفرین خواهد بود.

ساندرا پیچای در شش سال گذشته همواره در سخنرانی‌های خود بر اهمیت هوش مصنوعی تاکید کرده است. یکی از مشهودترین دستاوردهای جانبی گوگل در این زمینه سیستم «مدل زبانی برای برنامه‌های گفتگو» ( LaMDA) نام دارد که از آن برای توسعه بارد استفاده شده است.

گوگل همچنین قصد دارد شروع به ترکیب این سیستم و سایر پیشرفت‌های هوش مصنوعی در موتور جستجوی خود کند تا بتواند پاسخ‌های مفیدتری به سؤالات پیچیده‌تر که توسط میلیاردها کاربر پرسیده می‌شوند، ارائه کند.

آقای پیچای جدول زمانی مشخصی برای این تغییرات ارائه نکرده است، با این حال گفته است که این ابزارها در آینده نزدیک بر روی موتور جستجوی گوگل نصب خواهند شد.

به نظر می‌رسد که ابزارهای هوش مصنوعی به ابزار قدرتمندی برای هکرها تبدیل شده و آن‌ها توانسته‌اند با سوءاستفاده از این فناوری نوظهور به تولید بدافزار و حتی انتشار آن‌ها در پلتفرم‌های بزرگ روی آورند.
به نظر می‌رسد که ابزارهای هوش مصنوعی به ابزار قدرتمندی برای هکرها تبدیل شده و آن‌ها توانسته‌اند با سوءاستفاده از این فناوری نوظهور به تولید بدافزار و حتی انتشار آن‌ها در پلتفرم‌های بزرگ روی آورند. گزارش‌های جدید حاکی از آن است که هکرها در حال انتشار ویدئوهای آلوده به بدافزارهای سرقت اطلاعات در یوتیوب هستند.

طی چند ماه گذشته اخبار زیادی با محوریت هوش مصنوعی در رسانه‌های مختلف منتشر شده و این فناوری سریعاً توانسته توجه علاقه‌مندان به دنیای فناوری را به سمت خود جلب کند. با این حال، هر فناوری جدیدی که معرفی می‌شود، احتمال سوءاستفاده از آن و تبدیل شدن به یک ابزار برای کارهای غیرقانونی وجود دارد.
هوش مصنوعی نیز از این قاعده مستثنی نیست و به نظر می‌رسد که تمایل هکرها برای استفاده از این فناوری در راستای کلاهبرداری و سرقت اطلاعات کاربران در پلتفرم‌های بزرگ مانند یوتیوب به شدت افزایش یافته است.

طبق تازه‌ترین گزارش منتشر شده توسط شرکت CloudSEK، از سال ۲۰۲۲ به بعد تعداد ویدئوهای حاوی بدافزار چیزی حدود ۲۰۰ تا ۳۰۰ درصد افزایش یافته است. در این گزارش همچنین توضیح داده شده که هکرها از بدافزارهای شناخته شده‌ای همچون Raccoon، Vidar یا RedLine استفاده می‌کنند.

به گفته محققان CloudSEK، هکرها با انتشار ویدئوهای آموزشی و اتصال لینک‌های ارجاع‌دهنده به بدافزارهای مختلف سعی می‌کنند تا اطلاعات حساس کاربران را به سرقت ببرند. آن‌ها سعی می‌کنند ویدئوهای حاوی بدافزار که توسط هوش مصنوعی تولید شده‌اند را به عنوان آموزش استفاده یا دانلود نسخه‌های کرک شده نرم‌افزارهای محبوب و پرکاربرد در پلتفرم یوتیوب منتشر کنند.

در مرحله بعد کاربر مجذوب عنوان‌های فریبنده این ویدئوها شده و پس از کلیک کردن بر روی آن‌ها، فرایند دانلود و آلوده شدن سیستم آغاز می‌شود.

CloudSEK اعلام کرده است که این شیوه سوءاستفاده از هوش مصنوعی پیش از این در رسانه‌های اجتماعی محبوب و با عنوان محتوای آموزشی، استخدام یا تبلیغات مورد استفاده قرار می‌گرفت، با این حال اکنون هکرها دست به کار شده و از قابلیت‌های هوش مصنوعی برای تولید محتوای مخرب در پلتفرم‌های بزرگ مانند یوتیوب سوءاستفاده می‌کنند.

بدافزارهای فوق‌الذکر پس از آلوده کردن سیستم کاربر به راحتی می‌توانند اطلاعات و داده‌های مهم مانند رمز عبور، اطلاعات کارت بانکی، شماره حساب‌ها، مخاطبان ذخیره شده در رسانه‌های اجتماعی و غیره را به سرقت برده و در اختیار هکر قرار دهند.
در گزارش CloudSEK به‌عنوان مثال به بدافزار Infostealer اشاره شده است که پس از کلیک کردن کاربر روی یک سری ویدئوی آلوده، بر روی سیستم دانلود و نصب می‌شود. در مرحله بعد، این بدافزار دست به کار شده و داده‌های مهم مانند اطلاعات ذخیره شده در مرورگر اینترنت، کیف پول‌های رمزارز، فایل‌ها و اسناد متنی، اطلاعات پلتفرم‌های رسانه اجتماعی مانند واتساپ و تلگرام، آدرس IP و غیره را ذخیره کرده و در اختیار تولیدکننده ویدئو قرار می‌دهد.
طبق آنچه در این گزارش آمده است، پس از انقلاب هوش مصنوعی و تبدیل ابزارهای مرتبط با آن‌ها به یک سرگرمی عمومی، تعداد هکرها و سازندگان بدافزار نیز به‌شدت افزایش یافته و آن‌ها به راحتی می‌توانند با سوءاستفاده از این ابزارهای نوظهور بدافزارهای سطح بالا و پیچیده‌ای را تولید کنند.

البته شرکت‌های فعال در حوزه امنیت سایبری نیز بیکار ننشسته و با به‌روزرسانی پایگاه‌های داده خود توانسته‌اند تعداد قابل توجهی از بدافزارهای تولید شده توسط ابزارهای هوش مصنوعی از جمله ChatGPT را شناسایی کنند، با این حال، فرایند تکامل و توسعه این بدافزارها همچنان ادامه داشته و هکرها هر روز به دنبال روش‌ها و راه‌های تازه‌ای برای استفاده از هوش مصنوعی در این مسیر هستند.

منبع:  شهر سخت افزار

هوش مصنوعی تهدید می‌کند و عاشق می‌شود!

سه شنبه, ۲۳ اسفند ۱۴۰۱، ۰۱:۰۰ ب.ظ | ۰ نظر

سعید میرشاهی – مدت کوتاهی پس از اینکه مایکروسافت، ابزار جستجوی جدید خود (بینگ)، مبتنی بر هوش مصنوعی را برای گروهی از کاربران در اوایل فوریه رونمایی کرد یک دانشجوی 23 ساله آلمانی تصمیم گرفت محدودیت‌های آن را آزمایش کند.

داده‌های هوش مصنوعی متا لو رفت

جمعه, ۱۹ اسفند ۱۴۰۱، ۰۷:۰۷ ب.ظ | ۰ نظر

انتشار غیرمجاز فایل‌های هوش مصنوعی متا، نگرانی کارشناسان پیرامون استفاده از آن برای اهداف نامناسب را در پی داشته است.
به گزارش خبرگزاری صدا و سیما، حدود دو هفته پیش، متا از مدل زبانی هوش مصنوعی خود با عنوان LLaMA رونمایی کرد؛ ابزاری که برخلاف رقبای خود مثل ChatGPT یا چت‌بات بینگ مایکروسافت، برای عموم منتشر نشده است. اما به‌تازگی گزارش‌هایی از افشای هوش مصنوعی متا در یکی از سکوهای نه‌چندان خوشنام اینترنت منتشر شده؛ اقدامی که نگران‌هایی را پیرامون استفاده از این ابزار در پی داشته است.
متا قصد انتشار LLaMA را به صورت یک چت‌بات برای عموم نداشته و تنها می‌خواسته است آن را در قالب یک بسته متن‌باز در اختیار فعالان حوزه AI قرار دهد. مدیران فیسبوک، علت این تصمیم را رفع مشکلات و باگ‌ها در کنار مواردی مثل ارائه پاسخ‌های جهت‌دار و نادرست اعلام کرده بودند. با این حال، پس از گذشت حدود یک هفته، یک فایل تورنت قابل دانلود روی بستر ۴ Chan قرار گرفت و به سرعت در سایت‌ها و برنامه های کاربردی دیگر پخش شد.
برخی افراد معتقد هستند که افشای این داده‌ها، می‌تواند عواقب جدی برای فیسبوک به همراه داشته باشد و این شرکت را متهم به انتشار سهل‌انگارانه سرویس خود می‌کنند. یکی از کارشناسان حوزه امنیت سایبری، هشدار می‌دهد که کاربران باید به‌زودی منتظر انبوهی از پیام‌های اسپم شخصی‌سازی شده و تلاش‌های جدید برای حملات فیشینگ باشند. البته برخی دیگر، می‌گویند که دسترسی آزادانه به AI از ضرورت بالایی برخوردار است و مدل‌های زبانی پیچیده مشابه با محصول فیسبوک هم در گذشته به صورت عمومی در اختیار علاقه‌مندان قرار گرفته‌ و پیامد‌های چندانی نداشته‌اند.
نشریه دِورج در مصاحبه با چندین کارشناس امنیت دیجیتال، مطابقت مدل زبانی افشا شده با هوش مصنوعی متا را تایید کرده است. مدیران فیسبوک از اظهار نظر پیرامون منشا نشت داده، خودداری کرده‌اند؛ اما مدیر اجرایی بخش AI این شرکت، تایید کرده است که برخی افراد، قصد دسترسی غیرمجاز به LLaMA را داشته‌اند. دانلود فایل‌های مرتبط با این ابزار که شامل ۴ مدل زبانی مختلف می‌شود، چندان سودی برای کاربران عادی نخواهد داشت؛ زیرا با یک مدل خام مواجه هستیم که نیاز به تمرین دارد و برای چنین کاری، به حجم عظیمی از قدرت پردازش نیاز خواهد داشت.
گفته شده است که افراد دارای تجربه کار با سرور‌ها و محیط‌های توسعه در طرح های پیچیده می‌توانند با دنبال کردن راهنمای مناسب و صرف زمان کافی، LLaMA را به یک ابزار قابل استفاده تبدیل کنند. همچنین سخت‌افزار و مهارت قبلی، تنها موانع استفاده غیرمجاز از هوش مصنوعی متا نیستند؛ زیرا این ابزار برای ایجاد مکالمه با کاربر مثل ChatGPT بهینه‌سازی نشده است. معمولاً چنین بهینه‌سازی‌هایی در مراحل پایانی توسعه ابزار‌های مبتنی بر AI صورت می‌گیرند و فرایند نسبتاً دشواری به شمار می‌روند.
گرداننده موسسه تحقیقاتی غیرانتفاعی EleutherAI اشاره دارد که نیاز پردازش بالای هوش مصنوعی متا، عامل محدودکننده اصلی در استفاده موثر از آن خواهد بود؛ چون بیشتر کاربران از حداقل سخت‌افزار مورد نیاز برای اجرای LLaMA برخوردار نیستند و برای اجرای روان آن هم به سیستم‌های پیشرفته و گران‌تری نیاز خواهد بود. نیاز پردازشی سنگین، نشان می‌دهد که ابزار فیسبوک از قدرت زیادی برخوردار است؛ به‌طوری که می‌تواند میلیارد‌ها پارامتر را مورد ارزیابی قرار دهد. البته متا اشاره دارد که یکی از مدل‌های زبانی با قابلیت بررسی ۱۳ میلیارد پارامتر، می‌تواند روی کارت گرافیک A ۱۰۰ اجرا شود و امکان اجاره ابری آن به ازای چند دلار در ساعت، وجود دارد. فیسبوک ادعا دارد که این مدل، می‌تواند عملکردی بهتر از GPT-۳ با توان ارزیابی ۱۷۵ میلیارد پارامتر از خود نشان دهد.
افشای هوش مصنوعی متا، بحث درباره دسترسی آزاد به ابزار‌های مبتنی بر AI را هم دوباره پیش کشیده است. اگرچه هدف مخالفان و موافقان این موضوع، یکسان است؛ اما دید کاملاً متفاوتی نسبت به مسئله دارند. موافقان، می‌گویند که دسترسی آزاد می‌تواند مشکلات و آسیب‌پذیری‌های سرویس‌ها را سریع‌تر مشخص کند و امکان سوء استفاده از آن‌ها را محدود سازد. در سوی دیگر مخالفان ادعا دارند که دسترسی آزادانه می‌تواند خطرناک باشد و امکان استفاده از AI برای انجام امور پیچیده و خطرناک وجود دارد که در نهایت می‌تواند امنیت عموم را به خطر بیندازد.

چین برای پیش‌افتادن از آمریکا در زمینه توسعه هوش مصنوعی و به کارگیری آن در بخش‌های مختلف از جمله خودرو‌های خودران تلاش می‌کند.
به گزارش خبرگزاری صداوسیما، به نقل از شبکه الجزیره، استفاده از هوش مصنوعی در چین به بخش‌های آموزشی، حمل و نقل، پرداخت‌های الکترونیکی و نیز صنایع نظامی گسترش یافته است. در حالی که پیشتر استفاده از هوش مصنوعی محدود به تحلیل داده‌ها، طراحی‌های رایانه‌ای و برنامه‌نویسی بود. پکن تلاش می‌کند در زمینه هوش مصنوعی در جهان در سال ۲۰۳۰ پیشرو باشد و از بزرگترین رقیب خود در این زمینه یعنی آمریکا عبور کند. در این گزارش به پیشرفت‌های چین در این زمینه و تلاش واشنگتن برای مهار پیشرفت چین می‌پردازیم.

عباس پورخصالیان – کاربران ایرانی مقیم ج.ا.  فعلاً نمی‌توانند به راحتی به پلتفرم هوشمند ChatGPT  متصل شوند و از آن، مستقیماً و بی‌واسطه استفاده کنند.

هراس دانشمندان از هوش مصنوعی

دوشنبه, ۸ اسفند ۱۴۰۱، ۰۸:۴۵ ق.ظ | ۰ نظر

آسیه فروردین/ سعید میرشاهی – مجله معروف «نیچر» در یک مقاله مفصل به قلم کریس استوکل واکر و ریچارد ون نوردن، حال و آینده هوش مصنوعی مولد و فرصت‌ها و تهدیدهای آن را از منظر علمی بررسی کرده است.

دانشمندان دانشگاه لیورپول در تحقیقات خود پیرامون توانایی‌های ChatGPT به نتایج جالبی در این باره دست یافتند.
به گزارش باشگاه خبرنگاران محققان دانشگاه لیورپول آزمایش کرده‌اند که آیا چت ربات مبتنی بر هوش مصنوعی ChatGPT می‌تواند برای تصمیم گیری در مورد تجویز آنتی بیوتیک برای بیماران استفاده شود یا خیر.

در نامه‌ای که در The Lancet Infectious Diseases منتشر شده است، بیان شده اگرچه هوش مصنوعی هنوز نمی‌تواند جایگزین پزشک خانواده شود، اما پتانسیل روشنی برای نقش فناوری در عملکرد بالینی وجود دارد.

محققان ChatGPT را با هشت سناریو عفونت فرضی ارائه کردند که افراد معمولا در مورد آن‌ها با پزشک خود مشورت می‌کردند (مانند عفونت قفسه سینه)، آن‌ها سپس توصیه‌های ارائه شده توسط این فناوری را از نظر مناسب بودن، سازگاری و تاثیر آن بر ایمنی بیمار ارزیابی کردند.

ارزیابی نشان داد که ChatGPT سناریو‌ها را درک می‌کند و پاسخ‌های منسجمی از جمله سلب مسئولیت و نشانه‌گذاری بیماران به منابع مشاوره ارائه می‌دهد؛ همچنین به نظر می‌رسد نیاز به تجویز آنتی‌بیوتیک تنها زمانی را که شواهدی از عفونت باکتریایی وجود داشته باشد، درک می‌کند؛ با این حال ChatGPT در سناریو‌های پیچیده و در مواردی که اطلاعات مهم به صراحت ارائه نشده بود، توصیه‌های ناامن ارائه می‌کرد.

جالب توجه است که هوش مصنوعی به جای سایر عوامل، روی نوع آنتی بیوتیک تجویز شده در هر سناریو تمرکز می‌کند که منعکس کننده مفروضاتی است که اغلب در ابتدا توسط پزشکان در طول مشاوره مطرح می‌شد. پس از این آزمایش، محققان اکنون چک لیستی را برای استاندارد‌هایی که هوش مصنوعی باید رعایت کند تا برای استفاده در عمل بالینی در آینده در نظر گرفته شود، تهیه کردند.

دکتر الکس هاوارد، یکی از نویسندگان این نامه، گفت: «مشاهده پتانسیل هوش مصنوعی در مراقبت‌های بهداشتی که از طریق آزمایش توانایی ChatGPT در ارائه توصیه‌های درمانی آنتی بیوتیکی نشان داده شد، شگفت انگیز بود. با افزایش مقاومت آنتی بیوتیکی که تهدیدی قابل توجه برای سلامت جهانی است، توانایی هوش مصنوعی برای ارائه توصیه‌های درمانی دقیق و ایمن می‌تواند روشی را که ما به مراقبت از بیمار برخورد می‌کنیم، متحول کند. ما مشتاقانه منتظر اکتشاف بیشتر این فناوری و پیامد‌های آن برای آینده هستیم».

رقیب چینی"چت جی پی تی" آمد

جمعه, ۵ اسفند ۱۴۰۱، ۰۳:۵۸ ب.ظ | ۰ نظر

چین به‌تازگی یک چت‌بات هوش مصنوعی با نام MOSS را برای آزمایش عمومی راه‌اندازی کرده است.
به گزارش خبرگزاری صدا و سیما چت‌بات هوش مصنوعی MOSS که به‌عنوان رقیب بالقوه ChatGPT معرفی شده، اکنون برای آزمایش عمومی در دسترس کاربران کشور چین قرار گرفته و البته ظاهراً در همین ابتدا با مشکلاتی روبه‌رو شده است.

MOSS توسط آزمایشگاه پردازش زبان طبیعی دانشگاه فودان شهر شانگ‌های توسعه داده شده؛ درست مانند ChatGPT، این سیستم نیز یک بات گفت‌وگومحور یا مدل زبانی مشابه است که می‌تواند عملکرد‌های مختلفی مانند پاسخ به یک سؤال، ایجاد دیالوگ، نوشتن کد و موارد دیگری را انجام دهد. هرچند بات چینی به‌اندازه ChatGPT هوشمند یا پیشرفته نیست، اما همچنان می‌تواند وظایف مبتنی بر زبان را انجام دهد.
دکتر «زیپنگ کیو»، استاد علوم کامپیوتر دانشگاه فودان گفت: MOSS را می‌توان به‌عنوان نسخه پایین‌رده ChatGPT در نظر گرفت. هر دوی آن‌ها در انجام چندین وظیفه مبتنی بر زبان مهارت دارند، اما تعداد پارامتر‌های MOSS به‌طور قابل‌توجهی کمتر است.

وی در ادامه افزود: هرچند هنوز فضای زیادی برای پیشرفت وجود دارد، اما ظهور MOSS ثابت می‌کند که تیم‌های تحقیقاتی چینی توانایی غلبه بر چالش‌های فنی در توسعه محصولات مشابه ChatGPT را دارند.

MOSS توسط دانشگاه فودان از طریق یک لینک برای آزمایش عمومی ارائه شده است. کاربران زیادی دعوت شده‌اند تا برنامه را با استفاده از یک کد دعوت خاص آزمایش کنند و اگر کاربر کد دعوت نداشته باشد، با ارسال شماره خود می‌تواند در لیست انتظار قرار بگیرد. همچنین باید اشاره کرد که MOSS برای برقراری ارتباط به زبان انگلیسی و نه چینی طراحی شده و دارای پایگاه داده‌ای با بیش از ۳۰۰ میلیارد کلمه انگلیسی است؛ اما تنها ۳۰ میلیارد کلمه چینی می‌داند.

بااین‌حال، همان‌طور که رویترز در گزارشی توضیح می‌دهد، دانشمندان چینی پس از اینکه MOSS به‌دلیل افزایش ناگهانی ترافیک، ساعاتی پس از راه‌اندازی عمومی از کار افتاد، از کاربران عذرخواهی کردند.

در بیانیه آن‌ها آمده است: «MOSS هنوز یک مدل بسیار نابالغ است و تا رسیدن به ChatGPT راه زیادی در پیش دارد. یک آزمایشگاه تحقیقاتی دانشگاهی مانند ما قادر به تولید مدلی نیست که توانایی آن شبیه به ChatGPT باشد. منابع محاسباتی ما برای پشتیبانی از چنین ترافیک زیادی کافی نبود و به‌عنوان یک گروه دانشگاهی تجربه مهندسی کافی نداریم و بدین‌وسیله از همه به‌دلیل تجربه بسیار بدی که ایجاد کرده‌ایم، عذرخواهی می‌کنیم.»

 

 

  • مقایسه ChatGPT و MOSS
    مراحل اساسی توسعه ChatGPT و MOSS مشابه با هم هستند. هر دو سیستم در پردازش زبان طبیعی و درک نیت انسان آموزش دیده‌اند، اما روش آموزش آن‌ها متفاوت است.

برای آموزش ChatGPT، توسعه‌دهندگان OpenAI ابتدا پایگاه داده‌ای از هزاران سؤال را جمع‌آوری کردند که برای کارشناسان ارسال شد. این کارشناسان سپس به سؤالاتی که توسط چت‌بات برای درک پیام‌های مختلف انسان استفاده می‌شود، پاسخ‌هایی ارائه می‌کنند.

بااین‌حال، تیم دانشگاه فودان از رویکرد مستقیم‌تری استفاده کردند و به MOSS اجازه دادند تا از همان روز اول با انسان‌ها و سایر مدل‌های هوش مصنوعی در تعامل باشد. این تعاملات سپس یک پایگاه داده قدرتمند برای آن ایجاد کرد. روش تعامل مستقیم به MOSS کمک کرد تا آموزش زبان طبیعی خود را در زمان بسیار کمتری نسبت به ChatGPT انجام دهد.

ChatGPT در برابر گوگل

سه شنبه, ۲ اسفند ۱۴۰۱، ۱۰:۲۱ ق.ظ | ۰ نظر

عباس پورخصالیان – انقلاب در انقلاب، رویدادی غیر معمولی و نامتظره در جوامع بشری ولی اتفاقی دوره ای و قابل انتظار در فضای سایبری است.

لذت دیوانگی ChatGPT در چین

دوشنبه, ۱ اسفند ۱۴۰۱، ۰۱:۵۱ ب.ظ | ۰ نظر

سعید میرشاهی – شرکت OpenAI تحت حمایت مایکروسافت، برنامه چت‌چی‌پی‌تی (ChatGPT) موفق خود را برای کاربران چینی محدود کرده اما این برنامه، توجه زیادی را در این کشور جلب کرده است. همچنین شرکت‌هایی که برای ادغام فناوری در محصولات خود و مقابله با رقیب عجله دارند، توجه زیادی به این برنامه دارند.

نگرانی پدر اینترنت از گسترش هوش مصنوعی

شنبه, ۲۹ بهمن ۱۴۰۱، ۰۶:۵۳ ب.ظ | ۰ نظر

پدر معنوی اینترنت جهان درباره تبعات احتمالی گسترش افسار گسیخته ChatGPT هشدار داد.
برنا- طی چند هفته گذشته به احتمال زیاد شما هم اخبار وسوسه انگیز زیادی درباره ChatGPT شنیده‌اید اما این فناوری می‌تواند به زودی روی دیگر خود را به مردم جهان نشان دهد، همین مسئله سبب شده تا پدر اینترنت جهان از مردم دنیا بخواهد که در استفاده از آن دقت بیشتری انجام دهند.

وینتون سرف که پدر معنوی اینترنت جهان محسوب می‌شود به تازگی از شرکت‌ها خواست تا دقت بیشتری در سرمایه گذاری روی هوش مصنوعی و چت بات هایی مانند ChatGPT و گوگل بارد انجام دهند، وی از عملکرد عجولانه در مواجهه با این پدیده انتقاد کرد.گ

این متخصص فناوری در یک کنفرانس مطبوعاتی عنوان کرد: هرچند هوش مصنوعی در نگاه اول پدیده جذابی به نظر می‌آید اما وابستگی به آن‌ها کار درستی نیست به زعم وی این چت بات‌ها مسئله اخلاقی دارند و پیش از سرمایه گذاری باید در مورد آنها بیشتر فکر کرد. 

وی معتقد است که هرچند امروز اغلب مردم دنیا درباره این چت بات‌ها صحبت می‌کنند. اما این نکته را نادیده بگیریم که هر لحطه امکان دارد که آن‌ها رفتاری مخالف میل ما انجام دهند، ضمن اینکه همه توسعه دهندگان آن، نیت خوبی ندارند و امکان دارد به منافع جمعی ضربه جدی وارد کنند.

وینتون سرف در خاتمه صحبت‌های خود عنوان کرد: باید در این مورد صادق بود. اندیشمندانه رفتار کنید. هنوز مشخص نیست این فناوری ها در اینده چگونه خواهند بود. البته در این بین بزرگترین مشکل خود انسان ها هستند و آنها طی ۴۰۰ و یا حتی ۴۰۰۰ سال اخیر تغییری نکرده اند.

خطر تولید صدا با هوش مصنوعی

چهارشنبه, ۲۶ بهمن ۱۴۰۱، ۰۳:۱۵ ب.ظ | ۰ نظر

کارشناسان متخصص در پزشکی قانونی دیجیتال درباره ویدیو‌های رایج در رسانه‌ها که با استفاده از ابزار‌های هوش مصنوعی ایجاد می‌شوند، هشدار داده اند.
به گزارش باشگاه خبرنگاران کارشناسان متخصص در پزشکی قانونی دیجیتال نسبت به ویدیو‌های رایج در رسانه‌های اجتماعی هشدار داده اند که با استفاده از نسل جدیدی از ابزار‌های هوش مصنوعی ایجاد می‌شوند و به هر کسی اجازه می‌دهند صدایی واقعی را با زدن چند کلیک شبیه سازی و تقلید کند.

این هشدار در گزارشی از سوی آژانس "AB" در پی انتشار یک کلیپ جعلی از کمپین تبلیغاتی جو بایدن، رئیس جمهور آمریکا علیه یک گروه خاص و حمله به حقوق فردی آن‌ها داده شده است.

این اتفاق سهولت ایجاد کلیپ‌های جعلی و آسیب زدن به جهانی واقعی را به نمایش می‌گذارد.

حافظ مالک، استاد مهندسی برق و کامپیوتر در دانشگاه میشیگان گفت: ابزار‌هایی مانند این، آتش فریبکاری را شعله ورتر می‌کنند.

یکی از این ابزارها، ابزاری است که Eleven Labs ماه گذشته در نسخه بتا راه اندازی کرد، و ابزار تخصصی سنتز صدا است که به کاربران اجازه می‌دهد با آپلود چند دقیقه نمونه صدا و نوشتن هر متنی، یک فایل صوتی ایجاد کنند که با صدای هر فرد واقعی مطابقت داشته باشد.

این استارت‌آپ می‌گوید این فناوری برای دوبله کردن صدا به زبان‌های مختلف برای فیلم‌ها، کتاب‌های صوتی و بازی‌ها و حفظ صدا و احساسات گوینده توسعه یافته است.

علاوه بر کلیپ منتشر شده از زبان بایدن، ویدئو‌های دیگری نیز با استفاده از صدای "جعلی" از هیلاری کلینتون، بنیانگذار بیل گیتس، و اما واتسون در پلتفرم‌های ارتباط جمعی رصد شد که در مورد موضوعاتی مانند اشاعه تئوری‌های توطئه و سایر موارد مرتبط با عقاید تروریستی صحبت می‌کنند.

شایان ذکر است که "Eleven Labs" تنها شرکتی نیست که وارد عرصه هوش مصنوعی برای تولید کلیپ‌های صوتی شده است؛ بلکه تعداد شرکت‌ها در این زمینه رو به افزایش است و به صورت رایگان شروع به جلب توجه عمومی قبل از پولی شدن کرده اند.

ربات ChatGPT مدیر عامل یک شرکت شد

يكشنبه, ۲۳ بهمن ۱۴۰۱، ۰۳:۲۶ ب.ظ | ۰ نظر

برای اولین بار در جهان، ربات گفتگوگر ChatGPT هدایت یک شرکت را بر عهده گرفت. شرکت CS India این ربات را به عنوان مدیر عامل برای نظارت و مشاورت بر رشد خود منصوب کرد.
به گزارش ایسنا و به نقل از آی‌ای، اخیرا یک شرکت روابط عمومی و بازاریابی دیجیتال در ایالات متحده دو کارآموز جدید را در تیم خود استخدام کرد. این دو نفر به نام آیکو(Aiko) و آیدن(Aiden) افرادی واقعی نبودند، بلکه آنها مخلوقات هوش مصنوعی و در واقع اولین کارآموزان هوش مصنوعی در جهان بودند.

اکنون یک شرکت هندی تصمیم گرفته این کار را به مرحله‌ای جدید ببرد. شرکت Chhatra Sansad یا CS India، شرکتی است که به توانمندسازی جوانان هند از طریق توسعه و رهبری اختصاص دارد و به تازگی تصمیم گرفته است که ربات ChatGPT را به عنوان مدیر عامل خود منصوب کند.

درست خواندید، این ربات هوش مصنوعی که از زمان راه‌اندازی بیش از دو ماهه خود تاکنون، صدر اخبار را در اختیار گرفته است، اکنون در راس یک شرکت قرار دارد.

ربات گفتگوگر هوش مصنوعی ChatGPT که به دست شرکت OpenAI  توسعه یافته، به دلیل داشتن قدرت پاسخ تقریباً به همه چیز، تفکیک موضوعات پیچیده، سرودن شعر، نوشتن داستان، کدنویسی، ایجاد ایده از ابتدا و با موفقیت گذراندن آزمون پزشکی ایالات متحده مشهور شده است و در واقع یک انقلاب را در عرصه دیجیتال رقم زده است که نوید می‌دهد که زندگی ما هرگز دوباره مثل قبل از پیدایش آن نخواهد شد.

شرکت CS India اولین و تنها سازمانی است که این تصمیم پیشگامانه را برای انتصاب یک ربات هوش مصنوعی به عنوان مدیر عامل در دنیای واقعی اتخاذ می‌کند. پیش از این تنها در یک مجموعه درام علمی-تخیلی آمریکایی موسوم به «Raised By Wolves» دیده شده بود که یک شهرک توسط یک ابررایانه هوش مصنوعی به نام «The Trust» اداره می‌شد.

کونال شارما، بنیانگذار CS India می‌گوید، ChatGPT بر عملیات روزانه این شرکت نظارت خواهد کرد و باعث رشد و گسترش آن خواهد شد.

وی گفت: ChatGPT کاندیدایی عالی برای رهبری سازمان ما در این مأموریت است، زیرا قابلیت‌های پردازش زبان پیشرفته و توانایی تجزیه و تحلیل حجم وسیعی از داده‌ها، آن را برای هدایت تلاش‌های ما برای توانمندسازی جوانان هند از طریق رهبری و توسعه مناسب می‌سازد.

وی افزود: ChatGPT مسئول نظارت بر عملیات روزانه CS India و هدایت رشد و گسترش سازمان خواهد بود. ChatGPT از مهارت‌های پردازش زبان پیشرفته خود برای تجزیه و تحلیل روندهای بازار، شناسایی فرصت‌های تاثیر جدید و توسعه استراتژی‌هایی برای ارتقای رهبری و توسعه جوانان در هند استفاده خواهد کرد.

به گفته شارما، تعهد دیرینه‌ای که این شرکت برای ارائه ابزارها و منابع مناسب به جوانان برای تبدیل شدن به رهبران مؤثر دارد، ChatGPT را به یک شریک حیاتی در این ماموریت تبدیل می‌کند.

البته ChatGPT بدون مشکل نیست و مانند انسان‌ها می‌تواند اشتباه کند. با این حال، این حرکت یک جهش بزرگ در زمینه هوش مصنوعی و منادی آن است که دنیا با ChatGPT و نمونه‌های مشابه آن چگونه خواهد بود.

هوش مصنوعی اینترنت را نابود می‌کند

يكشنبه, ۲۳ بهمن ۱۴۰۱، ۰۸:۵۶ ق.ظ | ۰ نظر

دانیال رمضانی - هر زمان که یک فناوری جدید متولد می‌شود، باید به یاد داشته باشیم که هنوز فقط به عنوان یک ابزار در دست مردم است و به همین دلیل قرار است برای برآوردن خواسته‌های اساسی ما از آن استفاده شود.

Chat GPT گوگل را به خطر انداخت

شنبه, ۲۲ بهمن ۱۴۰۱، ۰۲:۱۸ ب.ظ | ۰ نظر

ظهور برنامه‌های هوش مصنوعی شبیه به Chat GPT پیامد‌های عمیقی برای استفاده از اینترنت دارد. ابزار‌های مشابه Chat GPT می‌توانند یک کسب و کار پرسود را مختل کنند: گوگل.

در نزدیکی مانتین ویو در کالیفرنیا یکی از بزرگترین مراکز پرسود در تاریخ تجارت قرار دارد. آنجا خانه گوگل است که موتور جستجوگر آن برای دو دهه به عنوان در ورودی ترجیحی بشریت در اینترنت و تبلیغ کنندگان قلمداد شده است.

به گزارش اکونومیست؛ گوگل هر ثانیه در هر روز شاید ۱۰۰ هزار جستجوی وب را پردازش می‌کند و به لطف الگوریتم هوشمندانه اش پاسخ‌های معقول مرتبط را ارائه می‌دهد. این موضوع قدرت گوگل را در عمل اثبات کرده است. هم چنین، گوگل میلیارد‌ها فرصت روزانه را برای فروش تبلیغات در کنار پاسخ به پرسش‌های جستجوگران فراهم کرده است.

دقت نتایج باعث می‌شود که کاربران به رقبای گوگل توجهی نداشته باشند: تمام موتور‌های جستجوی دیگر مجموعا یک دهم جستجوگران روزانه را تشکیل می‌دهند.

تبلیغ کنندگان برای دسترسی به کاربران گوگل هزینه سخاوتمندانه‌ای می‌پردازند و معمولا تنها زمانی که فردی از وب سایت آنان بازدید می‌کند هزینه دریافت می‌شود. درآمد شرکت مادر گوگل که اکنون "آلفابت" نامیده می‌شود از سال ۲۰۱۱ میلادی به طور متوسط سالانه بیش از ۲۰ درصد رشد کرده است. آلفابت در ابتدا پس از هزینه‌های عملیاتی بیش از ۳۰۰ میلیارد دلار درآمد داشت. اکنون ارزش بازار آلفابت افزایشی سه برابری یافته وبه ۱.۳ تریلیون دلار رسیده است. آن شرکت چهارمین شرکت با ارزش جهان محسوب می‌شود. برخلاف اپل و مایکروسافت رقبای فنی میانسال بزرگ‌تر گوگل شرکت آلفابت تاکنون نیازی واقعی به اختراع مجدد خود احساس نکرده است.

با این وجود، اکنون Chat GPT وارد میدان شده یک چت ربات هوشمند مصنوعی که توسط استارتاپی به نام Open AI طراحی شده است. Chat GPt و سایر اپلیکیشن‌های مشابه علاوه بر این که می‌توانند مکالمه‌ای شبیه به انسان داشته باشند قادر هستند اشعار، مقالات تاریخی، کد‌های رایانه‌ای و تقریبا هر چیز دیگری را که مردم یادداشت می‌کنند به همان اندازه شبیه به انسان بنویسند.

تخمین زده شده که از زمان راه اندازی اپلیکیشن Chat GPT در ماه نوامبر آن پلتفرم حدود ۱۰۰ میلیون کاربر فعال ماهانه به دست آورده است موفقیتی که برای تیک تاک با سریع‌ترین رشد در میان سایر اپلیکیشن‌های رسانه‌های اجتماعی برای جذب مخاطب ۹ ماه به طول انجامیده بود. سایر هوش مصنوعی‌های "مولد" می‌توانند نقاشی کنند، بسازند یا بخوانند. "بیل گیتس" یکی از بنیانگذاران مایکروسافت این فناوری را "به اندازه رایانه شخصی و به اندازه اینترنت" مهم قلمداد کرده است.

برای "اریک اشمیت" که پیش‌تر گوگل را اداره می‌کرد Chat GPT "نخستین نمونه قابل مشاهده" است که نشان می‌دهد هوش مصنوعی چه تاثیری می‌گذارد. برای او این اولین تهدید قابل مشاهده برای تسلط جستجوگر گوگل است. Chat GPT می‌تواند به انواع سوالاتی که ممکن است افراد از گوگل پرسیده باشند پاسخ دهند. خالق Chat GPT یعنی Open AI کاری کرده که نشان می‌دهد به کسب جایگاه گوگل چشم دوخته است.

در تاریخ ۷ فوریه مایکروسافت اعلام کرد که به تازگی سرمایه گذاری‌ای ۱۰ میلیارد دلاری در Open AI انجام داده است. این موضوع نشان داد که مایکروسافت چگونه درصدد کسب سود بیش‌تر است. نتایح موتور جستجوگر این غول نرم افزاری که "بینگ" نام دارد اکنون با یک جعبه جانبی تولید شده توسط هوش مصنوعی که اطلاعات مربوطه را خلاصه می‌کند همراه خواهد شد. بینگ هم چنین چت بات خود را بر اساس مدل‌های Open AI دریافت خواهد کرد. مایکروسافت ترفند‌های منظمی مانند تهیه فهرست خرید بر اساس یک هفته وعده‌های غذایی برنامه ریزی شده را به نمایش گذاشته است. "ساتیا نادلا" مدیر عامل مایکروسافت می‌گوید:" این روز تازه‌ای در حوزه جستجو است".

"بایدو" (Baidu) موتور جستجوی برتر در چین جایی که گوگل در آنجا با ممنوعیت و محدودیت دسترسی همراه بوده سرویس تقویت شده هوش مصنوعی خود را در ماه مارس راه اندازی خواهد کرد. در مقابل، آلفابت در یک ضد حمله پیشگیرانه در هفته جاری از چت ربات خود با نام "بارد" (Bard) رونمایی کرد و طبق گزارش‌ها ۳۰۰ میلیون دلار در "آنتروپیک" یک استارت آپ مولد هوش مصنوعی سرمایه گذاری کرده است.

در تاریخ ۸ فوریه در حالی که "بارد" برخی از ویژگی‌های جستجوی هوش مصنوعی غیرقابل گفتگو را ارائه می‌کرد شرکت سازنده آن تایید کرد که ظرف چند هفته آینده در جستجو نیز ادعام خواهد شد. البته سرمایه گذاران از شنیدن این خبر تحت تاثیر قرار نگرفتند. قیمت سهام آلفابت پس از اعلام این خبر ۸ درصد کاهش یافت.

با شنیدن چنین اخباری به یک نتیجه قطعی می‌رسیم: نبرد بات‌ها در راه است. این وضعیت روشی را که کاربران در اینترنت جستجو می‌کنند تغییر خواهد داد. با ادامه این روند ممکن است کسب و کار سودآور جستجو مختل شود.

جستجوی آنلاین آخرین بار در روز‌های اولیه خود در طلوع اینترنت مصرف کننده در اواخر دهه ۱۹۹۰ میلادی مختل شد. در آن زمان با افزایش تعداد صفحات وب یافتن اطلاعات مفید دشوارتر شده بود. تعدادی از موتور‌های جستجو مانند "آلتا ویستا" و "یاهو" کار را قدری آسان‌تر ساختند. با این وجود، گوگل بود که در سال ۱۹۹۸ میلادی تاسیس شد و انقلابی در صنعت جستجوگری در فضای مجازی ایجاد کرد. الگوریتم گوگل صفحات وب را بر اساس تعداد وب سایت‌های دیگری که به آن پیوند می‌دادند رتبه بندی کرد که پروکسی خوبی برای ارتباط بود. سپس گوگل متوجه شد که می‌تواند تبلیغات مرتبط با کلمات کلیدی جستجو را در کنار نتایج نمایش دهد.

در چند سال گذشته رقبایی برای گوگل ظاهر شده اند. برخی از آن رقبا استارت آپ‌هایی هستند که مانند Neeva جستجوی بدون آگهی را ارائه می‌کنند. سایرین شامل رقبای بزرگ فناوری آلفابت هستند. آمازون که فروشگاه الکترونیکی آن به مکانی تبدیل شده که بسیاری از خریداران شروع به جستجوی محصولات می‌کنند سهم خود از بازار تبلیغات جستجوی آمریکا را از ۳ درصد در سال ۲۰۱۶ میلادی به ۲۳ درصد امروز افزایش داده است.

کسب و کار تبلیغات جستجوی اپل که شامل جستجوی اپلیکیشن‌ها در آیفون‌ها می‌شود اکنون ۷ درصد از این بازار را در اختیار دارد که در مقایسه با چند سال گذشته هیچ گونه افزایشی نداشته است. تحقیقات گوگل نشان می‌دهد که دو پنجم جوانان ۱۸ تا ۲۴ ساله هنگام جستجوی رستورانی در نزدیکی محل سکونت خود از اینستاگرام، برنامه اشتراک گذاری عکس متا یا تیک تاک بیش از Google Maps استفاده می‌کنند.

به گفته شرکت تحقیقاتی e Marketer در نتیجه این وضعیت سهم گوگل از درآمد حاصل از تبلیغات جستجو در آمریکا در سال جاری به ۵۴ درصد کاهش می‌یابد. این در حالیست که در سال ۲۰۱۶ میلادی سهم گوگل از درآمد حاصل از تبلیغات جستجو در امریکا ۶۷ درصد بود. با این وجود، رقبا هرگز تهدیدی وجودی برای گوگل ایجاد نکرده بودند.

برای درک اینکه چرا گوگل از چت بات‌ها می‌ترسد ابتدا فناوری پشت آن را در نظر بگیرید. Chat GPT با پیش‌بینی کلمه بعدی در یک جمله کار می‌کند که پاسخی به برخی پرسش‌ها می‌باشد. این پیش بینی‌ها بر اساس یک "مدل زبان بزرگ" انجام می‌شوند که نتیجه تحلیل قبلی از میلیون‌ها متن برداشت شده از اینترنت است. هنگامی که ربات چت با تمام این زبان طبیعی آموزش دید و هنگامی که دستورالعمل‌های کاربران از آنان خواسته می‌شود می‌تواند به جای ارائه فهرستی از پیوند‌ها پاسخی روان تولید کند.

این بدان معناست که پاسخ‌ها در اصل می‌توانند دارای متغیر‌های بسیار بیش تری باشند. آیا می‌خواهید به یک سفر یک روزه به جایی خارج از مسیر معمولی بروید که ارزان، مناسب برای کودکان و آموزشی باشد؟ امروز برای یافتن یک پاسخ دقیق در گوگل (یا بینگ یا بایدو) نیاز به مقایسه ده‌ها وب سایت و چندین تُن متن دارید مگر آن که یک پست وبلاگ مختص سفر را پیدا کنید. در مقابل، Chat GPT فهرستی از گزینه‌های مناسب را در چند لحظه ارائه می‌کند. سپس کاربران می‌توانند ملاحظات اضافی را اضافه کنند یا با درخواست‌های بعدی اطلاعات بیش تری را درخواست کنند.

تغییر نحوه جستجوی افراد به نوبه خود آن چه را که جستجو می‌کنند تغییر می‌دهد. علاوه بر جستجوی اطلاعات موجود کاربران می‌توانند از جستجوی مکالمه برای تولید محتوای اصلی استفاده کنند. Chat GPT شعر و مقاله در صورت تمایل به سبک نویسنده مورد علاقه تان می‌نویسد. در تاریخ ۲۶ ژانویه گوگل مقاله‌ای را منتشر کرد که در آن Music LM یک مدل زبان بزرگ جدید که می‌تواند از متن موسیقی بسازد توصیف کرد. Git Hub یک پلتفرم متعلق به مایکروسافت که میزبان برنامه‌های منبع باز است یک ربات چت به نام Copilot دارد که می‌تواند خطوط کد را ایجاد کند. به نظر می‌رسد شاهد ایجاد بازار‌های کاملا جدیدی پیرامون حوزه جستجو هستیم.

 

  • کمی مکالمه بیش‌تر

جستجوی محاوره‌ای به عنوان یک حوزه جدید تازه واردان امیدوار را جذب می‌کند که با چشم انداز بازار در حال گسترش برای جستجو و محتوای تولیدی تقویت شده است. "ریچارد سوچر" بنیانگذار You.com استارتاپی که یک چت ربات جستجوی مبتنی بر هوش مصنوعی ارائه می‌کند می‌گوید: "زمانی که دو سال پیش آغاز به کار کردم مردم می‌گفتند دیوانه هستم.اکنون این احساسات به شدت تغییر کرده است".

Neeva یک ربات چت را به جستجوی اشتراک خود اضافه کرده است. بنیانگذار آن امیدوار است که این قابلیت به Neeva کمک کند تا از تقریبا ۲ میلیون مشترک امروز به ۵ میلیون تا ۱۰ میلیون مشترک برسد و از نظر مالی خودکفا شود. شرکت‌های مسافرتی از جمله Booking.com نیز با چت بات‌ها بازی می‌کنند.

جدی‌ترین تهدید برای گوگل از جانب مایکروسافت است که در حال حاضر زیرساخت‌هایی از جمله توان محاسباتی، سیستم‌های ذخیره‌سازی و ارتش برنامه‌های خزنده وب را در اختیار دارد که دائما اصطلاحا اطلاعات را از اینترنت می‌خراشند. بر اساس برآوردی صورت گرفته این رقابت با گوگل هزینه‌ای بین ۱۰ تا ۳۰ میلیارد دلار به همراه داشته است.

در حال حاضر سهم بینگ از بازار تبلیغات جستجوی آمریکا تقریبا ۵ درصد است. مایکروسافت امیدوار است که ترفند‌های جدیدش این وضعیت را تغییر دهد. به نظر می‌رسد این شرکت برخی از کاستی‌های Chat GPT را برطرف کرده است. یکی از آن موارد به روز نگهداشتن ربات بوده است. هوش مصنوعی زیربنایی Chat GPT، به نام GPT-۳.۵ از سال ۲۰۲۱ میلادی بر روی داده‌ها آموزش دیده است و پس از آن هیچ تصوری از اینترنت ندارد.

برای مثال، اگر از آن در مورد اخبار تازه یا پیش بینی هوای امروز سوال بپرسید از شما عذرخواهی خواهد کرد. در مقابل، هوش مصنوعی بینگ تصمیم می‌گیرد که چگونه مرتبط‌ترین اطلاعات را جمع آوری کند و سپس از ابزار‌های جستجو برای یافتن آن استفاده می‌کند. سپس داده‌ها به مدل بازگردانده می‌شوند که از آن برای ایجاد یک پاسخ روان استفاده می‌کند. شرکت‌های دیگر از جمله Neeva نیز از این روش استفاده می‌کنند.

این موضوع به مایکروسافت کمک کرده تا با یک مشکل بزرگ‌تر مقابله کند: تمایل مدل‌های زبان بزرگ به ساختن مطالب. چت بات‌ها هیچ احساسی از درست یا نادرست بودن ندارند. چت بات بازتاب دهنده آن چیزی هستند که در اینترنت وجود دارد.

در نتیجه، زمانی که قرار است به پرسش‌های جدی پاسخ‌های واقعی داده شود چت بات‌ها یک نقص مهلک هستند. سال گذشته متا مجبور شد Galactica ربات چت علمی خود را حذف کند، زیرا مشخص شد که این بات مهملات به ظاهر علمی را منتشر کرده است. ارائه مدل دسترسی به داده‌های به روز نرخ توهمات را برای ویژگی چت بینگ کاهش داده اگرچه هنوز حذف نشده است. انتظار می‌رود که چت ربات‌ها ظرف یک یا دو سال کاملا هوشیار شوند.

حل مشکلات فناوری تنها اولین گام برای حذف گوگل از حوزه جستجو است. مایکروسافت انتظار دارد که به ازای هر درصد از سهم بازار که در جستجو به دست می‌آورد درآمد تبلیغاتی سالانه اش ۲ میلیارد دلار افزایش یابد. این کار ممکن است، اما تضمین شده نیست. آلفابت نقاط قوت فوق العاده‌ای را حفظ کرده است. یکی از آن نقطه قوت فناوری است. اگرچه گوگل هنوز هوش مصنوعی مولد را در موتور جستجوی خود ادغام نکرده، اما سال هاست که هوش مصنوعی دیگری را در تجارت جستجوی خود به کار گرفته است.

مزیت دیگر گوگل مسئولیت پذیری است. به گفته یک شرکت تحقیقاتی Stat Counter این موتور جستجوی پیش فرض در کروم مرورگر آلفابت است که از هر سه کاربر دو کاربر در اینترنت از آن استفاده می‌کنند. همچنین در بیش از ۹۵ درصد از گوشی‌های تلفن‌های هوشمند در آمریکا جستجو می‌شود. این شرکت سالانه ۱۵ میلیارد دلار یا مبلغی بیش‌تر به اپل پرداخت می‌کند تا جستجوی خود را به صورت پیش فرض در دستگاه‌های اپل داشته باشد دستگاه‌هایی که ۱۹ درصد از مرورگر‌های نصب شده روی دسکتاپ و دستگاه‌ها را شامل می‌شوند.

با این وجود، در جایگاه قدرت قرار داشتن نقاط ضعیف را نیز به همراه دارد. برای آلفابت دشوار است که به سرعت حرکت کند. حتی ممکن است برای آن شرکت دشوارتر باشد که فناوری و مدل کسب و کاری که به مدت ۲۰ سال به طور مداوم برایش سود به همراه داشته را کنار بگذارد.

منبع: فرارو

اولین دوره همایش «روز هوش مصنوعی» با حمایت مرکز تحقیق‌وتوسعه همراه اول آغاز به کار کرد.

به گزارش اداره کل ارتباطات شرکت ارتباطات سیار ایران، نخستین دوره همایش «روز هوش مصنوعی» توسط دانشگاه خواجه نصیرالدین طوسی و با حمایت مرکز تحقیق‌وتوسعه همراه اول در حال برگزاری است.

این رویداد به شکلی برنامه ریزی شده است که افراد و سازمان های دولتی تصمیم گیر و تصمیم ساز در حوزه هوش مصنوعی و همچنین شرکت های پیشرو در زمینه فناوری اطلاعات به همراه افراد دانشگاهی بتوانند تعاملات و همکاری های بیشتری با یکدیگر برقرار کنند و زمینه هم افزایی آنها فراهم شود.

در این رویداد علاوه بر سخنرانی‌ها و پنل‌های تخصصی، کارگاه‌های آموزشی و نمایشگاه فناورانه با مشارکت شرکت‌های پیشرو در هوش مصنوعی برنامه‌ریزی شده است.

شناسایی و ارائه توانمندی‌های دانشگاه در حوزه هوش مصنوعی، گردهم آوری ذی‌نفعان دولتی، خصوصی، دانشگاهی و صنعتی در حوزه هوش مصنوعی و احصاء نیازمندی‌های موجود در جامعه و ارائه راهکارهایی برای پاسخ به این نیازمندی‌ها از مهم ترین اهداف برگزاری این رویداد عنوان شده است.

در این رویداد از افراد باتجربه و تاثیرگذار در حوزه هوش مصنوعی در ایران و جهان دعوت شده است. مهمانان این رویداد از صنعت و دانشگاه انتخاب شده‌اند و در بیش از هفت سخنرانی کلیدی حضور خواهند داشت و در خصوص فرصت‌ها و چالش‌هایی که هوش مصنوعی در ایران و جهان ایجاد کرده است، سخنرانی می کنند. در این بخش از ساعت 17و 30 دقیقه فردا (چهار‌شنبه 19 بهمن 1401) محمدعلی اخایی معاون راهکارهای دیجیتال و هوشمندسازی مرکز تحقیق و توسعه همراه اول ارئه ای با موضوع «دستاوردهای جاری مرکز تحقیق و توسعه در حوزه هوش مصنوعی و نیازمندی‌های آینده این مرکز» خواهند داشت.

همچنین در این رویداد چند پنل تخصصی با تمرکز بر محورهای اصلی رویداد در دو روز برنامه‌ریزی شده است. همراه اول نیز امروز از ساعت 17 و 30 دقیقه پنل تخصصی «چت بات فارسی» را برگزار می کند.

علاقمندان می‌توانند علاوه بر مراجعه به سایت این رویداد به نشانی https://ai-day.kntu.ac.ir/ از طریق لینک شرکت در این پنل  https://www.skyroom.online/ch/ee_kntu/ai-day از  پنل تخصصی و سخنرانی مذکور بهره‌مند شوند.

یکی از اساتید دانشگاه «پرینستون» گفت که صنایع نباید نگران پیشرفت «ChatGPT» باشند زیرا این ربات فقط یک مولد بیهوده است و نمی‌تواند جایگزین آنها شود.
به گزارش ایسنا و به نقل از بیزینس اینسایدر، یک استاد «دانشگاه پرینستون»(Princeton University) که در مورد تاثیر هوش مصنوعی تحقیق می‌کند، معتقد است که ربات محبوب «ChatGPT» شرکت «اوپن‌ای‌آی»(OpenAI) نمی‌تواند یک ناقوس مرگ برای صنایع باشد.

«آرویند نارایانان»(Arvind Narayanan) گفت: اگرچه چنین فناوری‌هایی اکنون بیش از همیشه در دسترس هستند و می‌توانند اطلاعات حجیم را بلافاصله ارائه دهند و حتی آثار خلاقانه را تولید کنند اما برای دستیابی به اطلاعات دقیق نمی‌توان به آنها اعتماد کرد.

وی افزود: این ربات تلاش می‌کند تا متقاعدکننده باشد و هیچ راهی برای اطمینان یافتن از صحت یا عدم صحت اظهاراتی که بیان می‌کند ندارد.

کارشناسانی که هوش مصنوعی را مطالعه می‌کنند، می‌گویند محصولاتی مانند ChatGPT که بخشی از فناوری‌های «مدل زبانی بزرگ»(LLM) هستند و می‌توانند به دستورات انسان پاسخ دهند و خروجی خلاقانه تولید کنند، به ‌جای ترکیب کردن ایده‌ها مانند مغز انسان، صرفا با پیش‌بینی در مورد آنچه باید گفت کار می‌کنند. نارایانان گفت: این باعث می‌شود ChatGPT بیشتر به یک مولد بیهوده تبدیل شود که پاسخ خود را بدون دقت ارائه می‌دهد.

نشانه‌های اولیه‌ای وجود دارند که نشان می‌دهند چگونه شرکت‌ها از این نوع فناوری استفاده می‌کنند. به عنوان مثال، گزارش وال استریت ژورنال نشان می‌دهد شرکت «بازفید»(Buzzfeed) که در ماه دسامبر ۱۲ درصد از نیروی کار خود را اخراج کرد، قصد دارد از فناوری اوپن‌ای‌آی برای کمک به ساخت آزمون‌ها استفاده کند. واشنگتن پست گزارش داد که سایت بررسی فناوری «سی‌نت»(CNET)، داستان‌های تولیدشده توسط هوش مصنوعی را منتشر کرد اما بعدا مجبور شد آنها را اصلاح کند.

نارایانان، مورد سی‌نت را به عنوان نمونه‌ای از مشکلات این نوع فناوری ذکر کرد و گفت: وقتی مشکلات پیش‌آمده را با این واقعیت ترکیب کنید که ربات درک خوبی از حقیقت ندارد، به یک فاجعه پی می‌برید.

وی افزود: نتیجه محتمل‌تر فناوری‌های مدل زبانی بزرگ، تغییر صنایع در پاسخ به استفاده از آن خواهد بود؛ نه این که به طور کامل جایگزین شوند.

نارایانان ادامه داد: حتی با وجود چیزی به ژرفای اینترنت و موتورهای جستجو یا تلفن‌های همراه هوشمند، مشخص شده که این یک انطباق است که در آن ما مزایا را به حداکثر می‌رسانیم و تلاش می‌کنیم تا خطرات را به حداقل برسانیم، نه اینکه نوعی انقلاب را پدید آوریم. من فکر نمی‌کنم که مدل‌های زبانی بزرگ حتی در آن مقیاس باشند. ممکن است تغییرات، مزایا و خطرات گسترده‌ای در بسیاری از صنایع وجود داشته باشد اما من نمی‌توانم تصور کنم که در این شرایط، موضوع سقوط صنایع مطرح باشد.

اینستاگرام از ChatGPT شکست خورد

يكشنبه, ۹ بهمن ۱۴۰۱، ۰۴:۵۶ ب.ظ | ۰ نظر

یکی از ویژگی‌های کلیدی ChatGPT توانایی آن در ایجاد پاسخ‌های متنی انسان‌مانند به درخواست‌ها است. این باعث می‌شود که برای طیف گسترده‌ای از برنامه‌ها مانند ایجاد ربات‌های چت برای ارائه خدمات به مشتری، ایجاد پاسخ به سؤالات در انجمن‌های آنلاین یا حتی ایجاد محتوای شخصی‌سازی‌شده برای پست‌های رسانه‌های اجتماعی مفید باشد.
ربات هوش مصنوعی مشهور ChatGPT که این روز‌ها به شدت بر سر زبان‌ها افتاده است، با عبور از ۱۰ میلیون کاربر روزانه آن هم فقط طی ۴۰ روز از اپلیکیشن معروف اینستاگرام پیشی گرفت.

به گزارش ایسنا و به نقل از آی‌ای، ربات نویسنده و گفتگوگر ChatGPT با ۱۰ میلیون کاربر روزانه در مدت تنها ۴۰ روز از برنامه اینستاگرام پیشی گرفته است.

ChatGPT یک مدل زبانی هوش مصنوعی قدرتمند است که توسط شرکت OpenAI توسعه یافته و تنها ظرف ۴۰ روز از ۱۰ میلیون کاربر روزانه فراتر رفته که نشان دهنده پیش گرفتن از رشد اولیه سریع برنامه محبوب اینستاگرام است.

ربات ChatGPT یک ربات مخصوص گفتگو یا چت است که بر روی خانواده مدل‌های زبان بزرگ ساخته شده و با تکنیک‌های یادگیری نظارت شده و تقویتی به خوبی تنظیم شده است.

این ربات در دسامبر ۲۰۲۲ با نظرات مثبتی مواجه شد و به عنوان مثال نیویورک تایمز آن را «بهترین ربات چت هوش مصنوعی که تا به حال برای عموم معرفی شده» نامید و گاردین نیز گفته است که می‌تواند متنی با جزئیات چشمگیر و مانند انسان تولید کند.

ChatGPT آخرین مورد از یک مجموعه هوش مصنوعی است که شرکت سازنده از آن به عنوان GPTs یاد می‌کند و مخفف عبارت «مبدل از پیش آموزش دیده مولد» (Generative Pre-Trained Transformer) است.

یکی از ویژگی‌های کلیدی ChatGPT توانایی آن در ایجاد پاسخ‌های متنی انسان‌مانند به درخواست‌ها است. این باعث می‌شود که برای طیف گسترده‌ای از برنامه‌ها مانند ایجاد ربات‌های چت برای ارائه خدمات به مشتری، ایجاد پاسخ به سؤالات در انجمن‌های آنلاین یا حتی ایجاد محتوای شخصی‌سازی‌شده برای پست‌های رسانه‌های اجتماعی مفید باشد.

این ربات می‌تواند برای کار‌های پردازش زبان طبیعی مانند تولید متن و ترجمه زبان استفاده شود و با مدل GPT-۳.۵ آموزش دیده است که یکی از بزرگترین و پیشرفته‌ترین مدل‌های زبانی موجود در حال حاضر است.

به گفته یک کارشناس، وقتی در نظر بگیرید که این پلتفرم احتمالاً حداقل ۲۰ میلیون کاربر ماهانه را نشان می‌دهد، این دستاورد حتی چشمگیرتر می‌شود.

برت وینتون (Brett Winton) آینده‌شناس موسسه ARK Venture Investment در توییتی نوشت: ChatGPT به بیش از ۱۰ میلیون کاربر روزانه در ۴۰ روز دست یافته است. این در حالی است که برای اینستاگرام ۳۵۵ روز طول کشید تا به ۱۰ میلیون کاربر ثبت شده برسد.

 

  • آیا رشد کاربران ChatGPT متوقف می‌شود؟

پایگاه کاربران ChatGPT برخلاف اینکه بحث برانگیز است، احتمالاً در آینده رشد خواهد کرد. در عین حال، واکنش کاربران به نمودار رشد ChatGPT که توسط وینتون ترسیم شده این بود: این دیوانه‌وار است.

طبق گفته کارشناسان فناوری، کاربرد‌های بالقوه مدل‌های مبتنی بر هوش مصنوعی تقریباً نامحدود است و با آگاهی بیشتر پژوهشگران و توسعه‌دهندگان از آن، محبوبیت آن‌ها افزایش خواهد یافت.

البته یکی از کاربران در پاسخ به رشته توییت وینتون اظهار داشت که سرعت رشد ChatGPT متوقف می‌شود، در حالی که اینستاگرام سریع‌تر رشد می‌کند.

موفقیت این چَت‌بات را می‌توان به توانایی آن در درک و تولید محتوا به زبانی شبیه به انسان با درک و پاسخ به مجموعه متنوعی از ورودی‌های زبان طبیعی که بر روی مجموعه داده‌های متنی عظیم آموزش داده شده‌اند، نسبت داد.

این موضوع، ChatGPT را به ابزاری ارزشمند برای طیف گسترده‌ای از کاربرد‌ها مانند پردازش زبان طبیعی، یادگیری ماشینی و تجزیه و تحلیل داده‌ها تبدیل کرده است، بنابراین خواب را از سر بسیاری از غول‌های فناوری پرانده است.

 

  • ChatGPT در مقابل گوگل

بر اساس گزارش‌های برخی رسانه‌ها در هفته گذشته، مدیریت گوگل ظاهراً در واکنش به افزایش محبوبیت هوش مصنوعی ChatGPT، یک هشدار قرمز اعلام کرده است.

زمانی که وینتون از chatGPT لیستی از محصولاتی را خواست که مردم فکر می‌کردند به دلیل پذیرش و استقبال اولیه کاربران دوام خواهند آورد، اما در نهایت محو می‌شوند، سه پاسخ اول آن عبارت بودند از Google wave، گوگل پلاس و Google glass.

پایگاه خبری آی‌ای (Interesting Engineering) نیز از ChatGPT خواست تا واکنش خود را نسبت به تعداد کاربران خود و پیشی گرفتن از رشد اولیه اینستاگرام نشان دهد و این ربات پاسخ داد: این خبر که ChatGPT تنها در ۴۰ روز به ۱۰ میلیون کاربر روزانه رسیده است، چشمگیر است و محبوبیت و کاربرد روزافزون این مدل را در طیف گسترده‌ای از برنامه‌ها برجسته می‌کند.

گفتنی است که شرکت گوگل قبلاً شانس خود را در چت‌بات‌ها امتحان کرده است، اما هنوز به نتایج مطلوبی دست نیافته است.

اگرچه گوگل و ChatGPT هر دو دارای مدل‌های زبانی قدرتمندی هستند که توسط شرکت‌های فناوری ایجاد شده‌اند، اما موارد کاربردی و روش‌شناسی آن‌ها متفاوت است.

در حالی که ChatGPT بر تولید زبان طبیعی متمرکز است، گوگل از مدل زبان خود مانند BERT، بیشتر برای تفسیر و جستجوی زبان طبیعی استفاده می‌کند.

هر دو مدل، مزایا و محدودیت‌های خاص خود را دارند و اغلب با فناوری‌های دیگر ترکیب می‌شوند تا به نتیجه دلخواه دست یابند.

در عین حال گفته می‌شود که شرکت OpenAI یک نسخه آزمایشی و برتر از ربات هوش مصنوعی محبوب خود را به نام «ChatGPT Professional» عرضه می‌کند که برای عضویت ماهانه آن باید ۴۲ دلار پرداخت. این نسخه پریمیوم شامل ویژگی‌های اضافی مانند دسترسی بیشتر، زمان پاسخ‌دهی سریع‌تر و دسترسی اولویت‌دار خواهد بود.