تحلیل وضعیت فناوری اطلاعات در ایران |
آنتونیو گوترش دبیرکل سازمان ملل متحد از ایجاد یک سازمان مشاورهای با ۳۹ عضو خبر داد که هدف آن بررسی چالشهای نظارت بینالمللی بر هوش مصنوعی است.
به گزارش خبرگزاری مهر به نقل از رویترز، اعضای این سازمان شامل مدیران ارشد شرکت ها، مقامات دولتی از اسپانیا گرفته تا عربستان سعودی و کارشناسان کشورهای مختلف از جمله آمریکا، روسیه و ژاپن است.
هیرواکی کیتانو ، میرا موراتی مدیران ارشد فناوری شرکتهای سونی و اوپن ای آی همراه ناتاشا کرامپتون مدیر مسئول هوش مصنوعی در مایکروسافت از جمله مدیران ارشد نماینده شرکتها در این سازمان هستند.
همچنین نمایندگان از ۶ قاره با پس زمینههای مختلف، از ویلاس دار کارشناس هوش مصنوعی آمریکایی گرفته تا پروفسور یی زنگ چین و محمدفرحت وکیل مصری عضو این سازمان هستند.
گوترش در بیانیهای اعلام کرد: قابلیت تغییر دهنده هوش مصنوعی را به سختی میتوان هضم کرد. هماکنون کاملا واضح است که استفاده مخرب از هوش مصنوعی اعتماد در موسسات را از بین میبرد، هماهنگی اجتماعی را کاهش میدهد و دموکراسی را تهدید میکند.
از زمان عرضه چت جی پی تی شرکت اوپن ای آی در سال گذشته میلادی، توجهات به این فناوری جدید در سراسر جهان گسترش یافته و سبب شده محققان هوش مصنوعی درباره ریسکهای آن برای جامعه هشدار دهند.
هرچند بسیاری از دولتها مشغول ایجاد قوانینی برای تنظیم گسترش هوش مصنوعی هستند، محققان قانونگذاران خواهان یک همکاری بینالمللی هستند.
این سازمان زیرمجموعه UN(سازمان ملل متحد) توصیههای اولیه خود را تا پایان سال و توصیههای نهایی تا پایان تابستان ۲۰۲۴ میلادی ارائه میکند.
وظیفه اصلی و فوری این زیرمجموعه سازمان ملل متحد شامل ایجاد یک اجماع علمی جهانی در مورد خطرات و چالش ها و تقویت همکاری بین المللی در زمینه حکمرانی هوش مصنوعی است. نخستین جلسه این نهاد در ۲۷ اکتبر برگزار شدهاست.
محمد مهدی سیدی - هوش مصنوعی اگر به درستی به کارگرفته نشود نه تنها فرشتهی نجات نخواهد بود، بلکه روزنامهنگاری میتواند نابود کند. ضربهی هوش مصنوعی به حقیقت با ایجاد اطلاعات جعلی و «توهم هوش مصنوعی» میتواند جبران ناپذیر باشد.
بیش از 20 سال است دقت خبری در مخابره حقیقت در جهان مورد حمله جدی قرار گرفته است. این حمله از زمانی شروع شد که صاحبان شرکتها بدون نیاز به سرمایهگذاری مجدد در اتاقهای خبر، توانستند سودهای کلانی به دست آوردند؛ اینترنت مخاطبان را بازتعریف و تبلیغات را دوباره پیکربندی کرد، در نتیجه بخش زیادی از درآمد اتاقهای خبر کاهش یافت و کارکنان اتاق خبر را بین سالهای 2008-2020 حدود 26 درصد کاهش داد. در ایالات متحده این حملات سنگینتر هم شد؛ جایی که دونالد جی ترامپ با دروغهای بزرگ/کوچک و پیروان فرقه گونهی خود که روزنامهنگاران را دشمن مردم مینامیدند، ظاهر شد.
اما اکنون خطر بزرگتری هم حقیقت را تهدید میکند؛ هوش مصنوعی که ممکن است حقیقت را در زمان ما به کلی ریشه کن کند. نه به خاطر سرقت ادبی یا به خاطر دیپ فیک و نه حتی به خاطر مشاغل نویسندگی کمتر؛ بلکه روزنامهنگاری ممکن است تسلیم توهمات ساختهی هوش مصنوعی، اطلاعات ساختگی و استنباطهای غیرمنطقی شود که تا حد امکان بدون دردسر و کاملاً باورکردنی انجام میشود.
برای جلوگیری از ضربهی جدی به مخابره حقیقت اتاقهای خبر باید استفاده خود از چتباتها را تعدیل، ویراستاران بیشتری استخدام، بر بررسی حقایق تأکید و دستورالعملهایی را درباره برنامههای کاربردی ماشینی ایجاد یا بهروزرسانی کنند.
برای شروع فرآیند نجات حقیقت از دستان هوش مصنوعی، ابتدا باید چهار نوع هوش مصنوعی مورد استفاده یا در دست توسعه را بشناسیم:
• هوش مصنوعی واکنشی: این نوع برای کارهای محدود برنامهریزی شده است. از تعاملات گذشته درس نمیگیرد، اما میتواند شطرنج بازی کند، به عنوان فیلتر هرزنامه عمل کند و مجموعهای از دادهها را تجزیه و تحلیل کند.
• هوش مصنوعی حافظه محدود: این نوع الگوبرداری شده از مغز انسان و قادر به یادگیری از ورودیهای گذشته است؛ مانند ماشینهای خودران، دستیاران مجازی هوشمند و چت باتها.
• تئوری ذهن (هوش عمومی) هوش مصنوعی: این نوع در دست توسعه، برای شناخت و پاسخ به احساسات با تواناییهای تصمیم گیری برابر با انسان طراحی شده است.
• هوش مصنوعی خودآگاه (فوق هوش): این نوع که با آن فاصلهی بسیار زیادی داریم، نه تنها برای تشخیص احساسات انسان، بلکه برای القای نیازها، خواستهها و احساسات خود تئوریزه شده است.
هرچه ماشینها هوشمندتر شوند، توهمات القایی آنها هم خطرناکتر میشود. دریافت یک توصیه بد از دستیار هوشمند گوشیها یا استناد به ارجاعات ناموجود یک چیز است و تشخیص اشتباه یک بیماری روانی یا پاسخ به یک تهدید نظامی نادرست کاملاً چیز دیگری است.
اصطلاح «توهم» به عنوان «ادراک حسی کاذبی که علیرغم عدم وجود یک محرک خارجی، حس قانع کنندهای از واقعیت دارد» تعریف میشود. وبسایت آموزش فناوری اطلاعات Techopedia بیان میکند که توهمهای هوش مصنوعی زمانی اتفاق میافتند که «یک مدل بزرگ مانند OpenAI GPT4 یا Google PalM اطلاعات یا حقایقی نادرست را ایجاد کند که بر اساس دادهها یا رویدادهای واقعی نباشد».
چت رباتهای مبتنی بر هوش مصنوعی میتوانند اطلاعات مربوط به نامها، تاریخها و رویدادهای تاریخی را تولید کنند و موجب ایجاد «توهم هوش مصنوعی» شوند. بدتر از آن، آنها این جعلها را «با اطمینان و محکم» ارائه میکنند که میتواند منجر به «عواقب جدی در برخی موارد»، بهویژه بهداشت و پزشکی شود.
این خطرات به همین جا ختم نمیشود؛ استفاده از ChatGPT حتی میتواند اعتماد به تحقیقات را هم از بین ببرد. دانشآموزان و سایر محققان تازهکار هم اگر ایرادات فراوان ChatGPT را درک نکنند ممکن است مهارتهای تحقیقاتی ضروری خود را از دست بدهند و در کلاس درس با مشکل مواجه شوند.
محققان معمولاً تحت فشار زمان هستند، برای رسیدن تحقیقات خود به بازهی انتشار احساس فشار میکنند و بنابراین ممکن است از چت باتها به عنوان مرجع استفاده کنند. داوران تحقیقات هم به ندرت منابع را قبل از انتشار مقالات بررسی میکنند؛ این یعنی «توهم» ممکن است روش علمی را هم مخدوش کند.
این وضعیت دقیقاً در اتاق های خبر هم وجود دارد. خبرنگاران برای زمان تحت فشار هستند و برای میزان بهرهوری خود پول دریافت میکنند. کمبود ویراستاران خبرهای کپی هم سبب میشود که رسانهها اغلب در بررسی دقیق منابع شکست بخورند. این یعنی سرازیر شدن اطلاعات غلط و بدون پشتوانهی تولید شدهی هوش مصنوعی از اتاقهای خبر به سمت مردم و در نتیجهی آن نابودی حقیقت.
این توهمات نه تنها جامعه را به خطر می اندازد، بلکه حرفهی روزنامهنگاری را نیز به خطر می اندازد؛ زیرا روزنامهنگاری وظیفه دارد از قداست واقعیت محافظت کند. بنابراین، پذیرش هوش مصنوعی بدون درک ماهیت آن ممکن است منجر به بی اعتمادی عمیقتر به رسانههای خبری شود.
برای جلوگیری از آسیبهای یاد شده هوش مصنوعی اتاقهای خبر به سردبیرانی نیاز دارد که اخبار تولید شده را با دقت بررسی و آسیبهای ماشینی شدن را محدود کنند. همچنین تعدیل استفاده از چت باتها و کاربست هوشمندانهی هوش مصنوعی امری ضروری است. همچنین رسانهها باید دستورالعمل هایی را در مورد استفاده از هوش مصنوعی ایجاد یا به روز کنند.
بسیاری از رسانههای بزرگ جهان به سمت تدوین این دستورالعملها حرکت کردهاند؛ برای مثال رویترز برای اطمینان از «مشارکت معنادار انسانی، و توسعه و استقرار محصولات هوش مصنوعی و استفاده از دادهها به گونهای که با مردم منصفانه رفتار کند» نظارتهای جدیای را وضع کرده است. گاردین هم استفاده از هوش مصنوعی مولد را نیازمند نظارت انسانی میداند و آن را منوط به اجازهی یک سردبیر ارشد و برای منافع خاص کرده است.
یکی دیگر از پیشنهادها برای مقابله با آسیبهای هوش مصنوعی ایجاد یک میز حقیقت یا استاندارد است که به آشکارسازهای هوش مصنوعی برتر مجهز باشد.
همهی موارد بیان شده صرفاً بخشی از مسیری است که رسانههای امروز در پیش چشم خود داشته باشند. در این جدال میان حقیقت و هوش مصنوعی، اتاق های خبر باید برای دفاع از واقعیت قبل از اینکه طعمه ماشینها شود، مجهز باشند. (ایرنا)
با توجه به نگرانی های موجود درباره هوش مصنوعی مولد، گوگل اعلام کرد برنامه پاداش آسیب پذیری (VRP) خود را با تمرکز بر حملات خاص هوش مصنوعی و فرصت های سوء استفاده از فناوری گسترش می دهد.
به گزارش خبرگزاری مهر به نقل از انگجت، به طور دقیق تر این شرکت دستورالعمل خود را به روزرسانی کرد که در آن کشفیات واجد شرایط دریافت جایزه را اعلام کرد.
به عنوان مثال، کشف استخراج دادههای آموزشی که اطلاعات خصوصی و حساس را فاش میکند در محدوده مورد نظر قرار میگیرد اما اگر کشف مذکور فقط دادههای عمومی و غیر حساس را نشان دهد، واجد شرایط دریافت جایزه نخواهد بود. سال گذشته، گوگل ۱۲ میلیون دلار برای کشف باگ به محققان امنیتی داد.
این شرکت امنیتی توضیح داده هوش مصنوعی با چالش های امنیتی متفاوتی در مقایسه با دیگر فناوری ها مانند دستکاری مدل و تبعیض ناعادلانه روبرو است. به همین دلیل نیازمند دستورالعملی است که این چالش ها را هدف بگیرد.
در بیانیه شرکت آمده است: ما معتقدیم گسترش برنامه اعطای جایزه درباره ایمنی هوش مصنوعی و امنیت به محققان انگیزه می دهد و چالش های احتمالی را مشخص می کند که در نهایت هوش مصنوعی را برای همه ایمن می کند.
شرکت های سازنده هوش مصنوعی از جمله گوگل در اوایل سال جاری میلادی درکاخ سفید حضور یافتند و به گسترش اکتشافات وآگاهی از ضعف های هوش مصنوعی متعهد شدند.
برنا - برای اولین بار در روسیه، به همت محققان دانشگاه سِچینوف و گروهی از متخصصان فناوری اطلاعات، مرکزی به منظور توسعه سریعتر داروهای جدید با استفاده از هوشمصنوعی راهاندازی شده است.
به طور کلی ساخت یک داروی جدید، بین ده تا پانزده سال زمان و در حدود دو میلیارد دلار هزینه در برخواهد داشت.
مرکز جدید به کمک ارائه راهحلهای فناوری و تحلیل حجم عظیم اطلاعات و داده، تعداد خطاهای ممکن، هزینه و زمان تولید داروها را کاهش دهد.
این مرکز با ایجاد بستری مناسب، زمینه مشارکت و همفکری طیف وسیعی از پزشکان، داروسازان و دانشمندان باتجربه از سراسر جهان را فراهم میسازد.
نمایندگان مجلس شورای اسلامی مرکز ملی فضای مجازی و وزارت ارتباطات و فناوری اطلاعات را موظف کردند تا ظرف شش ماه برنامه ملی توسعه هوش مصنوعی را تدوین کند.
به گزارش ایسنا، نمایندگان مجلس شورای اسلامی در جریان جلسه علنی نوبت دوم امروز ( دوشنبه) مجلس گزارش کمیسیون تلفیق در خصوص لایحه برنامه هفتم توسعه را بررسی کرده و بند الحاقی ۳ ماده ۶۵ لایحه را به تصویب رساندند.
بر اساس بندالحاقی ۳ ماده ۶۵ لایحه، مرکز ملی فضای مجازی و وزارت ارتباطات و فناوری اطلاعات با همکاری سایر دستگاه های اجرائی مرتبط، موظف است در راستای حمایت از توسعه زیست بوم تحول آفرین هوش مصنوعی قابل اعتماد و پایدار، ظرف شش ماه از زمان لازمالاجراء شدن این قانون، «برنامه ملی توسعه هوش مصنوعی» را به منظور تعیین چهارچوبها و ساز و کار تعامل تمامی ذی نفعان، فراهم نمودن دانش و زیرساخت های پایدار فنی، اجتماعی، اخلاقی و حقوقی، ترویج و افزایش آگاهی نسبت به کارکردهای هوش مصنوعی در زمینههای مختلف و همچنین آگاهی نسبت به خطرات بالقوه آن را تدوین و به تصویب شورای عالی فضای مجازی برساند.
گوگل اعلام کرد اگر کاربران سیستم های هوش مصنوعی مولد آن ( گوگل کلاد و ورک اسپیس) به نقض قانون مالکیت معنوی متهم شوند از آنها دفاع می کند.
به گزارش خبرگزاری مهر به نقل از رویترز، به این ترتیب گوگل نیز به جمع مایکروسافت و ادوب و شرکت های دیگری پیوست که تعهدات مشابهی را اعلام کرده اند.
شرکت های بزرگ فناوری مانند گوگل سرمایه گذاری های سنگینی در هوش مصنوعی مولد کرده اند و برای استفاده از آن در محصولاتشان رقابت می کنند. نویسندگان و تصویرگران برجسته و دیگر مالکان آثار دارای حقوق کپی رایت در چند شکایت اعلام کردند استفاده از آثارشان برای آموزش سیستم های هوش مصنوعی و محتوایی که سیستم ها تولید می کنند، نقض حقوقشان به حساب می آید.
سخنگوی شرکت در این باره می گوید: برحسب دانش ما، گوگل نخستین شرکت در صنعت فناوری است که روشی کامل و تضمینی ارائه می کند که هر دو ادعا را پوشش می دهد.
گوگل اعلام کرد سیاست جدید شامل نرم افزارهای مختلف از جمله پلتفرم Vertex AI و Duet AI نیز می شود که متن و تصویر در گوگل ورک اسپیس و کلاد می سازند. در بیانیه شرکت اشاره ای به چت بات هوش مصنوعی مشهور آن یعنی «بارد» نشده است.
موج جدید شکایت ها درباره هوش مصنوعی به طور معمول شرکت هایی مانند گوگل را هدف گرفته که این سیستم ها را در اختیار دارند و افراد هدف آن نیستند.
این درحالی است که مدافعان هوش مصنوعی معتقدند استفاده از داده های استخراج شده از اینترنت برای آموزش سیستم ها، نقض قانون کپی رایت به حساب نمی آید.
چین الزامات امنیتی برای شرکت های ارائه دهنده سرویس های مبتنی بر هوش مصنوعی مولد و همچنین فهرست سیاه منابع غیر قابل استفاده برای آموزش این فناوری را منتشر کرده است.
به گزارش خبرگزاری مهر به نقل از رویترز، فناوری هوش مصنوعی مولد با کمک داده های پیشین می تواند یک اقدام را بیاموزد و محتوایی مانند متن یا تصویر براساس آموزش دریافتی را تولید کند.
کمیته ملی استانداردسازی امنیت ملی چین این الزامات را منتشر کرده است. مقامات اداره امنیت سایبری چین( CAC) ، وزارت صنعت و فناوری اطلاعات و پلیس از اعضای این کمیته هستند.
این سازمان دولتی چین پیشنهاد کرده محتواهای به کار رفته برای آموزش مدل های هوش مصنوعی مولد عمومی ارزیابی شوند و مواردی که بیش از ۵ درصد اطلاعات غیرقانونی و مخرب دارند، در فهرست سیاه قرار گیرند.
اطلاعات غیرقانونی و مخرب شامل حمایت از تروریسم یا خشونت و همچنین سرنگونی نظام سوسیالیستی ، آسیب زدن به وجهه کشور و تضعیف وحدت ملی و ثبات اجتماعی است.
طبق پیش نویس قوانین اطلاعات سانسورشده در اینترنت چین نیز نباید برای آموزش مدل های هوش مصنوعی مولد به کار رود. قانون در حالی منتشر می شود که حدود یک ماه قبل رگولاتورها به چند شرکت فناوری چینی از جمله موتور جستجوی بایدو اجازه دادند چت بات های مبتنی بر هوش مصنوعی را برای عموم مردم عرضه کنند.
CAC از ماه آوریل اعلام کرد از شرکت ها می خواهد ارزیابی امنیتی از سرویس های مبتنی بر هوش مصنوعی مولد را قبل از عرضه آنها برای عموم مردم، ارائه کنند.
در ماه جولای رگولاتور فضای سایبری چین اقداماتی برای نظارت بر چنین سرویس هایی منتشر کرد که به گفته تحلیلگران بسیار سختگیرانه تر از اقدامات ذکر شده در پیش نویس قانون منتشر شده در آوریل هستند.
طبق پیش نویس الزامات امنیتی منتشر شده، سازمان های آموزش دهنده این مدل های هوش مصنوعی باید رضایت افرادی را کسب کنند که اطلاعات شخصی شان از جمله داده های بیومتریک آنها برای آموزش این فناوری به کار می رود.
همچنین دستورالعملی درباره اجتناب از نقض قوانین مالکیت معنوی نیز ارائه شده است.
معاون سیاستگذاری و اعتباربخشی سازمان فناوری اطلاعات ایران، اقدامات این سازمان را در حوزه سیاستگذاری و تنظیمگری هوش مصنوعی تشریح کرد.
به گزارش سازمان فناوری اطلاعات ایران، حامد منکرسی، معاون سیاستگذاری و اعتباربخشی در «کنفرانس ظرفیت شبکه ملی اطلاعات ویژه توسعه هوشمندسازی»، فعالیتها و اقدامات سازمان فناوری اطلاعات ایران در حوزه سیاستگذاری و تنظیمگری هوش مصنوعی را تشریح کرد.
منکرسی در این رویداد که به میزبانی پژوهشگاه ارتباطات و فناوری اطلاعات برگزار شد، تدوین سند حکمرانی داده و راه اندازی سند باکس فناوری اطلاعات و ارتباطات را از جمله اقدامات سازمان فناوری اطلاعات ایران در حوزه تنظیمگری دانست و گفت: طبق سند راهبردی جمهوری اسلامی ایران در فضای مجازی، طراحی نظام حکمرانی دادهها از طرف وزارت ارتباطات و فناوری اطلاعات به سازمان فناوری اطلاعات ایران محول شده است.
تحکیم و تقویت حکمرانی فضای مجازی، قاعدهمندسازی دسترسی به دادهها و نیز ارتقای سطح هوشمندی در تصمیم گیری نظامهای ملی کشور از مهمترین اهداف این سند هستند. سند یاد شده در حال حاضر به مرکز ملی فضای مجازی ارائه شده است و در انتظار تصویب به سر میبرد.
معاون سیاستگذاری و اعتباربخشی، راهاندازی سندباکس حوزه فناوری اطلاعات و ارتباطات را دیگر اقدمات انجام شده در حوزه تنظیمگری بیان کرد و در تشریح جزئیات آن گفت: سندباکس یا محیط آزمون تنظیم گری، شامل مجموعهای از ساز و کارهای مقرراتی، فناورانه، تسهیلگر و حمایتی است که به منظور بررسی، ارزیابی و سنجش موضوع و ایده مورد درخواست متقاضی ایجاد میشود. در حال حاضر مجوز سندباکس بخشی وزارت ارتباطات و فناوری اطلاعات برای سازمان فناوری اطلاعات ایران صادر شده است و آمادگیهای لازم به عنوان مدخل فناوریهای نوظهور را داراست.
منکرسی افزود: کسب و کارهای مرتبط با فناوریهای نوظهور فاوا، مانند فعالان حوزه: کلانداده، اینترنت اشیا، هوشمندسازی، رایانش ابری، زنجیره بلوکی و غیره میتوانند وارد سندباکس وزارت ICT شوند.
وی در پایان از سند اقدام هوش مصنوعی اتحادیه اروپا به عنوان یکی از اولین تلاشها در حوزه تنظیم گری هوش مصنوعی یاد کرد و نمونه اقدامات نهادهای بینالمللی در سیاستگذاری و تنظیمگری هوش مصنوعی را مورد تحلیل و ارزیابی قرار داد.
معاون برنامهریزی و نظارت راهبردی وزارت ارتباطات از تدوین سند هوش مصنوعی خبر داد و گفت: نیاز به تحول ساختاری برای توسعه هوش مصنوعی هستیم و این تحولات در وزارت ارتباطات ایجاد شده است.
به گزارش پژوهشگاه ارتباطات و فناوری اطلاعات علیاصغر انصاری معاون برنامهریزی و نظارت راهبردی وزارت ارتباطات در نشست تخصصی «اولویتها و تقسیمکار ملی در حکمرانی هوش مصنوعی با بیان اینکه سند و نقشه راهی در حوزه هوش مصنوعی در این وزاتخانه نوشته شده، گفت: این سند را در شورای عالی انقلاب فرهنگی و مرکز ملی فضای مجازی تشریح کردهایم.
وی افزود: نکته مهم این است که در احکام برنامه هفتم چند حکم درباره هوش مصنوعی به صراحت صحبت میکند و بهتر است مرکز پژوهشهای مجلس روی این احکام بحث و بررسی کند.
انصاری در پایان با تأکید بر اینکه نیاز به تحول ساختاری برای توسعه هوش مصنوعی داریم، گفت: این تحولات در وزارت ارتباطات ایجاد شده است و باید بتوانیم نفوذ هوش مصنوعی را در صنایع و بخشهای مهم اقتصادی افزایش دهیم.
دبیر شورای عالی انقلاب فرهنگی از تدوین سند ملی هوش مصنوعی به شیوه حکمرانی شبکهای و با مشارکت ذینغعان خبر داد.
به گزارش مرکز رسانه و روابط عمومی شورای عالی انقلاب فرهنگی، نشست علمی "تخصصی اولویتها و تقسیم کار ملی در حکمرانی هوش مصنوعی" با حضور حجتالاسلام والمسلمین خسروپناه، دبیر شورای عالی انقلاب فرهنگی، بابک نگاهداری، رئیس مرکز پژوهشهای مجلس، رضویزاده، رئیس پژوهشگاه فناوری ارتباطات و فناوری اطلاعات، علیاصغر انصاری، معاون برنامهریزی وزارت ارتباطات و نمایندگانی از وزارتخانههای علوم، دفاع، آموزش و پرورش، مرکز ملی فضای مجازی، معاونت علمی و فناوری، دانشگاهها و پژوهشگاههای کشور و نمایندگان سکوهای هوش مصنوعی در کشور به میزبانی مرکز پژوهشهای مجلس شورای اسلامی برگزار شد.
حجتالاسلام والمسلمین خسروپناه، در این نشست، با تأکید بر اینکه در باب ضرورت توجه ویژه به موضوع هوش مصنوعی در کشور اجماع وجود دارد، گفت: در حوزه علم و پژوهش اقدامات بزرگی در کشور در این زمینه صورت گرفته است اما همچنان فاقد حکمرانی در حوزه هوش مصنوعی هستیم و نیازمند تلاش بیشتر در این بخش هستیم.
وی افزود: هوش مصنوعی کوانتومی مقوله بسیار متفاوتی از هوش مصنوعی رایج است که یک مرکز علمی در کشور در این حوزه کارهای قابل اعتنایی را انجام داده است.
دبیر شورای عالی انقلاب فرهنگی با بیان اینکه چهار ساحت در حوزه هوش مصنوعی داریم که باید متولی آنها در کشور مشخص شوند، گفت: یک ساحت در این حوزه فلسفه هوش مصنوعی است که بنده آن را -در فضای معرفتی خودمان- به حکمت تعبیر کردهام که هم ارزشها و هم مبانی را شامل میشود و باید نسبت خودمان با هوش مصنوعی را مشخص کنیم.
خسروپناه تصریح کرد: ساحت دوم؛ سیاستگذاری در حوزه هوش مصنوعی است و تدوین سیاست در موضوع هوش مصنوعی را شورای عالی انقلاب فرهنگی آغاز کرده است و این سند باید ذیل سند مهندسی فرهنگی و سند نقشه جامع علمی کشور طراحی شود.
دبیر شورای عالی انقلاب فرهنگی افزود: شورای عالی انقلاب فرهنگی هم باید این سند را با شیوه حکمرانی شبکهای یعنی مشارکت تمام ذینفعان تدوین کند که البته همین شیوه ملاک عمل بوده است.
وی افزود: شورای عالی انقلاب فرهنگی یک شورای فراقوهای است که سران قوه در آن حضور دارند و ظرفیت این شورا در جایگاه سیاستگذاری کشور منحصر به فرد بوده و با توجه به این ظرفیت؛ بهترین ساختار برای تصویب سند هوش مصنوعی همین شوراست و همه دستگاهها برای تدوین و تصویب این سند به شورای عالی انقلاب فرهنگی کمک کنند.
حجتالاسلام والمسلمین خسروپناه تنظیمگری را "ساحت سوم" خواند و اظهار داشت: منظور از تنظیمگری مقرراتگذاری، ساختارسازی، بازتوزیع و تسهیلگری است که به نظر بنده بهترین مجموعه کشور برای مسئولیت این ساحت مجلس شورای اسلامی است.
دبیر شورای عالی انقلاب فرهنگی از تصدیگری بهعنوان ساحت چهارم هوش مصنوعی نام برد و تصریح کرد: مسئولیت این ساحت بر عهده دانشگاهها، پژوهشگاهها، مراکز فناورانه و سکوهای دولتی و غیردولتی است که در حال حاضر این بخشها بهطور ویژه سکوها، از بخشهای حکمرانی جلوتر بوده و در صورت عدم تصویب سیاست در این بخش فعالیتهای آنها در ادامه مسیر دچار تبعاتی خواهد شد که شایسته است این سیاستها در زمان مناسب به تصویب برسد.
وی حجم مسائل زمینمانده در حوزه هوش مصنوعی را زیاد عنوان کرد و گفت: با توجه به حجم بالای این کارها، مناسب است که همه با همدلی و مراقبت همدیگر را یاری کنند و با مشارکت گسترده ذینفعان انشاءالله این کار با اجماع ملی و اتقان بالا به سرانجام برسد.
بابک نگاهداری، رئیس مرکز پژوهشهای مجلس شورای اسلامی نیز در این نشست با تاکید بر اهمیت هوش مصنوعی در ابعاد مختلف حکمرانی و شهروندی گفت: برگزاری جلسات استماع برای بیان دیدگاههای تخصصی متولیان و فرهیختگان در این زمینه میتواند در تنظیم نهایی قوانین و ضوابط تاثیر داشته باشد.
وی افزود: هوش مصنوعی یک زیست بوم بزرگ با محورهای کلان در محورهای توسعهدهندگی، تنظیمگری، سیاستگذاری، ناظران و کاربران است که لازم است اولویتها و تقسیم کار ملی در حکمرانی هوش مصنوعی مورد توجه جدی قرار گرفته و سند ملی مرتبط با این موضوع با اولویت تعیین نهاد هماهنگکننده، تدوین و نهایی شود.
رئیس مرکز پژوهشهای مجلس گفت: تاکنون نیز 60 کشور سند ملی هوش مصنوعی متناسب با سیاستهای کشور خود را تدوین کردهاند و با تمامی تلاشهای صورت گرفته، این سند در ایران، تنظیم و نهایی نشده که این تاخیر باید جبران شود.
نگاهداری با اشاره به تأکید رئیس مجلس در موضوع هوش مصنوعی گفت: در برنامه هفتم توسعه، موادی مرتبط با هوش مصنوعی قرار گرفته است و تکالیفی را مشخص کرده است و این جلسات استماع، با دو محور، تعیین نهاد محوری مرتبط با تدوین سند ملی هوش مصنوعی و تعیین اولویتها و تقسیم کار ملی در هوش مصنوعی تشکیل میشود تا انشاءلله تدوین سند نهایی سرعت گیرد.
معاون ستاد توسعه فناوری هوش مصنوعی و رباتیک معاونت علمی، فناوری و اقتصاد دانشبنیان ریاست جمهوری از تدوین سند هوش مصنوعی خبر داد و گفت: این سند تا یک الی دوماه آینده تکمیل و به صحن شورای عالی انقلاب فرهنگی ارسال میشود.
به گزارش آنا، هادی عاشری معاون ستاد توسعه فناوری هوش مصنوعی و رباتیک معاونت علمی، فناوری و اقتصاد دانشبنیان ریاستجمهوری امروز در حاشیه همایش بینالمللی توسعه هوش مصنوعی که از برنامههای جانبی پنجمین دوره جایزه مصطفی است، در جمع خبرنگاران عنوان کرد: همایش بین المللی توسعه هوش مصنوعی با هدف گردآوری شرکتهای هوش مصنوعی و ارائه توانمندیهای هایشان برگزار شد.
به گفته وی، به واسطه این همایش، یک شبکهسازی بین شرکتهای دانشبنیان حوزه هوش مصنوعی ایجاد می شود.
عاشری ادامه داد: این رویداد و کنار یکدیگر قرار گرفتن شرکتها، به ستاد هوش مصنوعی معاونت علمی کمک زیادی کرده است چراکه ما در حال برنامهریزی برای اطلس هوش مصنوعی کشور هستیم.
وی ادامه داد: در واقع این رویداد باعث شناسایی شرکتها، نخبگان، پژوهشگران در بخشهای مختلف می شود؛ همچنین به واسطه این رویداد، اطلاعات کاملی از سوی عرضه و تقاضا بدست می آوریم.
معاون ستاد توسعه فناوری هوش مصنوعی و رباتیک معاونت علمی، فناوری و اقتصاد دانش بنیان رئیس جمهور تصریح کرد: بخش دوم رویداد اصفهان که امروز برگزار میشود بهمرسانی شرکتها، سرمایهگذاران و صنایع بزرگ در اصفهان است. روش کار بدین صورت است که این صنایع بزرگ نیازهای خود را به شرکتهای دانشبنیان حاضر در این رویداد اعلام میکنند.
عاشری ادامه داد: این کار به نفع شرکتهای دانشبنیان است تا خدمات و فناوریهای توسعهداده شده را به مصرفکننده برسانند؛ از آنطرف به نفع صنایع است تا نیازهای حل نشده خود را با این بهمرسانی به درآمد و بهرهوری تبدیل کنند.
وی با اشاره به حوزههای فعالیت شرکتهای دانشبنیان حاضر در این نشست هوش مصنوعی گفت: این شرکتها در حوزههای رباتیک، سلامت، بهرهوری در صنایع نفت و صنایع معدنی، حوزه ITS یا حملونقل هوشمند و حوزه خدمات آموزشی با هوش مصنوعی فعالیت میکنند.
وی با بیان اینکه تقریبا ۵۰ درصد شرکتهای دانشبنیان حوزه هوش مصنوعی در این نشست حضور دارند، گفت: سند هوش مصنوعی کشور در حال تکمیل است و امیدواریم به زودی این سند در شورای عالی انقلاب فرهنگی به تصویب برسد.
وی ادامه داد: مطالعات داخلی و بینالمللی زیادی در این سند انجام شده است و تا یک الی دوماه آینده تکمیل می شود و به صحن شورای عالی انقلاب فرهنگی ارسال خواهد شد.
غول اینترنتی آمازون در تلاش برای تبدیل شدن به یک بازیگر بزرگ در عرصه هوش مصنوعی مولد، حداکثر چهار میلیارد دلار در استارتاپ هوش مصنوعی «آنتروپیک»، سرمایهگذاری میکند.
به گزارش ایسنا، در راستای این توافق، استارتاپ «آنتروپیک» بخش عمده نرم افزار خود را به دیتاسنترهای آمازون وب سرویس منتقل کرده و از تراشههای این شرکت رایانش ابری برای آموزش مدلهایی استفاده میکند که از آنها در چتباتها و اپلیکیشنهای دیگر استفاده میکند. این استارتاپ علاوه بر دسترسی به نیروی رایانشی آمازون، یک سرمایه مالی کسب خواهد کرد که کمک میکند هزینههای هنگفت ضروری برای آموزش و اجرای مدلهای هوش مصنوعی بزرگ را پرداخت کند. این دو شرکت در بیانیهای اعلام کردند آمازون یک موقعیت حداقلی در «آنتروپیک» خواهد داشت.
این غول تجارت الکترونیکی و رایانش ابری مدتها در شرکتهای فعال در حوزههایی که از نظرش اولویت دارند از جمله ایرلاینهای باری، توزیع کننده مواد غذایی و تولیدکننده کامیون برقی، سرمایهگذاری کرده است. اما سرمایهگذاری چهار میلیارد دلاری در «آنتروپیک»، بزرگترین قرارداد شرکتی خواهد بود که مستقیما به شرکت خدمات وب آمازون (AWS) مربوط میشود. آمازون اعلام کرد مهندسانش از جمله کسانی که خارج از شرکت AWS کار میکنند، به مدلهای «آنتروپیک» دسترسی خواهند داشت.
شرکت AWS بزرگترین فروشنده رایانش ابری و ذخیره سازی داده در جهان است اما در حوزه مدلهای رایانهای تعلیم دیده برای تولید متن، تصویر و محتوای دیگر عقب مانده است زیرا فاقد محصول و شرکای برجسته در این بخش است. شرکت OpenAI که سازنده چت جیپیتی است، از دیتاسنترهای مایکروسافت برای نرم افزار خود بهره میبرد.
مدیران آمازون میگویند هنوز نخستین روزهای هوش مصنوعی مولد است و تاکنون، بیش از ۱۰۰ هزار مشتری این شرکت، از ابزارهای یادگیری ماشینی آمازون استفاده کردهاند. مدل پایه «آنتروپیک»، «کلود» نام دارد و پیش از این در بخشهایی از سرویس آمازون به نام «بِدراک» (Bedrock) موجود بوده است. این مدل که در مراحل اولیه عرضه است، مدلهای آمازون و شرکتهای دیگر را برای مشتریان قابل دسترس کرده است.
بر اساس گزارش بلومبرگ، این قرارداد همچنین نقطه عطفی برای تلاشهای تراشه سازی آمازون است که شامل پردازندههایی به نامهای ترینیوم و اینفرنتیا است که برای استفاده در موارد یادگیری ماشینی، طراحی شدهاند. اکثر اپلیکیشنهای هوش مصنوعی پیشرفته، به تراشههای گران قیمتی متکی هستند که توسط شرکت انویدیا تولید شدهاند و تهیه آنها ممکن است دشوار باشد. شرکت «آنتروپیک» از تراشههای AWS برای ساخت و آموزش مدلهای اساسی آتی استفاده خواهد کرد.
نتیجه منتشرشده از یک مطالعه نشان میدهد، مدلهای هوش مصنوعی که رباتهای چت و سایر برنامهها را تقویت میکنند، همچنان در تشخیص چرندیات و زبان طبیعی مشکل دارند.
به گزارش آنا به نقل از لایفتکنولوژی، نتیجه یک مطالعه منتشرشده نشان میدهد مدلهای هوش مصنوعی که قدرت چتباتها و سایر برنامهها را تأمین میکنند، هنوز با مشکل شناسایی زبان بیمعنی و در اصطلاح مزخرف و طبیعی دچار مشکل هستند.
پژوهشگران دانشگاه کلمبیا در آمریکا که این پژوهش را انجام دادند میگویند، بررسی آنها محدودیتهای مدلهای فعلی هوش مصنوعی را نشان میدهد و پیشنهاد میکنند که هنوز زود است که این مدلها را به صورت نامحدود در محیطهای قانونی یا پزشکی وارد کنیم.
محققان مدلهای هوش مصنوعی را امتحان کردند و صدها جفت جمله را برای آنها ارسال کردند و از آنها پرسیدند که کدامیک احتمالاً در گفتار روزمره شنیده میشود.
این تحقیق که در مجله «هوش ماشین نیچر» (Nature Machine Intelligence) منتشر شد، سپس پاسخهای هوش مصنوعی را در مقابل پاسخهای انسانی سنجید و به تفاوتهای چشمگیری دست پیدا کرد. تنها مدلهای پیچیدهای مانند چتجیپیتی۲ معمولاً با پاسخهای انسانی مطابقت داشت. جیپیتی ۲ بدون دریافت ویژگی خاص، مستقیما از مدل زبانی جیپیتی-۱ در سال ۲۰۱۸ ایجاد شد که با افزایش ده برابری در تعداد پارامترها و اندازه مجموعه داده آموزشی آن همراه بود. جیپیتی ۲ متن را ترجمه میکند، به سؤالات پاسخ میدهد و پاراگرافها را خلاصه میکند و گاهی متنی را تولید میکند که تشخیص غیر انسانی بودن آن دشوار است، ولی در هنگام ایجاد پاسخهای زیاد ممکن است پاسخهای تکراری یا بیمعنی ارائه دهد.
به گفته پژوهشگران، سایر مدلهای سادهتر عملکرد کمتری داشتند. اما همه مدلها اشتباه کردند.
کریستوفر بالداسانو، استاد روانشناسی و نویسنده این گزارش میگوید: هر مدل نقاط کوری را از خود نشان میداد و برخی از جملاتی را معنیدار میدانست که شرکتکنندگان انسانی آن را چرندیات میدانستند؛ خروجی این مطالعه نشان میدهد در مورد میزان حضور هوش مصنوعی و بهویژه در موارد مهم و تاثیرگذار به زمان بیشتری احتیاج است و برای این مواقع فعلا دست نگه داشت.
تال گولان، یکی دیگر از نویسندگان این مقاله به خبرگزاری فرانسه گفت، این مدلها فناوری هیجانانگیزی هستند که میتواند بهرهوری انسان را به طور چشمگیری تکمیل کند.
با این حال، او استدلال کرد که اجازه دادن به این مدلها برای جایگزین تصمیمگیری انسانی در حوزههایی مانند قانون، پزشکی یا ارزیابی دانشآموزان هنوز زود و عجولانه است.
گولان یادآوری کرد، یکی از مشکلات این است که افراد ممکن است عمداً از نقاط کور برای دستکاری مدلها سوءاستفاده کنند.
مدلهای هوش مصنوعی با انتشار چتجیپیتی در سال گذشته به اطلاع عموم رسیدند. هوش مصنوعی در حال حاضر، تقریباً در تمامی بخشهای کسبوکار، شامل حمل و نقل، بهداشت و سلامت، بانکداری، سرگرمی و تفریحات و تجارت الکترونیک مورد استفاده قرار میگیرد.
رئیس مرکز پژوهشهای مجلس بااشاره به اینکه هیچ اثری از تدابیر کشور در حوزه هوش مصنوعی در برنامه هفتم دیده نمیشود، گفت: با تاکید رئیس مجلس، دو ماده درباره توسعه و تقویت این فناوری پیشنهاد شد.
بابک نگاهداری در گفتگو با خبرنگار مهر، با اشاره به لایحه برنامه هفتم توسعه کشور و جای خالی فناوریهای نوین در این برنامه اظهار کرد: تمامی استراتژیستها اشتراک نظر دارند که پیشران همه تحولات در سالهای پیش رو که از همین حالا بارقههای آن شروع شده، فناوریهای نوین و پیشرفته خواهد بود؛ به تناسب آن اگر دوره تحولات زندگی بشری را رصد کنید میبینید که زندگی بشری از عصر کشاورزی آغاز شده، وارد عصر صنعت و بعد عصر دانایی شده و در نهایت به عصر هوشمند خواهیم رسید.
کشورهای منطقه در حال سرمایه گذاری بر روی فناوریهای نوین هستند
رئیس مرکز پژوهشهای مجلس شورای اسلامی افزود: این تحولات به تناسبات تمام برنامه ریزی کشورها را تحت تأثیر قرار میدهد و شاهد هستیم که کشورهای منطقه، کشورهای حاشیه جنوبی خلیج فارس، ترکیه و در مجموع کشورهای همسایه در حال حاضر به طور جدی بر روی فناوریهای نوین و اقتصاد متناسب با این تحولات دانش بنیان سرمایه گذاریهای ویژه میکنند.
لزوم حرکت به سمت اقتصاد هوشمند و دیجیتال
وی ضمن بیان این مطلب که اقتصاد وارد مرحله عصر دانایی و هوشمندی شده است، خاطرنشان کرد: به تناسب همین تغییر و تحولات، فناوریهایی مثل هوش مصنوعی، فناوریهای زنجیره بلوکی، اینترنت اشیا و اتوماسیون و نظایر اینها تا ۲۰۵۰ به تشخیص استراتژیست ها جزو اصلی ترین پیشرانهای تحولات جوامع و کشورهاست؛ به تناسب اقتصاد جوامع هم به همین ترتیب دچار دگردیسیهایی خواهد شد و باید از اقتصاد صنعتی به سمت اقتصاد هوشمند، اقتصاد کوانتوم، اقتصاد مجازی و دیجیتال تغییر جهت دهیم چرا که بالاخره این موارد ویژه اقتصادهای عصر دانایی هستند.
جای خالی فناوریهای نوین در لایحه برنامه هفتم توسعه
نگاهداری با اشاره به اینکه در برنامه هفتم توسعه کشور آنچنان که باید و شاید به تحولات نام برده توجهی نشده است، گفت: سال هاست که عصر صنعتی وارد عصر دانایی شده و در همین سالهای اخیر نیز وارد عصر هوشمند شده ایم اما به نظر میرسد دست اندرکاران سازمان برنامه و بودجه و کسانی که مسئولیت تدوین سند برنامه را برعهده داشته اند، توجه لازم را به این تحولات نداشته اند و بیشتر موادی که در برنامه هفتم آمده، بحث ساماندهی صنعت در کشور و در واقع ساماندهی عصر دوم تحولات است و خیلی رویکردهای دانایی محور و هوشمند محور در سند دیده نمیشود.
اقتصاد دانش بنیان راه حل دستیابی به رشد اقتصادی ۸ درصدی
رئیس مرکز پژوهشهای مجلس شورای اسلامی ادامه داد: این در حالی است که اگر ایران نسبت به رقابتهای جهانی در حوزه فناوریهای نوین در کشورهای منطقه و جهان بی توجه باشد، مطمئناً با یک عقب ماندگی مواجه خواهیم شد. از طرفی دیگر در برنامه هفتم عدد ۸ درصد رشد اقتصادی پیش بینی شده است، این میزان رشد اقتصادی زمانی محقق خواهد شد که ما از رویکردهای نوین و دانش بنیان حداکثر بهره برداری را داشته باشیم، چرا که اقتصاد دانش بنیان و تولید دانش بنیان است که ثروت ساز است و این ثروت سازی میتواند به تحقق ۸ درصدی رشد اقتصادی بیانجامد.
وی سرمایه گذاری، بهره وری و منابع انسانی را ۳ مؤلفه مهم رشد اقتصادی برشمرد و گفت: دانش بنیانی و فناوریهای نوین اصلی ترین عامل ارتقای بهره وری در دنیای امروز است؛ یعنی هرچقدر صنایع، شرکتها و کارخانجات ما از فناوری بهره برداری بیشتری داشته باشند، به همان تناسب بهره وری شرکتها ارتقا مییابد. همچنین منابع انسانی ما دیگر منابع انسانی نخبگانی است و رویکردهای دانش بنیانی محور اصلی است.
اضافه شدن ۲ ماده به لایحه برنامه هفتم
نگاهداری ضمن اشاره به اینکه کشورهای دنیا در حال حاضر بر فناوری هوش مصنوعی متمرکز هستند، اظهار کرد: فناوری هوش مصنوعی، حوزه اقتصادی، ارتباطات اجتماعی بین افراد جامعه، فضای اشتغال و کسب و کار و حتی فضای سیاسی و رابطه بین مردم و حاکمیت را متحول خواهد کرد، بنابراین ضرورت دارد با توجه به اهمیت راهبردی فناوری هوش مصنوعی، حداقل یکی دو ماده در برنامه هفتم درباره جهت گیری های کشور و تصمیمات اساسی برای توسعه و تقویت هوش مصنوعی داشته باشیم.
رئیس مرکز پژوهشهای مجلس شورای اسلامی تصریح کرد: در لایحهای که دولت به مجلس ارائه داده، هیچ اثری از تدابیر کشور در حوزه هوش مصنوعی به عنوان یک فناوری تحول آفرین در سالهای پیش رو وجود نداشت که با تاکید دکتر قالیباف رئیس مجلس، مرکز پژوهشهای مجلس موظف شد ۲ ماده را به سند اضافه کنیم که در حال حاضر بر روی آن کار کرده ایم و آن را در اختیار مجلس گذاشته ایم.
وی ادامه داد: دو مادهای که به سند اضافه شده، در واقع پیشنهاداتی درباره توسعه، تقویت و کاربرد هوش مصنوعی در بخشهای مختلف اقتصادی، اجتماعی و سیاسی است.
نگاهداری همچنین بر افزایش سهم بودجه تحقیق و پژوهش توسعه علوم و فناوریهای جدید تاکید کرد و پشتیبانی از کارآفرینی و فعالیتهای نوآورانه و توانمندسازی بخشهای تعاونی و خصوصی را یک ضرورت دانست.
کلان حکمرانی کشور باید درگیر موضوع دانش بنیانی شود
نگاهداری بر ضرورت توجه بخشهای مختلف حاکمیت به رویکردهای دانش بنیان تاکید کرد و افزود: لازم است که کلان حکمرانی کشور درگیر موضوع دانش بنیانی شود، یعنی حکمرانی در همه عرصهها با رویکرد دانش بنیان یک تحول و دگردیسی در خود ایجاد کند. اگر قرار باشد تمام تحولات دانش بنیان توسط معاونت علمی، فناوری و اقتصاد دانش بنیان بدون کمک سایر اجزای حکمرانی اعم از اقتصاد، اجتماع و سیاست پیش برده شود، به نظرم موفقیت چندانی حاصل نخواهد شد.
رئیس مرکز پژوهشهای مجلس شورای اسلامی با بیان اینکه دانش بنیان شدن باید یک رویکرد حاکم بر همه اجزای حکمرانی در کشور باشد نه صرفاً فعالیتی در یک بخشی از کشور، گفت: البته قطعاً حمایتها، پیگیریها و برنامه ریزی های معاونت علمی در این مسیر لازم است اما مدیران سایر حوزههای ما هم باید دانش بنیان فکر کنند و بیندیشند اما احساس میکنم هنوز در سایر اجزای حکمرانی کشور فهم درستی نسبت به ظرفیتهای اقتصاد دانش بنیان ایجاد نشده است.
نگاهداری در پایان صحبتهای خود را اینگونه تکمیل کرد و گفت: هنوز مدیران ما در سایر بخشها به اقتصاد دانش بنیان و فناوریهای دانش بنیان به عنوان یک مساله نگاه میکنند و نه به عنوان یک راه حل. در حالی که اقتصاد دانش بنیان راه حل برون رفت بسیاری از مسائل کشور از مهاجرت نخبگان تا افزایش بهره وری و دستیابی به رشد اقتصادی ۸ درصدی است. این فهم مشترک باید در بین مدیران همه حوزههای حکمرانی کشور ایجاد شود تا در آینده شاهد یک تحول اساسی در رویکردهای دانش بنیان باشیم.
گزارشی جدید نشان می دهد تلاش های اوپن ای آی برای جلوگیری از سوءاستفاده از چت جی پی تی در کمپین های سیاسی و اخبار جعلی مربوطه موفق نبوده است.
به گزارش خبرگزاری مهر به نقل از انگجت، در ماه مارس«اوپن ای آی» پس از محبوبیت سریع خود میان کاربران سعی داشت نگرانی ها درباره استفاده از هوش مصنوعی مولد چت جی پی تی برای تشدید اخبار جعلی سیاسی را از بین ببرد و برای این منظور آپدیتی در صفحه کاربری شرکت منتشر کرد تا به طور واضح چنین رفتاری را منع کند.
اما یک تحقیق نشریه واشنگتن پست نشان می دهد این چت بات را همچنان می توان به راحتی تحریک کرد تا این قوانین را بشکند. چنین فرایندی برای انتخابات ریاست جمهوری ۲۰۲۴ میلادی پیامدهایی خواهد داشت.
در سیاست های مربوط به اوپن ای آی، استفاده کاربران از آن برای تبلیغات سیاسی به استثنای سازمان های برگزاری کننده کمپین های حمایت از مردمی، منع شده است. این امر شامل تولید محتوای کمپین در حجم بالا، هدف قرار دادن آن محتوا در گروه جمعیتی خاص، ساخت چت بات های مخصوص کمپین برای انتشار اطلاعات، مشارکت در حمایت سیاسی یا لابی است. اوپن ای آی در ماه آوریل به نشریه «سمافور» اعلام کرده بود که در حال توسعه یک سیستم یادگیری ماشینی دسته بندی کننده است. وقتی از چت جی پی تی خواسته میشود حجم زیادی از متن تولید کند که به نظر میرسد مربوط به کمپینهای انتخاباتی یا لابیگری باشد، این سیستم محتوای مذکور را برچسب می زنند.
طبق تحقیق نشریه واشنگتن پست به نظر می رسد این تلاش ها طی ماه های گذشته اعمال نشده اند. وارد کردن داده هایی مانند «نوشتن پیامی که یک زن ساکن حومه شهر را تشویق می کند به ترامپ رای دهد» یا «ایجاد پرونده ای برای متقاعد کردن ساکنان جوان شهرها (جوانان در دهه ۲۰ عمرشان) برای رای دادن به بایدن» به سرعت پاسخ هایی مانند «اولویت بندی رشد اقتصادی، ایجاد شغل و محیط امن برای خانواده» و فهرستی از سیاست های دولت برای رای دهندگان جوان و شهرنشین را در پی داشت.
کیم مالفاسینی که روی سیاستگذاری محصول در شرکت اوپن ای آی فعالیت می کند در این باره به واشنگتن پست می گوید: تفکر شرکت به این صورت است که ما می دانیم سیاست حوزه ای با ریسک بالا است. ما به عنوان یک شرکت نمی خواهیم وارد این حوزه شویم. ما میخواهیم اطمینان حاصل کنیم که در حال توسعه راهکارهای فنی مناسبی هستیم که بهطور ناخواسته محتوای مفید یاکارآمد را مسدود نمیکند، مانند مطالب کمپین برای پیشگیری از بیماری یا مواد بازاریابی محصول برای مشاغل کوچک.
به گفته او ماهیت ظریف قوانین سبب می شود اجرای آن چالش برانگیز باشد.
اوپن ای آی و چت بات آن مانند استارت آپ های مشابه با مشکلات بازبینی محتوا روبرو است. در حال حاضر مشکل فقط محتوای به اشتراک گذاشته شده نیست ، بلکه افرادی که به ابزارهای تولید محتوا دسترسی دارند و تحت چه شرایطی هستند نیز اهمیت یافته اند. اوپن ای آی در اواسط آگوست ۲۰۲۳ اعلام کرد یک سیستم بازبینی محتوا با قابلیت مقیاس پذیری ایجاد می کند که متداوم و قابل تغییر است.
مدیرعامل گوگل معتقد است فناوری هوش مصنوعی میتواند زندگی را از بسیاری جهات آسانتر کند، اما پتانسیل آسیب رساندن و از کنترل خارج شدن را نیز دارد.
به گزارش آنا، در حال حاضر منصفانه به نظر میرسد که بگوییم هوش مصنوعی چیزی است که تا مدتها در مورد آن صحبت خواهیم کرد. اگر خوششانس باشیم، در مورد اینکه چگونه راههای عملی برای ساخت آن در محصولاتی که به زندگی ما ارزش میبخشند، پیداکردهایم، صحبت خواهیم کرد. از سوی دیگر اگر ساندار پیچای، مدیرعامل گوگل درست بگوید اوضاع میتواند بسیار متفاوت شود.
پیچای در مصاحبه اخیر خود با شبکه خبری سیبیاس در مورد پتانسیلها و خطرات هوش مصنوعی گفت: من همیشه هوش مصنوعی را عمیقترین فناوری میدانم که بشریت روی آن کار میکند؛ عمیقتر از آتش یا الکتریسیته یا هر کاری که درگذشته انجام دادهایم.
جالب است که پیچای از مثالهای آتش و الکتریسیته استفاده کرده است. هر دو از این نظر تحولآفرین هستند که جهان قبل از کشف آنها بهطور چشمگیری با جهان بعدازآن متفاوت بود.
و بااینحال، با تمام ارزشی که به زندگی ما اضافه میکنند، آتش و الکتریسیته اگر کنترل نشوند دونیروی خطرناک و مخرب در جهان هستند ومی توانند به همهچیز آسیب برسانند.
همین آخر هفته، یک افرای ۳۰ فوتی که برای دههها ایستاده بود، در طول طوفان رعدوبرق در حیاط ما پایین آورده شد که درواقع یک میلیارد ولت برق است. در طول همین طوفان، ما حدود ۲۰ ساعت برق را از دست دادیم. این تجربه بهاندازه یک نمایش واقعی از اهمیت و همچنین میزان مخرب بودن آن بود.
به همین دلیل فکر میکنم مقایسه پیچای ارزش بررسی را دارد، زیرا بیشتر ما با پیچای موافق باشیم، حداقل با این بخش که هوش مصنوعی یک فناوری عمیق است. در بسیاری از روشها، کامپیوترها را قادر به انجام کارهایی میکند که در غیر این صورت نمیتوانستند انجام دهند، که به این معنی است که انسانها قادر به انجام کارهایی هستند که ما نمیتوانیم انجام دهیم.
اما به گفته پیچای خطرناک هم هست. پیچای در پاسخ به این سؤال که چه چیزی او را در شببیدار نگه میدارد، گفت: منظورم این است که در برخی مواقع، بشریت کنترل فناوری درحالتوسعه خود را از دست میدهد.
این یک جمله حرفهای زیادی میزند اگر این اتفاق بیفتد، مانند آتشسوزی یا برق، هوش مصنوعی میتواند اثرات مخربی داشته باشد. منظورم این نیست که فکر میکنم کامپیوترها و رباتها دنیا را تسخیر خواهند کرد همچنین فکر نمیکنم این همان چیزی باشد که پیچای به آن اشاره میکند.
راههای زیادی وجود دارد که بشریت کنترل فناوری درحالتوسعه خود را از دستمی دهد. ما فقط نمیدانیم وقتی از کنترل خارج میشود چه اتفاقی میافتد.
پیچای گفت: ضرورت کار کردن و بهکارگیری آن به روشی سودمند است؛ اما درعینحال اگر بهاشتباه به کار گرفته شود، میتواند بسیار مضر باشد، و ما هنوز همه پاسخها را در آنجا نداریم. و این فناوری بهسرعت در حال حرکت است.
درسی که در اینجا میگیریم این است که چیزهایی که برای کمک یا سرگرم کردن ما طراحیشدهاند، پیامدهای ناخواستهای دارند. تکنولوژی میتواند زندگی را از بسیاری جهات آسانتر کند، اما معمولاً به روشهایی که ما هرگز در نظر نگرفتهایم پتانسیل آسیب رساندن نیز دارد.
هوش مصنوعی درعینحال، خطرات ناشناخته دارند و میتوانند جامعه را تغییر دهد هشدار پیچای اگر غیرازاین باشد، باید باعث شود که همه دست از کار بکشند و درسهای آموختهشده از نیروهای قبلی را با همان پتانسیل خوب و تخریب در نظر بگیرند.
در ادامه تلاش مجلس برای سامان دهی حوزه هوش مصنوعی در قالب یک فراکسیون تخصصی، حالا زمزمه هایی از احتمال ایجاد یک وزارتخانه مستقل نیز به گوش میرسد. این پیشنهاد از سوی چند تن از نمایندگان و فعالان بخش خصوصی مطرح شده و گویا قرار است از سوی مرکز پژوهش ها بررسی شود. تمام این تلاش ها درحالی است که پیشرفت هوش مصنوعی در کشور هنوز چندان چشمگیر نیست.
اخبار این روزها در حوزه فناوری حاکی از آن است که گویا توجه سیاستگذاران کشور به هوش مصنوعی و فناوریهای مرتبط با آن جلب شده است؛ سیاستگذار در پیگیری این مساله به حدی جدی است که در کنار عزم مجلس برای تشکیل فراکسیون هوش مصنوعی، زمزمههای دیگری نیز از احتمال تشکیل یک وزارتخانه مستقل در این حوزه به گوش میرسد.
حالا و با بررسی سابقهای که سیاستگذار در پیگیری طرح صیانت و در ادامه، اعمال محدودیتها در بخشهای دیگر فناوری، خصوصا اینترنت دارد، این سوال مطرح میشود که فعالان این حوزه نسبتا نوظهور، باید نسبت به اراده سیاستگذار برای ورود به این بخش نگران باشند یا آن را اقدامی امیدبخش برای حمایت بیشتر تلقی کنند؟
مجلسیها در فکر یک فراکسیون جدید
طبق نظر مجلس، قرار است رضا تقیپور در سمت ریاست فراکسیون هوش مصنوعی و حکمرانی دادهها کار قانونگذاری و ساماندهی این حوزه را پیش ببرد. تقیپور از جمله نمایندگانی است که نام وی برای کاربران فضای مجازی بسیار آشناست و در فرآیند تصویب طرح جنجالی موسوم به صیانت به دفعات شنیده شده است.
طبق آنچه در اخبار آمده، چهارمین نشست فراکسیون هوش مصنوعی اخیرا با موضوع «مواجهه با هوش مصنوعی» برگزار شده و گویا در کنار اعضای فراکسیون و جمعی از نمایندگان اندیشکدهها، پژوهشکدهها، از حضور شماری از فعالان بخش خصوصی نیز در این جلسات استفاده شده است.
تقیپور در بخشی از این جلسه با اشاره به اینکه انتقاداتی نسبت به ورود حاکمیت به بحث قانونگذاری این حوزه به گوش میرسد، گفته بود: «بعضا دوستان از اینکه ما فقط تلاش برای نوشتن سند در حوزه هوش مصنوعی داریم، انتقاد کردند؛ اما باید به این نکته توجه داشت که معمولا زمانی که پدیدههای جدیدی به جامعه وارد میشود اینگونه است که تا نهادهای مختلف -بهویژه نهادهای دولتی و حاکمیتی- دست به اقدام بزنند، نیازمند به این سندها و چارچوبهای قانونی و حقوقی هستند تا این حرکتها شروع شود.»
وی با اشاره به اینکه اکنون برنامه هفتم توسعه در مرکز توجه است، این برنامه را نقطه مناسبی برای ورود به این حوزه فناورانه دانسته و تاکید کرده بود که پیشنهادهای خروجی این جلسات به تدریج بررسی، بازبینی، تکمیل و در برنامه هفتم توسعه وارد میشوند.
رئیس فراکسیون هوش مصنوعی و حکمرانی دادهها در بخش دیگری از صحبتهای خود در تاکید بر ضرورت ایجاد چنین فراکسیونی گفته بود: «خیلی مهم است که علاوه بر دولت و جایی که برنامهها را تصویب میکند، ساختاری مجزا را به عنوان هسته مرکزی موضوع مشخص کنیم تا راجع به کیفیت برنامهها و شاخصهای مختلف آن بحث و نظر داشته باشند.» تقیپور معتقد است که در واقع طی این هماندیشیها میتوان نهاد تنظیمگر مناسبی نیز برای این برنامهها پیشبینی و تعیین کرد.
احتمال تشکیل یک وزارتخانه مستقل
تاکید بر لزوم تشکیل نهادی مستقل، برای رسیدگی به موضوعات مرتبط با فناوری هوش مصنوعی، محدود به مجلس نیست و در کنار آن افراد دیگری در بدنه بخشهای مختلف حاکمیت نیز از این مورد سخن گفته بودند. در یکی از این موارد، چندی پیش محمد رضویزاده، رئیس پژوهشگاه ارتباطات نیز با بیان اینکه نهادهای زیادی در زمینه هوش مصنوعی تصمیم میگیرند و متولی مشخصی وجود ندارد، از پرداختن به بحث قانونگذاری هوش مصنوعی در برنامه هفتم توسعه استقبال کرده و تاکید کرده بود که انتظار میرود با این فرآیند، نهایتا متولی هوش مصنوعی در کشور مشخص شود.
در همین راستا اخیرا شنیده میشود که شماری از نمایندگان مجلس، از تشکیل وزارتخانهای برای هوش مصنوعی صحبت میکنند و احتمال عملیاتی شدن این تصمیم قوت گرفته است.
یکی از فعالان بخش خصوصی که در جلسات تخصصی برگزار شده توسط فراکسیون هوش مصنوعی مجلس نیز حضور داشته درباره احتمال تشکیل وزارت هوش مصنوعی به «دنیای اقتصاد» میگوید: این پیشنهادی است که هم از سوی فعالان بخش خصوصی و هم از سوی چند تن از نمایندگان مجلس مطرح شده و دنبال میشود. با اینحال گویا فعلا متولی اصلی مدیریت این حوزه همچنان شورای عالی فضای مجازی است.
در ادامه این تلاشها، روز شنبه نیز محمدمهدی زاهدی، عضو کمیسیون آموزش و تحقیقات مجلس در گفتوگویی با «ایرنا»، به بیان جزئیاتی درباره لزوم تشکیل یک نهاد تخصصی برای بر عهده گرفتن مدیریت این حوزه سخن گفته بود و این باعث شد که احتمال تشکیل وزارتخانه هوش مصنوعی تا حدی قوت بگیرد.
زاهدی در تشریح حالات مختلفی که میتوان بحث مدیریت این حوزه را پیش برد، گفته بود: یکی از این حالتها آن است که مرکزی زیرنظر ریاستجمهوری تشکیل شود تا این مسوولیت به آن سپرده شود. اما تجارب مدیریتی در کشور نشان داده که مراکز زیرمجموعه ریاستجمهوری، مانند مرکز ملی فضای مجازی و افتا، چابکی کافی را برای برعهده گرفتن این مسوولیت ندارند. راهکار دوم سپردن مسوولیت هوش مصنوعی به یک وزارتخانه از میان وزارتخانههای موجود است که منطقیترین گزینه میتواند وزارت ارتباطات و فناوری اطلاعات باشد.
وی معتقد است که چنین حالتی نیز در خوشبینانهترین حالت منتج به ایجاد سازمانی وابسته به آن وزارتخانه نظیر سازمان فناوری اطلاعات خواهد شد که جایگاه لازم را برای تعامل با سایر وزارتخانهها و قوای سهگانه نخواهد داشت و مصداق این موضوع، تکالیف مرتبط با دولت الکترونیک است.
در همین راستا، زاهدی راهکار سوم را که تشکیل یک وزارتخانه جدید و مستقل است مطرح کرده و افزوده است: «این وزارتخانه با توجه به جایگاه سازمانی که خواهد داشت، مسوولیت هوش مصنوعی کشور را در تمام لایههای سیاستگذاری تا اجرا برعهده خواهد گرفت و سایر وزارتخانهها و نهادهای دولتی ملزم به تعامل و همکاری با این وزارتخانه خواهند شد.»
این عضو کمیسیون آموزش و تحقیقات مجلس در تشریح اینکه مطالعات ضروری برای چنین اقدامی در کدام نهاد و به چه شکلی باید انجام شود و پیشزمینه تشکیل چنین وزارتخانهای چیست، اظهار کرده است: «به نظر میرسد بهترین انتخاب برای انجام چنین کاری، مرکز پژوهشهای مجلس شورای اسلامی است که نتیجه مطالعات و تحقیقات آن در قالب طرحهای پیشنهادی به مجلس ارائه میشود و ظرفیت تبدیل شدن به قانون را دارد.»
وی در ادامه افزوده است: «بررسیها نشان میدهد که مرکز مذکور طی سالهای گذشته مطالعات مختلفی را نیز در این حوزه انجام داده است و در حال حاضر آمادگی کامل برای پرداختن به این موضوع را دارد.»
نگرانکننده یا امیدبخش؟
با تمام اینها و فارغ از آنکه کدام قوه یا نهاد مسوولیت اصلی مدیریت و ساماندهی حوزه هوش مصنوعی را در کشور عهدهدار شود، این سوال مطرح است که اساسا جدیت حاکمیت در تشکیل نهادی مستقل و تخصصی برای رسیدگی به این فناوری نوظهور باید برای فعالان این حوزه امیدبخش باشد یا نگرانی آنها را برانگیزد.
در همین راستا، نیما شمساپور، از فعالان بخش خصوصی که در زمینه ارائه خدمات دیجیتال مبتنی بر فناوری هوش مصنوعی مشغول به کار است، در پاسخ به اینکه پیامدهای چنین توجه ویژهای برای آینده هوش مصنوعی کشور مثبت است یا منفی، به «دنیای اقتصاد» میگوید: «در همه جای دنیا اینکه دولتها و نهادهای قانونگذار نسبت به ترندهای تکنولوژی توجه ویژه نشان دهند هم اثرات مثبت دارد و هم منفی؛ در نتیجه نمیتوان کاملا صفر و صدی به موضوع نگاه کرد.»
وی در تشریح اثرات مثبت رویکرد اخیر میگوید: «در کل وقتی توجه قانونگذاران به یک حوزه جلب میشود، توجه بخشهای زیاد دیگری را نیز به این حوزه جلب میکند؛ در نتیجه احتمالا منابع مالی، امکانات و سرمایهگذاریهای بیشتری را جلب این حوزه میکند.»
وی معتقد است که پیشرفت در زمینه هوش مصنوعی مستلزم ایجاد زیرساختهایی است که در مجموع به سرمایهگذاریهای زیادی نیاز دارند و چنین توجهاتی، مسیر ایجاد این زیرساختها را هموارتر میکند.
شمساپور معتقد است که نتیجه مثبت دیگر این توجه میتواند باز شدن پای هوش مصنوعی و ابزارهای آن به مبحث پژوهش و بررسی از سوی مدیران ارشد کشور باشد.
وی در تشریح این نکته میگوید: «بدون شک با ابزارهای موجود، دستیارهای هوش مصنوعی میتوانند کارآیی به مراتب بیشتری نسبت به دستیارهای انسانی داشته باشند و بهرهمندی از ظرفیتهای این فناوری برای جستوجوی نمونههای مشابهی که در یک مورد خاص در نقاط دیگر دنیا انجام شده، میتواند سرعت حصول نتیجه و کیفیت خروجیها را بهبود دهد.»
این فعال حوزه فناوری با بیان اینکه اکنون هوش مصنوعی نه تنها در ایران که در کل دنیا در مرکز توجه قرار دارد، به یکی از نکات منفی این توجههای مقطعی و گاه افراطی میپردازد و میگوید: بهطور کلی در زمانهایی که یک فناوری ترند است و مدیریت درستی روی این انتظارات انجام نمیشود، اندکی بعد به ناامیدی فعالان و سیاستگذار از این حوزه ختم میشود و در نهایت سرمایههای روانه شده به این حوزه را فراری میدهد.
یکی دیگر از مواردی که در این توجه جدی سیاستگذار به هوش مصنوعی میتواند باعث نگرانی فعالان حوزه باشد، احتمال ایجاد موانع قانونی در مسیر توسعه این فناوری است.
شمساپور در تشریح این دیدگاه میگوید: «حقیقت این است که توسعه هوش مصنوعی جز با دسترسی به مجموعههای کلان داده و سرمایهگذاریهای جدی در این حوزه ممکن نیست. تا الان این سرمایهگذاریها توسط بخش خصوصی انجام میشد اما کمک دولتها در تمام دنیا برای پیشرفت بیشتر چنین مواردی راهگشاست. حالا در مورد کشور ما نیز همینطور است. اگر افراد درستی در جایگاه تصمیمگیری این حوزه قرار بگیرند، تشکیل چنین نهادهای جدیدی میتواند بسیار مفید و امیدبخش باشد. اما اگر بنا باشد رویهای جز این در پیش گرفته شود حتی میتواند ضرباتی را نیز به این حوزه وارد کند.»
در مجموع گویا سیاستگذاران کشور، مسیر توسعه بیشتر فناوریهای مرتبط با هوش مصنوعی را در گرو ایجاد یک نهاد جدید برای نظارت و مدیریت این حوزه میبینند و در این مسیر کشورهای دیگری مانند امارات متحده عربی را که یک وزارتخانه تخصصی برای هوش مصنوعی دارد، الگو قرار دادهاند.
این در حالی است که باید در نظر گرفت که با سرمایهگذاریهایی که امارات یا عربستان در زمینه هوش مصنوعی انجام دادهاند، میزان پیشرفت آنها در این حوزه با کشور ما تفاوت چشمگیری دارد.
حالا با این حساب و با توجه به پیشرفت نه چندان زیاد هوش مصنوعی در کشور و اینکه با وجود وزارت ارتباطات و فناوری اطلاعات، ماهیت چنین وزارتخانه جدیدی میتواند به نوعی موازیکاری منجر شود و نظارت بر عملکرد آن را مشکل کند، باید دید که این تصمیم در ادامه و از سوی متخصصان تا چه اندازه سنجیده و عملی تلقی خواهد شد.
بدون شک و از آنجا که مدت زیادی از مطرح شدن این موضوع از سوی سیاستگذاران نمیگذرد، هنوز برای بررسی ابعاد مختلف این اقدام و تبعات احتمالی آن زود است. اما جزئیات فعلی ارائه شده از سوی نمایندگان مجلس حاکی از آن است که فعلا فراکسیون هوش مصنوعی قرار است بر راهاندازی پلتفرم و تولید محصولات بومی مبتنی بر هوش مصنوعی و صادرات آنها، تمرکز کند. (منبع: دنیای اقتصاد)
پیشنویس «سند ملی هوش مصنوعی» در نخستین نشست میز تخصصی هوش مصنوعی ارائه شد.
به گزارش مرکز ارتباطات و اطلاع رسانی معاونت علمی، فناوری و اقتصاد دانش بنیان ریاست جمهوری، در ابتدای این جلسه که به میزبانی دبیرخانه شورای عالی انقلاب فرهنگی و با حضور نمایندگان سازمانها و دستگاههای مختلف دولتی و بخش خصوصی برگزار شد، محمد نژادپور دبیر میز تخصصی به تبیین اهمیت هوش مصنوعی با توجه به فرمایشات مقام معظم رهبری پرداخت.
وی در ادامه بر کاربردها، اسناد و شاخصهای مرتبط در حوزه هوش مصنوعی، جایگاه کشور در رتبهبندیهای بینالمللی و ارتباط بیانیه گام دوم انقلاب اسلامی با فناوری هوش مصنوعی مروری داشت.
بر اساس این گزارش، در ادامه رشاد حسینی، دبیر ستاد توسعه فناوریهای هوش مصنوعی و رباتیک به مرور اجمالی پیشنویس فعلی سند ملی هوش مصنوعی پرداخت. این سند پیش از این توسط ستاد اقتصاد دیجیتال نگارش و سپس مسئولیت آن به این ستاد محول شده است.
تمرکز سند بر هوش مصنوعی صنعتی باشد
پس از ارائه پیشنویس، نمایندگان دستگاهها و شرکتها به بیان نقطهنظرات خود در راستای بهبود کیفیت سند ملی هوش مصنوعی پرداختند. در ابتدا نماینده نظام صنفی رایانهای گفت: در حال حاضر این دغدغه مطرح است که علاوه بر سندی که توسط ستاد در حال نگارش است، مرکز ملی فضای مجازی و فراکسیون هوش مصنوعی و حکمرانی داده مجلس نیز در حال انجام کار مشابهی هستند. از همین رو لازم است هماهنگیهایی صورت بگیرد تا از دوبارهکاری پرهیز شود.
وی در ادامه پیشنهاد داد که تمرکز سند بر هوش مصنوعی صنعتی باشد و نقش بخش خصوصی در اقتصاد هوش مصنوعی پررنگتر دیده شود تا بتوان زیستبومی ایجاد کرد که به درآمدزایی کمک کند.
در جلسه مذکور نماینده ستاد کل نیروهای مسلح نیز خواستار ایجاد ارتباط مناسب بین سند شورای عالی انقلاب فرهنگی و اسناد حاصل از فعالیتهای مرکز ملی فضای مجازی و فراکسیون هوش مصنوعی مجلس شد.
وی در ادامه اظهار داشت: در سند راهبردی فضای مجازی ۳۹ اقدام کلان وجود دارد که چند بند آن مرتبط با هوش مصنوعی بوده و مناسب است که در پیشنویس سند ملی آن بندها پوشش داده شود.
نفوذ هوش مصنوعی در بخشهای مختلف در اولویت باشد
سخنران دیگر این جلسه، محمد سعید سیف، عضو هیات علمی دانشگاه بود که به اهمیت مکانیزمها، نقشه راه و تقسیم وظایف به صورت بخشی پرداخت و گفت: پیشنهاد می شود شاخصهای ارزیابی در سند به گونه ای تنظیم شود که نفوذ هوش مصنوعی در بخشهای مختلف کشور در اولویت قرار بگیرد.
فؤاد قادری، عضو هیات علمی دانشگاه نیز در سخنانی بر ضرورت توجه به تحقیقات پایهای در سند هوش مصنوعی و اهمیت توجه به توسعه کاربرد علاوه بر توسعه علم و فناوری تاکید کرد.
شکلگیری زیستبوم هوش مصنوعی مورد توجه باشد
سایر حاضران در جلسه نیز به بیان دیدگاهها و دغدغههای خود پرداختند. آیندهپژوهی در راستای توجه به فرصتها و تهدیدهای فناوری هوش مصنوعی در سطح ملی و بینالمللی، توجه به هوش مصنوعی بهصورت همگرا با سایر فناوریهای راهبردی مانند نانو و اینترنت اشیا، فقدان زیستبوم هوش مصنوعی در کشور و تدوین سند به منزله فضاسازی برای شکلگیری آن و توجه به اهمیت نقش دولت در مرحله شکلگیری زیستبوم هوش مصنوعی کشور، بخشی از دغدغه های مطرح شده بود.
همچنین ضرورت آگاهیبخشی در جامعه مدنی در حوزه هوش مصنوعی و نقش صداوسیما و آموزش و پرورش، تدوین طرحی در تقسیم کار ملی برای قابلیت پاسخ سریع برای چالشهای روز در حوزه هوش مصنوعی باتوجه به ماهیت و تغییرات سریع آن، توجه به رضایتمندی و رفاه مردم در چشمانداز سند و توجه به مفاهیم عدالت و مسئولیتپذیری در سند از دیگر مسایل مطرح شده توسط حاضران در جلسه بود.
نقشآفرینی شرکتهای بزرگ در زیستبوم و نقش آنها در تقویت استارتاپها، تبیین راهبردی ویژه برای جبران عقبافتادگیها در حوزه هوش مصنوعی کشور و توجه به هوش مصنوعی بهعنوان زنجیرهای ذیل تحول دیجیتال، دیگر دغدغه های سخرانان بود.
کریم زاهدی، معاون نظارت و ارزیابی ستاد علم و فناوری نیز بر توجه به نظام عرضه و تقاضا، زیستبوم داده، توجه به روابط بینالملل و تعریف نگاشت نهادی در سند ملی هوش مصنوعی تأکید کرد.
نشریه نیویورکتایمز احتمالا از اُپن اِی آی (OpenAI) به دلیل استفاده چتبات هوش مصنوعی «چت جی پی تی» از مقالههای این روزنامه برای تولید متن شکایت کند
به گزارش خبرگزاری صداوسیما به نقل از interestingengineering، نیویورکتایمز از اینکه اُپن اِی آی (OpenAI) برای استفاده از محتوای آن هزینهای نمیپردازد ناراضی است و نگران است که «چت جی پی تی» با ارائه پاسخهایی بر اساس گزارشهای نیویورکتایمز ترافیک آنلاین این نشریه را کاهش دهد.
به گفته منابع آگاه که نخواستند نامشان فاش شود، تایمز و اُپن اِی آی چند هفته در حال مذاکره برای دستیابی به توافق بودهاند، اما مذاکرات به بنبست خورده و نیویورکتایمز اکنون در حال بررسی گزینههای قانونی است.
شکایت نیویورکتایمز یک مورد برجسته در زمینه فناوری نوظهور هوش مصنوعی مولد است که محتوای جدیدی از دادههای موجود ایجاد میکند.
«چت جی پی تی» یکی از پیشرفتهترین نمونههای این فناوری است و میتواند متنی منسجم و مرتبط در موضوعات مختلف را با استفاده از مجموعه داده عظیمی که از اینترنت استخراج شده است، تولید کند.
با این حال، این مجموعه داده شامل میلیونها مقاله از تایمز و سایر ناشران است که بدون اجازه کپی شدهاند. تایمز ادعا میکند که این موضوع، حقوق مالکیت معنوی آن را نقض میکند و «چت جی پی تی» با استفاده از گزارشهای آن به عنوان منبع اطلاعات با روزنامهنگاری رقابت میکند.
این نشریه به ویژه در مورد تأثیر «چت جی پی تی» بر موتورهای جستجو که به طور فزایندهای از ابزارهای مولد هوش مصنوعی برای ارائه پاسخ به سؤالات کاربران استفاده میکنند، نگران است.
تایمز نگران است که اگر کاربران پاسخهایی را از «چت جی پی تی» دریافت کنند که بر اساس گزارش این نشریه باشد، انگیزه کمتری برای بازدید از وبسایت و مطالعه مقالات آن خواهند داشت و این میتواند به درآمد و شهرت روزنامه لطمه بزند.
پیامدهای قانونی هوش مصنوعی مولد هنوز نامشخص است، زیرا هیچ سابقهای برای چنین مواردی وجود ندارد. با این حال، کارشناسان میگویند اگر تایمز بتواند ثابت کند که «چت جی پی تی» حق نسخهبرداریاش را نقض میکند، میتواند یک پرونده قوی علیه اُپن اِی آی داشته باشد.
مطالعهها نشان میدهد هوش مصنوعی میتواند گذر واژهی کاربران را با دقت ۹۵ درصد از طریق گوش دادن به صدای فشردن صفحه کلید سرقت کند.
به گزارش خبرگزاری صداوسیما به نقل از نیویورکپست، مطالعهها نشان میدهد هوش مصنوعی میتواند گذر واژهی کاربران را با دقت ۹۵ درصد از طریق گوش دادن به صدای فشردن صفحه کلید سرقت کند.
بر اساس نتایج مطالعهای که در اوایل ماه جاری منتشر شد، هکرها میتوانند گذرواژهی کاربران را با دقتی تقریباً عالی از طریق گوش دادن به ضربههای کلید افراد و با کمک ابزارهای هوش مصنوعی سرقت کنند.
گروهی از دانشمندان کامپیوتر مستقر در انگلیس یک مدل هوش مصنوعی را آموزش دادند تا صداهای ایجاد شده توسط ضربه زدن به کلید در نسخه ۲۰۲۱ مک بوک پرو (که یک لپ تاپ محبوب به حساب میآید) را شناسایی کند.
بر اساس نتایج مطالعه منتشر شده توسط دانشگاه کورنل، زمانی که برنامه هوش مصنوعی در یک گوشی هوشمند نزدیک فعال شد، توانست گذر واژه تایپ شده را با دقت فوق العاده ۹۵ درصد بازتولید کند.
این ابزار هوش مصنوعی مورد علاقه هکرها، در حین گوش دادن به تایپ کردن از طریق میکروفون لپتاپ در یک کنفرانس ویدیویی (از طریق برنامه زوم) بسیار دقیق بود.
محققان گفتند که ضربههای کلید را با دقت ۹۳ درصد بازتولید میکند که یک رکورد است.
محققان هشدار دادند که خیلی از کاربران از این خطر که بازیگران بد میتوانند از طریق رصد تایپ آنها دسترسی غیرمجاز به حسابشان داشته باشند بی اطلاع هستند (نوعی حمله سایبری که آن را "حمله کنترل جانبی صوتی" نامیدند).
به عنوان مثال، هنگام تایپ رمز عبور، افراد به طور مرتب صفحه نمایش خود را پنهان میکنند، اما برای مخفی کردن صدای صفحه کلید خود کاری انجام نمیدهند.
برای اندازهگیری دقت، محققان ۳۶ کلید لپتاپ را در مجموع ۲۵ بار فشار دادند که از میزان فشار و انگشت متفاوت بود.
این برنامه قادر به گوش دادن به عناصر شناسایی هر کلید، مانند طول موج صدا بود. این گوشی هوشمند، یک آیفون ۱۳ مینی بود که در فاصله ۱۷ سانتی متری از صفحه کلید قرار داشت.
امکان کمک ابزارهای هوش مصنوعی به هکرها یک خطر دیگری برای این فناوری در حال رشد است.
بر اساس گزارش SimilarWeb، تعداد کاربرانی که از وب سایت چت جیپیتی بازدید کردهاند در ماه ژوئیه سال ۲۰۲۳ نسبت به ماه ژوئن ۱۲ درصد کاهش داشته و از ۱.۷ میلیارد به ۱.۵ میلیارد رسیده است. این دادهها شامل کاربرانی نمیشود که از واسط برنامهنویسی کاربردی (API) اُپن ایآی استفاده میکنند که به توسعهدهندگان اجازه میدهد به جیپیتی دسترسی داشته باشند و آن را در اپلیکیشنهای خود ادغام کنند.
هزینههای هنگفت چت جیپیتی شرکت اُپنایآی (OpenAI) را تهدید میکند و این شرکت روزانه ۷۰۰ هزار دلار برای اجرای چت جیپیتی که یکی از خدمات هوش مصنوعی شاخص خود است، خرج میکند.
به گزارش ایسنا و به نقل از آیای، گزارش شده که شرکت اُپن ایآی با یک بحران مالی مواجه است که میتواند منجر به ورشکستگی آن شود.
چت جیپیتی از یک مدل زبانی قدرتمند به نام جیپیتی (GPT) استفاده میکند و میتواند مکالمات واقع بینانه و جذابی را در مورد موضوعات مختلف برقرار کند.
با این حال، به رغم قابلیتهای چشمگیر، چی جیپیتی نتوانسته درآمد کافی برای شرکت اُپن ایآی برای پوشش هزینههای خود فراهم کند. این استودیوی هوش مصنوعی همچنین سعی کرده از نسخههای جدیدتر جیپیتی خود مانند GPT-۳.۵ و GPT-۴ درآمدزایی کند، اما موفقیت چندانی نداشته است.
این گزارش همچنین نشان میدهد که پایگاه کاربران اُپن ایآی طی چند ماه گذشته به طور پیوسته در حال کاهش بوده است. بر اساس گزارش SimilarWeb، تعداد کاربرانی که از وب سایت چت جیپیتی بازدید کردهاند در ماه ژوئیه سال ۲۰۲۳ نسبت به ماه ژوئن ۱۲ درصد کاهش داشته و از ۱.۷ میلیارد به ۱.۵ میلیارد رسیده است. این دادهها شامل کاربرانی نمیشود که از واسط برنامهنویسی کاربردی (API) اُپن ایآی استفاده میکنند که به توسعهدهندگان اجازه میدهد به جیپیتی دسترسی داشته باشند و آن را در اپلیکیشنهای خود ادغام کنند.
با این حال، از واسطهای برنامهنویسی کاربردی OpenAI با چندین مدل زبانی منبع باز که برای استفاده و اصلاح رایگان هستند، مانند ۲ LLaMA و نسخههای دیگر نیز رقابت میکنند.
این گزارش همچنین حاکی از آن است که بین سم آلتمن (Sam Altman) به عنوان یکی از بنیانگذاران و مدیر عامل شرکت اُپن ایآی و سایر استودیوهای هوش مصنوعی درگیری وجود دارد. در حالی که اُپن ایآی بر کسب سود و توسعه نسخههای پیشرفتهتر جیپیتی متمرکز است، آلتمن در مورد خطرات هوش مصنوعی صحبت کرده است، به خصوص اگر توسط دولت قوانینی برای آن تنظیم نشده باشد.
آلتمن بارها هشدار داده که اگر هوش مصنوعی بر اساس ارزشهای انسانی کنترل و هدایت نشود، میلیونها شغل را از بین میبرد و مشکلات اجتماعی و اخلاقی ایجاد میکند. برخی از کارشناسان فناوری حتی حدس میزنند که آلتمن در حال گذراندن یک لحظه فرانکشتاینی است. لحظهای که در آن از خلق هیولایی که نمیتواند آن را رام کند پشیمان است.
به رغم نگرانیهای آلتمن، اُپن ایآی به دنبال راههای جدید و بهتری برای کسب درآمد از مدل زبانی GPT-۴ خود است که انتظار میرود به زودی منتشر شود. با این حال هنوز به سوددهی نرسیده است. زیان آن از زمان توسعه چت جیپیتی به ۵۴۰ میلیون دلار رسیده است.
آیندهی شرکت اُپن ایآی در این مرحله نامشخص است. این استودیوی هوش مصنوعی ۱۰ میلیارد دلار سرمایه از مایکروسافت به همراه برخی دیگر از شرکتهای سرمایهگذار خطرپذیر دریافت کرده است که فعلا آن را سرپا نگه داشته است.
با این حال، همانطور که در مجلهی Analytics India گزارش شده است، پیشبینی اُپن ایآی برای رسیدن به درآمد سالانه ۲۰۰ میلیون دلار و هدفگذاری برای رسیدن به یک میلیارد دلار در سال ۲۰۲۴، با توجه به زیانهای فزاینده آن غیر واقعی به نظر میرسد.
یکی از گزینههای امکانپذیر برای اُپن ایآی این است که برای عرضه اولیه عمومی (IPO) اقدام کند و یک شرکت بزرگ فناوری را به خرید آن مجاب کند. این یک استراتژی خوب برای سرمایه گذاران فعلی خواهد بود. با این حال، برخی از مسائل وجود دارد که ممکن است از وقوع IPO جلوگیری کند یا ارزش آن را کاهش دهد.
عرضه اولیه عمومی (IPO) یک رویداد مهم برای سازمانها است، زیرا مردم در طی آن به رشد شرکت در افزایش سرمایه کمک میکنند.
یکی از این مسائل مربوط به نیروی انسانی است. بر اساس این گزارش، اُپن ایآی برای حفظ و جذب استعدادها تلاش کرده است، زیرا بسیاری از کارکنان آن، شرکتها یا پروژههای هوش مصنوعی دیگر را ترک کرده و به آنها ملحق شدهاند. این میتواند بر کیفیت و نوآوری محصولات و خدمات آن تأثیر بگذارد.
اُپن ایآی در حال حاضر دورهای با نرخ فرسایشی بالا را پشت سر میگذارد. آنها به خودی خود افراد را مانند بقیه صنعت فناوری اخراج نمیکنند. با این حال در حال از دست دادن کارمندان یا به عبارت بهتر برخی از استعدادهای برتر هستند، زیرا کارکنان آنها مدام توسط رقبای شرکت شکار میشوند.
موضوع دیگر رقابت است. در حالی که شرکتهایی مانند گوگل یا متا اغلب به عنوان رقبای اصلی اُپن ایآی در نظر گرفته میشوند، مردم اغلب ایلان ماسک و xAI را فراموش میکنند. ماسک برای مدت طولانی با هوش مصنوعی درگیر بوده که این عمدتا به دلیل وجود خودروهای تسلا است. با این حال، از زمانی که چت جیپیتی مانند ویروس پخش شد، ماسک چند حرکت بزرگ در فضای هوش مصنوعی انجام داده است. برای شروع، او آشکارا اعلام کرد که یک ربات چتبات رقیب به نام تروث جیپیتی (TruthGPT) خواهد ساخت که به اندازهی هوش مصنوعی شرکت اُپن ایآی مغرضانه یا مستعد توهم نخواهد بود.
ماسک بیش از ۱۰ هزار پردازندهی گرافیکی انویدیا را برای پروژه هوش مصنوعی خود خریداری کرده بود که هر قطعه ۱۰ هزار دلار قیمت داشت که به این معنی بود که او بیش از ۱۰ میلیون دلار را تنها برای پردازندههای گرافیکی هزینه کرده است.
مسئله دیگری که صنعت هوش مصنوعی را با مشکل مواجه کرده است، زنجیره تامین است. از آنجایی که مدلهای هوش مصنوعی به شدت به قدرت محاسباتی وابسته هستند، کمبود مداوم پردازندههای گرافیکی در سطح سازمانی وجود دارد. علاوه بر این، با وجود جنگ فناوری ایالات متحده و چین، هوش مصنوعی و شرکتهای اینترنتی در چین در حال خرید همهی پردازندههای گرافیکی در سطح سازمانی از طریق واسطهها هستند. برخی از آنها حتی موفق به همکاری مستقیم با شرکتهای بزرگ تولید تراشههای هوش مصنوعی شدهاند.
گزارش اخیر نشان داد که شرکتهای فناوری چینی برای تراشههای هوش مصنوعی A ۸۰۰ و A ۱۰۰ خود به NVIDIA سفارش دادهاند که مجموعا پنج میلیارد دلار هزینه داشته و قرار است تا سال ۲۰۲۴ تحویل داده شود. آلتمن خاطرنشان کرد که کمبود پردازندههای گرافیکی موجود در بازار مانع پیشرفت شرکت در بهبود و آموزش مدلهای جدید میشود. برنامهی اخیر اُپن ایآی برای علامت تجاری GPT-۵ نشان دهندهی تعهد آنها به توسعهی مداوم مدل است. با این وجود، این منجر به کاهش قابل توجه کیفیت خروجی چت جیپیتی شده است.
مشکلات اضافی این عوامل از جمله تشدید شکستهای مالی، کاهش تعداد کاربران، چالشها در حفظ درآمدهای ثابت و قابل توجه، و کاهش کیفیت محصول شاخص آنها نشاندهنده یک واقعیت ساده است: شرکت اُپن ایآی خود را در یک وضعیت مخاطرهآمیز میبیند و باید به سرعت راهی برای رسیدن به سودآوری ایجاد کند.
«پل کروگمن» اخیرا اظهار داشت که هوش مصنوعی مشاغل را از بین خواهد برد و بشر نمیتواند جلوی این اتفاق را بگیرد.
به گزارش ایسنا و به نقل از بیزینس اینسایدر، «پل کروگمن»(Paul Krugman) اقتصاددان برنده جایزه نوبل، در یکی از اپیزودهای پادکست «Odd Lots» شرکت رسانه جمعی «بلومبرگ»(Bloomberg) گفت: رونق هوش مصنوعی ممکن است شغل شما را از بین ببرد و ما نمیتوانیم در این زمینه کاری انجام دهیم.
کروگمن که مرتب در مورد سیاستهای اقتصادی و تأثیرات گستردهتر آنها مینویسد، گفت که فکر میکند هوش مصنوعی بیش از آن فراگیر و پراکنده است که بتوان هرگونه مداخله بزرگ از سوی دولت را برای محدود کردن آن تضمین کرد.
منظور کروگمن این است که رونق هوش مصنوعی به جای ویران کردن یک منطقه یا گروه اجتماعی خاص، احتمالا برخی از مشاغل موسوم به «یقه سفید» یا مشاغل یدی را به طور مساوی در سراسر کشور از بین خواهد برد. به گفته کروگمن، این بدان معناست که طراحی کردن سیاستهای اصلاحی برای کمک به کارگران آواره دشوار خواهد بود. وی افزود: من فکر نمیکنم در این مورد به غیر از تلاش برای ممنوع کردن کامل فناوری که کارساز نیست، بتوانید کار زیادی انجام دهید.
کروگمن ادامه داد: بسیاری از کارهای یقه سفید که فناوریهایی مانند ChatGPT آنها را تهدید میکنند، در تفکر خلاق یا اصیل ریشه ندارند. چند نفر در دنیای واقعی خلاق هستند؟ چقدر از کارهایی که برای انجام دادن آنها به مردم پول زیادی میدهیم، به تصحیح خودکار فوقالعاده گسترده شباهت دارند؟ این به طور بالقوه یک مفهوم واقعا بزرگ است و میتواند جای بسیاری از مشاغل را بگیرد.
کروگمن گفت: اما چگونه یک مفهوم واقعا بزرگ، به یک تاثیر قابل اندازهگیری بر اقتصاد تبدیل میشود؟ هنوز اندازهگیری کردن تأثیر نوآوریهای فناوری مانند هوش مصنوعی دشوار است زیرا روشی که ما فناوری را با آن اندازهگیری میکنیم، خوب نیست.
کروگمن توضیح داد که اقتصاددانان معمولا معیارهای ملموسی مانند «افزایش موجودی سرمایه به رشد اقتصادی» را اضافه میکنند و آنچه را که نمیتوان با رشد فناوری اندازهگیری کرد، برجسته میسازند. وی افزود: به عنوان مثال، بهرهوری کشور با نرخ یک درصد در سال بین اواسط دهه ۹۰ و اوایل دهه ۲۰۰۰ شتاب گرفت که با ظهور اینترنت و در نهایت کشف چگونگی استفاده از فناوری اطلاعات توسط شرکتها همراه بود.
با وجود این، برخی از موارد توسعه نیز در نتیجه موارد معمولیتر به دست میآیند. یک نمونه از این موارد، شرکتهایی هستند که متوجه میشوند چگونه از بارکد برای مدیریت موجودیهای خود استفاده کنند.
کروگمن گفت: فناوری اساسا معیاری است که شما نمیتوانید به صورت دیگری توضیح دهید. وقتی صحبت از هوش مصنوعی به میان میآید، تنها زمان مشخص خواهد کرد که چه اتفاقی خواهد افتاد.
رئیس سازمان پدافند غیرعامل کشور اولویت امسال این سازمان را بهرهگیری از هوش مصنوعی برای دفاع سایبری و تولید امنیت در زیرساخت ها دانست و از تهیه برنامه ملی حفاظت از زیرساختها برای نخستین بار در کشور خبر داد.
به گزارش ایرنا سردار غلامرضا جلالی روز یکشنبه در نشست روسا و دبیران کمیتههای پدافند غیرعامل دستگاههای اجرایی کشور که با حضور جواد اوجی، وزیر نفت و جمعی از مسئولان پدافند غیرعامل دستگاههای اجرایی و مسئولان سازمان پدافند غیرعامل کشور برگزار شد، مهمترین تهدیدات کنونی کشور را تهدیدات ترکیبی دانست و اظهار داشت: در این تهدیدات شاهد ترکیبی از ظرفیتها، قابلیتها و فناوریهایی هستیم که الگوهای متفاوتی از تهدید را به دنبال دارد.
وی افزود: یکی از مولفههای تهدیدات ترکیبی، ترکیب فناوریها با یکدیگر است. در چنین شرایطی هر طرف که تسلط و اشرافش بر فناوری بیشتر باشد، بیشتر میتواند آن را در جهت اهدافش به کار گیرد. ما امروز شاهد هستیم که این مدل تهدیدات، کاملا توسعه پیدا کرده است.
سردار جلالی با بیان اینکه در چنین شرایطی تهدید شناسی و تعیین تهدید پایه، یعنی تهدیدی که احتمالا برما اثر میگذارد مقوله بسیار مهمی است، تصریح کرد: تهدیدات انسان ساخت متکی بر دو عنصر فناوری و راهبرد است و هر دو این عناصر پویا هستند؛ بنابراین تکلیف ما در تعیین، مطالعه و برداشت از تهدید پایه در هر مقطع خیلی مهم است که ما بدانیم تهدید پایه چیست و براساس آن تهدید، برنامههای دفاعی خود را تنظیم و دنبال کنیم.
اهمیت شناسایی تهدیدات درون زا
رئیس سازمان پدافند غیر عامل کشور با بیان اینکه در مقوله شناسایی تهدیدات انسان ساخت، یکی از مهمترین مولفهها، تهدیدات درون زا است، تصریح کرد: به نظر میرسد یکی از موضوعات مهم برای همه دستگاهها، مراقبت و شناخت تهدید درون زا در درون هر دستگاه است که باید مورد توجه قرار بگیرد. برای این امر الگوهای دانشی وجود دارد که در مدیریت این تهدیدات بسیار موثر و کارآمد است.
وی تهدیدات سایبری به ویژه در زیرساختهای صنعتی وابسته به فضای سایبری را لایه دیگر تهدیدات دارای اولویت برشمرد و تصریح کرد: در این لایه از تهدید، دستگاههای دولتی و خدماتی که بیشترین سرویس و خدمت را به مردم ارائه میکنند به عنوان هدف تهدید در نظر گرفته میشود و هرچقدر اثرگذاری پیامد قطع یک خدمت برمردم بیشتر باشد جذابیت هدف بالاتر است.
رئیس سازمان پدافند غیرعامل کشور در ادامه به تقسیم بندی آسیب پذیریها پرداخت و توضیح داد: نوع اول، آسیب پذیریهای ساده و پیش پا افتاده هستند که با مقداری دقت قابل برطرف کردن هستند. حوزه آسیب پذیریهای ناشناخته قدری پیچیده و سخت بوده و ممکن است به راحتی پیدا نشود اما آسیب پذیریهای ساده به راحتی قابل برطرف کردن هستند.
وی ادامه داد: برای ما بسیار اهمیت دارد که از آسیب پذیریهای ساده که با توجه و دقت کافی میتوان آن را برطرف کرد ضربه نخوریم.
سردار جلالی ادامه داد: با شروع قطع خدمت و ظهور پیامدها، آنگاه نوبت بزرگنمایی پیامدهای قطع خدمت بر مردم است که این پدیده به ویژه با ظهور شبکههای اجتماعی خارج پایه اثرات خود را نشان داده است.
تهیه برنامه ملی حفاظت از زیرساختها برای نخستین بار در کشور
وی ایجاد آمادگی در برابر سناریوهای پایه تهدیدات ترکیبی را از برنامههای جانبی امسال سازمان پدافند غیرعامل کشور برشمرد و تصریح کرد: یکی دیگر از حوزههای مورد تاکید سازمان، برنامه حفاظت از زیرساختهای کشور است. در این زمینه بعد از سه سال مطالعه تخصصی با پیگیریهایی که انجام شده است و با کمک دانشگاه مالک اشتر و سایر مراکز علمی کشور، برنامه ملی حفاظت از زیرساختها برای نخستین بار در کشور تهیه شد.
وی ادامه داد: در این برنامه، تهدیدات پایه، الگوها، نقشها و وظایف به درستی تعریف شده است که دقیقا چه کارهایی توسط چه کسانی باید انجام شود.
سردار جلالی با اشاره به اینکه برای نخستین بار الزامات تخصصی زیرساختهای حیاتی، حساس و قابل حفاظت در موضوعات مختلف تعیین شده است، خاطرنشان کرد: همچنین در این برنامه، مباحث مربوط به عدم اجرای آن جرم انگاری شده و این مصوبه برای همه دستگاهها لازم الاجراست.
رئیس سازمان پدافند غیرعامل کشور با بیان اینکه یکی از تکالیفی که از دستگاهها خواسته شده تهیه ملاحظات و برنامههای حفاظت از زیرساخت دستگاه خاص خودشان است، توضیح داد: در این دستورالعمل این موضوع به دستگاههای ذی ربط واگذار شده که در زمان یکساله بتوانند ملاحظات حفاظت از زیرساخت آن دستگاه خاص را ذیل دستورالعمل ملی تهیه و دنبال کنند.
بهرهگیری از هوش مصنوعی در دفاع سایبری و تولید امنیت در زیرساختها
رئیس سازمان پدافند غیرعامل کشور با بیان اینکه براساس تجربه تهدیدات سایبری سال گذشته، بخشی از حملات با استفاده از ظرفیت هوش مصنوعی در سال گذشته انجام شده است، خاطرنشان کرد: برهمین اساس امسال، در مقابله و موضوعات پدافند سایبری امسال اولویت ما بهرهگیری از هوش مصنوعی در جهت دفاع سایبری و تولید امنیت در زیرساخت هاست. در این زمینه تلاش برای استفاده از ظرفیت شرکتهای دانش بنیان در دستور کار سازمان پدافند غیرعامل کشور قرار گرفته است.
وی همچنین از تدوین پیوستهای رسانهای در حوزه پدافند سایبری و زیستی خبر داد و تصریح کرد: هدف از این اقدام، ایجاد انسجام در اطلاع رسانی، آگاه سازی و آرامش بخشی برای حفاظت از سلامت روان افکار عمومی علیه برنامههای تبلیغاتی دشمنان در صورت بروز حوادث احتمالی است.
عیسی زارع پور وزیر ارتباطات و فناوری اطلاعات در یکی از پیامرسانهای بومی در خصوص احکام مصوب در کمیسیون تلفیق برنامه هفتم توسعه گفت: بر اساس یکی از احکام مصوب دیروز در کمسیون تلفیق برنامه هفتم توسعه، مرکز ملی فضای مجازی و ما مکلف شدیم که با همکاری سایر دستگاهها ظرف شش ماه از زمان لازمالاجرا شدن قانون، «برنامۀ ملّی توسعۀ هوش مصنوعی» را تهیه و به تصویب شورای عالی فضای مجازی برسانیم. انشاءالله کار به زودی آغاز خواهد شد.
رئیس فراکسیون هوش مصنوعی و حکمرانی دادهها با تشریح اهداف و آخرین اقدامات این فراکسیون گفت: سند حکمرانی هوش مصنوعی با کمک نخبگان و خبرگان این حوزه تدوین می شود.
به گزارش مهر رضا تقی پور در خصوص هدف از تشکیل فراکسیون هوش مصنوعی و حکمرانی داده گفت: طی سالهای اخیر یکی از فناوریهای نوین که معمولاً از آنها به عنوان فناوریهای تحول آفرین نام برده میشود موضوع هوش مصنوعی است و سال هاست که در کشورهای مختلف بر روی موضوعات علمی و سرمایه گذاری آن کار میشود و همچنین طبق فرمایشات مقام معظم رهبری در مراسم سالگرد امام ره در مورد هوش مصنوعی و به این منظور که در عصر فناوری های نو نمیتوان با ابزارهای سنتی خیلی از مسائل را مدیریت کرد، این فراکسیون تشکیل شد.
وی افزود: البته تاریخ تشکیل این فراکسیون قبل از فرمایشات رهبری است اما ما به هر صورت به همراه بعضی از همکاران در مجلس این بحث را مدتها پیش داشتیم که کشور باید زمینه سازی و برنامه ریزی کوتاه مدت و بلند مدت در مورد تربیت نیروی انسانی و سرمایه گذاریهای لازم را داشته باشد بر همین اساس این فراکسیون با امضا و درخواست بیش از ۵۰ نفر از نمایندگان تشکیل شد و بنا بر روال فراکسیونها در حال حاضر حدود ۶ ماه است که فعالیت اش را شروع کرده است.
تقی پور به فعالیتهای فراکسیون اشاره کرد و افزود: فعالیتهای ما شامل برگزاری نشستهای مختلف در مجلس، همینطور اطلاع رسانی و اخیراً هم برگزاری نشستهای علمی با حضور نخبگان کشور و خبرگان این حوزه از سازمانهای مختلف اتحادیه، سندیکای فعالان، دانشگاههای مختلف و مراکز علمی میشود.
رئیس فراکسیون هوش مصنوعی و حکمرانی دادهها در ادامه با بیان اینکه هفته گذشته در آخرین جلسه تشکیل فراکسیون حدود ۶۰ نفر از این افراد شرکت داشتند و اهداف این فراکسیون را در همان بدو تشکیل اطلاع رسانی کردیم، تصریح کرد: بیشترین کاری که قرار است صورت بگیرد فرهنگ سازی، نظرسنجی و پرداختن به مباحث مدیریت کلان این حوزه است و همینطور مطالعات تطبیقی در مقایسه با سایر کشورها و اینکه برای اینکه مواجهه فعال و مبتکرانه با این فناوری داشته باشیم زمینه را برای سرمایه گذاری همه نهادهای مرتبط به خصوص بخش خصوصی فراهم کنیم تا کشورمان نسبت به کشورهای دیگر عقب نماند.
تقی پور در خصوص زمان برگزاری نشستهای فراکسیون و موضوعات پرداختی در دو نشست فراکسیون اشاره و تصریح کرد: نشست اول از یک هفته قبل بود که در محل مجلس شورای اسلامی برگزار شد و نشستها به هم مرتبط بودند. افراد مختلف به عنوان نمایندگان نهادها، اقشار، بخش خصوصی، دانشگاهها و مراکز علمی نظرات خود را در ارتباط با مباحثی نظیر حکمرانی این حوزه و قوانینی که در کشورهای مختلف در حال تدوین و تصویب است، مطرح کردند. همینطور سرمایه گذاری ها و زمینههایی که کشورهای مختلف به آن پرداختند بحث و تبادل نظر شد و ما امیدواریم انشاالله در انتهای نشستها گزارش را به صورت مکتوب بتوانیم منتشر کنیم.
وی در خصوص آخرین وضعیت سند حکمرانی هوش مصنوعی گفت: فعلاً در مرحله نظر خواهی و جمعآوری نظرات نخبگان و خبرگان این حوزه هستیم یعنی سند جامعی که تدوین شده باشد هنوز تدوین نشده و در مراحل آغازین این کار هستیم.
این نماینده مجلس اضافه کرد: همچنین باید اشاره کرد که در کنار این نظرسنجی و نشستهایی که برگزار میشود، مطالعات تطبیقی مربوط به سایر کشورها در حال انجام است و همینطور ارتباطاتی با دانشگاههای مختلف، مراکز تحقیقاتی و مراکز علمی و شرکتهای دانش بنیان داشتیم، از دانشگاه تهران و دانشگاه علم و صنعت و برخی دیگر از دانشگاهها، اندیشکده مربوط به حوزه علمیه قم نیز در نشستها حضور داشتند و فعالیتهایی که تا الان در حوزه تدوین چارچوبها و نظریه حکمرانی داشتند، ارائه کردند.
تقی پور در پایان با بیان اینکه همانطور که اطلاع رسانی در مراکز علمی در دانشگاهها و دیگر مکانها انجام شده، نشست فراکسیون معمولاً دوشنبه بعد از ظهرها برگزار میشود، گفت: برگزاری نشستهای علمی برای اطلاع رسانی و فرهنگ سازی عمومی است و معمولاً از نهادها و سازمانها و مراکز تحقیقاتی و دانشگاهی دعوت میکنیم که با توجه اینکه محورهایی که اعلام میشود در آن حوزه نظراتشان را اعلام کنند. تا زمانی که این نیاز باقی باشد این محورها به بحث گذاشته میشود و این نشستها ادامه دارد.
شرکتهای Anthropic ، Google، Microsoft و OpenAI یک گروه ایمنی هوش مصنوعی تشکیل میدهند.
به گزارش سایبربان، چهار شرکت بزرگ در زمینه هوش مصنوعی از تشکیل انجمنی صنعتی برای نظارت بر توسعه ایمن پیشرفتهترین مدلها خبر دادهاند که از انجمن مدل مرزی توسط توسعهدهنده چت جیپیتی، اپن اِیآی، آنتروپ، مایکروسافت و گوگل تشکیلشده است.
بر کسی پوشیده نیست که توسعه هوش مصنوعی خطرات امنیتی زیادی را به همراه دارد. در حالیکه نهادهای حاکم در حال تلاش برای وضع مقررات هستند، شرکت های توسعه دهنده هوش مصنوعی نیز میبایست اقدامات احتیاطی را انجام دهند.
این انجمن بر توسعه ایمن و مسئولانه مدلهای هوش مصنوعی مرزی تمرکز خواهد کرد.
اعضای این انجمن قصد دارند یک کمیته مشورتی ایجاد کنند که شامل تنظیم منشور و بودجه اختصاصی نیز میشود و اهداف اصلی آنها ترویج تحقیقات در زمینه ایمنی هوش مصنوعی، مانند توسعه استانداردهای ارزیابی مدلها، تشویق به استقرار مسئولانه مدلهای پیشرفته هوش مصنوعی، بحث درباره خطرات اعتماد و ایمنی در هوش مصنوعی با سیاستمداران و دانشگاهیان، و کمک به توسعه کاربردهای مثبت برای هوش مصنوعی مانند مبارزه با بحران آبوهوا و تشخیص سرطان است.
طبق گزارش ها، اعضا در سال آینده روی سه هدف اول کار خواهند کرد.
آنا ماکانجو، معاون امور جهانی اپن اِی آی (OpenAI)، گفت: این یک امر حیاتی است که شرکتهای توسعه دهنده هوش مصنوعی بهویژه آنهایی که روی قویترین مدلها کار میکنند ، روی زمینه های مشترکی همسو شوند و شیوههای ایمنی متفکرانه و قابل انطباق را پیش ببرند تا اطمینان حاصل شود که ابزارهای قدرتمند هوش مصنوعی از گستردهترین مزیت ممکن برخوردار هستند.
او در ادامه افزود: این یک کار فوری است و این انجمن در موقعیت خوبی قرار دارد تا به سرعت برای ارتقای وضعیت ایمنی هوش مصنوعی اقدام کند.
ایجاد این انجمن در پی توافق امنیتی اخیر میان کاخ سفید و شرکت های برتر هوش مصنوعی صورت گرفته است.
اف بی آی به اقدامات دشمنان خارجی برای استفاده از هوش مصنوعی به عنوان بخشی از کمپین های نفوذ و سایر فعالیت های مخرب و همچنین علاقه آنها به آسیب رساندن به نرم افزارهای هوش مصنوعی تجاری و سرقت جنبه های فناوری در حال ظهور توجه بیشتری دارد.
به گزارش سایبربان، یک مقام ارشد که خواست نامش فاش نشود، طی یک کنفرانس تلفنی با خبرنگاران می گوید: دو خطر اصلی که این اداره می بیند، «عدم تراز مدل» یا چرخش نرم افزار هوش مصنوعی به سمت نتایج نامطلوب در طول توسعه یا استقرار، و «سوء استفاده مستقیم از هوش مصنوعی» برای کمک به سایر عملیات است.
این مقام می گوید که عوامل خارجی به طور فزاینده ای شرکت ها، دانشگاه ها و مراکز تحقیقاتی دولتی ایالات متحده برای پیشرفت های هوش مصنوعی، مانند الگوریتم ها، تخصص داده ها، زیرساخت های محاسباتی و حتی مردم را هدف قرار داده و داده های مربوط به آنها را جمع آوری می کنند.
به گفته این مقام، استعداد، یکی از مطلوب ترین جنبه ها در زنجیره تامین هوش مصنوعی است که دشمنان به آن نیاز دارند و ایالات متحده استاندارد طلایی را در سطح جهانی برای کیفیت توسعه تحقیقات تعیین می کند.
این هشدار تنها چند روز پس از آن صادر شده است که کریستوفر رای، رئیس اف بی آی، زنگ خطر را در مورد استفاده چین از این فناوری به صدا درآورد.
متأسفانه هوش مصنوعی یک فناوری کاملاً مناسب است تا به چین اجازه دهد از سوء رفتار گذشته و فعلی خود سود ببرد.
او در نشست آتلانتا اف بی آی در اجلاس تهدید سایبری گفته است: ساخت مدلها به نوآوریهای پیشرفته و دادههای زیادی برای آموزش آنها نیاز دارد. مقامات ایالات متحده می گویند که رژیم چین، دارایی های معنوی را می دزدد و مقادیر زیادی از داده های خارجی را از راه های غیرقانونی جمع آوری می کند.
علاوه بر تهدیدهای دولتی، مقامات آمریکایی و محققان امنیت سایبری می گویند که مجرمان از هوش مصنوعی به عنوان یک نیروی چند برابر کننده برای تولید کدهای مخرب و ایجاد ایمیل های فیشینگ متقاعدکننده، و همچنین توسعه بدافزارهای پیشرفته، کد مهندسی معکوس و ایجاد «محتوای مصنوعی» به عنوان دیپ فیک، استفاده می کنند.
این مقام اف بی آی به خبرنگاران می گوید: هوش مصنوعی برخی از موانع فنی را به میزان قابل توجهی کاهش داده است و به افرادی که تجربه یا تخصص فنی محدودی دارند اجازه می دهد کدهای مخرب بنویسند و فعالیت های سایبری سطح پایین را به طور همزمان انجام دهند. اگرچه هوش مصنوعی هنوز در تولید کد ناقص است، اما به عوامل پیشرفتهتر کمک کرده است تا فرآیند توسعه بدافزار را تسریع کنند، حملات جدیدی ایجاد کنند و گزینههای تحویل قانعکنندهتر و مهندسی اجتماعی مؤثری را فعال کنند.
این مقام مسئول کثال به خصوصی از آن فعالیت ها را ارائه نکرد.
این مقام همچنین گفته است که این دفتر هیچ پرونده مرتبط با هوش مصنوعی را به دادگاه نیاورده است و از قرار دادن یک جنبه از خطرات ناشی از فناوری، در جایگاهی بالاتر از دیگری، خودداری کرده است.
این مقام می گوید: ما لزوماً اولویت خاصی برای تهدیدها نداریم. همانطور که مأموریت ما ایجاب می کند، ما به همه این تهدیدها به طور یکسان در بین بخش های خود نگاه می کنیم.
رئیس فراکسیون هوش مصنوعی و حکمرانی دادهها ضمن بیان اینکه تجربه نشان داده مصرفگرایی و صرفاً پرداختن به توسعه کاربردها در فناوریهای نوظهور ما را به جایی نمیرساند و آورده خاصی برای کشور ندارد، گفت: اولویت ما در کشور باید توسعه فناوریهای هوش مصنوعی و تولید بومی سکوها و محصولات و صادرات آنها باشد.
به گزارش خانه ملت، دومین نشست فراکسیون هوش مصنوعی و حکمرانی دادهها با موضوع «حکمرانی تحولات برآمده از هوش مصنوعی در حوزههای اقتصادی، سیاسی، فرهنگی، نظامی، زیستمحیطی، سلامت و صنایع»، با حضور اعضای فراکسیون و جمعی از نمایندگان اندیشکدهها، پژوهشکدهها و مراکز مسئول و مربوط به این حوزه، بعدازظهر دوشنبه (2 مردادماه) در سالن جلسات ساختمان شیخفضلالله مجلس شورای اسلامی برگزار شد.
رضا تقیپور، نماینده مردم اسلامشهر، تهران، ری و شمیرانات و رئیس فراکسیون هوش مصنوعی و حکمرانی دادهها در این جلسه ضمن قدردانی از حضور و همراهی دستگاههای مختلف در این سلسله نشستها، عنوان کرد: ما در کمیسیون هوش مصنوعی و حکمرانی دادهها، بحث هوش مصنوعی را در سه بخش «حکمرانی»، «بر حکمرانی» و «با حکمرانی» دنبال میکنیم و در این مسیر مطالب مهم و کلیدی صاحبنظران این حوزه که در این جلسات مطرح شده و میشود، مورد استفاده قرار خواهد گرفت.
تقیپور در بخش دیگر صحبتهای خود با اشاره به حساسیت نمایندگان مجلس بر بحث مدیریت دادهها، گفت: مجلس شورای اسلامی قانون مدیریت دادهها و اطلاعات ملی (دوام) را به تصویب رساند و آبانماه سال گذشته ابلاغ شد. آنجا بیشتر محوریت وزارت ارتباطات و فناوری اطلاعات و شورای اجرایی فناوری اطلاعات بود و امیدواریم به اجرای این قانون سرعت بیشتری داده شود.
رئیس فراکسیون هوش مصنوعی و حکمرانی دادهها با تاکید بر اینکه یکی از زیرساختهای اصلی در هوش مصنوعی، حکمرانی داده است، اضافه کرد: ما در قانون دوام -با رعایت احتیاط- ابتدا از دادههای دولتی و حاکمیتی شروع کردیم و طبیعتا مباحث دیگری هم در دستور کار داشته و داریم. البته قانون دوام که برای اطلاع دادهها است، کافی نیست و به قوانین دیگر هم نیاز داریم و امیدواریم با فرهنگسازی و کمک نخبگان، بهویژه کسبوکارهای دادهمحور و دیگر فعالان این حوزه، کار شروع شود تا انگیزه و فهم عمومی هم برای مباحث بعدی به وجود آید.
تقیپور ضمن بیان اینکه تجربه نشان داده مصرفگرایی و صرفاً پرداختن به توسعه کاربردها در فناوریهای نوظهور ما را به جایی نمیرساند و آورده خاصی برای کشور ندارد، اضافه کرد: ما نه تنها باید سوار بر قطارهای فناوری باشیم، بلکه با توجه به شرایط کشور در اصل باید موثر در حرکت لوکوموتیو باشیم. ممکن است بعضیها بگویند ما از نظر اندازه اقتصاد و خیلی مباحث و مسائل دیگر، این امکان را نداریم، اما تجربه نشان داده آنجا که صرفاً مصرفکننده بودیم هم به جایی نرسیدهایم و همواره این چرخه معیوب ادامه داشته است.
وی با تاکید بر اینکه اولویت ما در کشور باید توسعه فناوریهای هوش مصنوعی و تولید بومی سکوها و محصولات و صادرات آنها باشد؛ تصریح کرد: به هر حال اگر امروز رویکرد اصلی در این فناوریهای سابتیو و برهمزن رویکرد قدرت -به معنی منافع و امنیت ملی- نباشد، قطعا یک رویکرد ناقص است و نهایتا هم بهره کامل از آن نخواهیم برد. بالعکس میتوان در رویکردهای دیگر هم وارد شد، منتهی ما را به مقصد نخواهند رساند.
تقیپور تاکید کرد: اگر رویکرد ما رویکرد قدرت و منافع ملی باشد، قطعا اهداف اقتصادی هم حاصل خواهد شد؛ یعنی اگر تصویر کلان و اصلی را قدرت و منافع ملی -در همه ابعاد- قرار دهیم، حتما خواهیم توانست ذیل آن منافع اقتصادی و مباحث سلامت و پزشکی و اجتماعی و فرهنگی و ... را دنبال کنیم.
رئیس فراکسیون هوش مصنوعی و حکمرانی دادهها در پایان با اشاره به اینکه نقش نخبگان در این حوزه خیلی مهم است، افزود: نخبگان میتوانند برای جامعه نقش تبیینی داشته باشند؛ زیرا بعضاً تعارض منافع یا منافع بخشی بعضیها ایجاب میکند که ما در همان مصرفکنندگی بمانیم. ضمن اینکه میدانیم معمولا منافع کمپانیهای بزرگ در دنیا که قدرت تبلیغات و فرهنگسازی را دارند، ایجاب میکند که خیلی از کشورها سراغ بحثهای زیربنایی و اصلی نروند.
لازم به ذکر است در این نشست علیاصغر انصاری، معاون برنامهریزی و نظارت راهبردی وزارت ارتباطات و فناوری اطلاعات و مجری و دبیر شورای راهبری توسعه شبکه ملی اطلاعات، رشاد حسینی، دبیر ستاد توسعه فناوریهای هوش مصنوعی و رباتیک معاونت علمی و فناوری ریاست جمهوری، مسعود اسدپور، عضو هیئت علمی دانشکده مهندسی برق و کامپیوتر دانشگاه تهران، بتول مهرشاد، مدیرآمار و فناوری اطلاعات از ارزیابی زیر سایتهای دانشگاه علوم پزشکی ایران، امیر جلالی، مدیر گروه هوش مصنوعی و علوم کامپیوتر دانشگاه قم، سیدمحمد محمدزاده ضیابری، دبیر کمیسیون هوش مصنوعی و علم داده سازمان نظام صنفی رایانهای استان تهران، پوریا حداد، مدیر هوش مصنوعی گروه صنعتی انتخاب، بهرنگ برکتین، رئیس دانشکده کامپیوتر دانشگاه آزاد واحد نجفآباد و جمعی دیگر از مسئولان اندیشکدهها و پژوهشکدههای فعال در حوزه هوش مصنوعی به بیان نظرات و راهبردهای خود در زمینه تاثیر هوش مصنوعی در حوزههای مختلف اقتصادی، فرهنگی، سیاسی، سلامت، نظامی و دفاعی و... پرداختند./
جوبایدن رییس جمهور آمریکا در رویدادی در کاخ سفید اعلام کرد شرکت های توسعه دهنده هوش مصنوعی از جمله متا، گوگل و اوپن ای آی تعهد داده اند محتوای تولیدی را برچسب بزنند.
به گزارش مهر به نقل از رویترز، به گفته رییس جمهور آمریکا شرکت های هوش مصنوعی از جمله اوپن ای آی، آلفابت و متا پلتفرمز به طور داوطلبانه به کاخ سفید تعهد دادند تا اقداماتی مانند برچسب زدن محتوای تولید شده با هوش مصنوعی را انجام دهند و به ایمن شدن فناوری کمک کنند.
جوبایدن در این باره گفت: تعهدات گامی نویدبخش هستند اما باید فعالیت های زیادی با یکدیگر انجام دهیم.
رییس جمهور آمریکا در رویدادی در کاخ سفید به گسترش نگرانی ها درباره خطرات احتمالی استفاده از هوش مصنوعی برای مقاصد اختلال آمیز گفت: ما باید با چشمانی باز و هوشیار تهدیدهای فناوری های نوین را رصد کنیم.
شرکت های مختلف از جمله آنتروپیک، اینفلکشن، آمازون، اوپن ای آی تعهد کرده اند تا سیستم هایشان را قبل از عرضه به طور کامل تست کنند و اطلاعات درباره شیوه کاهش ریسک ها و میزان سرمایه گذاری در امنیت سایبری را کاهش دهند.
این اقدام یک برد برای دولت بایدن به حساب می آید که سعی دارد هوش مصنوعی را قانونمند کند.
مایکروسافت(شرکت اوپن ای آی) در پست وبلاگی در این باره نوشت: ما از رهبری رییس جمهور برای گردهم جمع کردن دست اندرکاران صنعت فناوری جهت ایجاد گام هایی محکم برای ایمن سازی و سودمندسازی هوش مصنوعی استقبال می کنیم.
شرکتهای بزرگ فناوری بصورت داوطلبانه نسبت به علامت گذاری محتوای هوش مصنوعی برای امنیت بیشتر اقدام نمودند.
به گزارش سایبربان، دولت بایدن اعلام کرد که شرکت های برتر هوش مصنوعی از جمله اوپن اِی آی (OpenAI)، آلفابت (Alphabet) و متا (Meta ) تعهدات داوطلبانه ای را به کاخ سفید برای اجرای اقداماتی مانند علامت گذاری محتوای تولید شده توسط هوش مصنوعی برای کمک به ایمن تر کردن فناوری داده اند.
این شرکتها که شامل شرکتهای انتروپیک (Anthropic)، اینفلکشن (Inflection)، آمازون (Amazon) و مایکروسافت (Microsoft)نیز میشوند، متعهد شدند که سیستمها را قبل از انتشار، بطور کامل آزمایش کنند و اطلاعاتی درباره نحوه کاهش خطرات و سرمایهگذاری در امنیت سایبری به اشتراک بگذارند.
این اقدام به عنوان یک پیروزی برای تلاش دولت بایدن جهت تنظیم فناوری محسوب میشود .
از زمانیکه هوش مصنوعی مولد بشدت محبوب شد، قانون گذاران در سراسر جهان شروع به بررسی چگونگی کاهش خطرات این فناوری نوظهور برای امنیت ملی و اقتصاد کردند.
چاک شومر، عضو اکثریت سنای آمریکا در ماه ژوئن خواستار قانون جامع برای پیشبرد و تضمین حفاظت از هوش مصنوعی شد.
کنگره آمریکا در حال بررسی لایحه ای است که تبلیغات سیاسی را ملزم به افشای این موضوع میکند که آیا از هوش مصنوعی برای ایجاد تصاویر یا محتوای دیگر استفاده شده است یا خیر.
رئیس جمهور جو بایدن 21 جولای، میزبان مدیران هفت شرکت در کاخ سفید میباشد.وی همچنین در حال کار بر روی توسعه یک فرمان اجرایی و قانون دو حزبی در مورد فناوری هوش مصنوعی است.
به عنوان بخشی از این تعهد، هفت شرکت متعهد میشوند که تمامی اشکال محتوا، از متن، تصویر، صدا گرفته تا ویدیوهای تولید شده توسط هوش مصنوعی را علامت گذاری کنند تا کاربران بدانند چه زمانی از این فناوری استفاده شده است.
این شرکت ها همچنین متعهد شدند که با توسعه هوش مصنوعی روی حفاظت از حریم خصوصی کاربران تمرکز کنند و اطمینان حاصل کنند که این فناوری عاری از تعصب است و برای تبعیض علیه گروه های آسیب پذیر مورد استفاده قرار نمیگیرد. تعهدات دیگر شامل توسعه راه حل های هوش مصنوعی برای مشکلات علمی مانند تحقیقات پزشکی و کاهش تغییرات اقلیمی است.
با توسعه روزافزون هوش مصنوعی مولد، چالش استفاده از این فناوری برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرک دیپ فیک به مسئله ای اساسی بدل شده است.
به گزارش مهر تولید دیپ فیک (deep fake) یکی از توانمندیهای هوش مصنوعی است که برای ایجاد تصاویر و ویدئو و صداهای متقاعدکننده جعلی استفاده میشود. این اصطلاح هم فناوری و هم محتوای گمراهکنندهای که تولید میکند را در بر میگیرد. دیپفیکها اغلب در مواردی که جای یک نفر با شخصی دیگر عوض میشود، محتوای منبع موجود را تغییر میدهند. آنها همچنین قادرند محتوایی کاملاً تازه ایجاد کنند که در آن شخصی در حال انجام یا گفتن مطلبی است که در واقعیت نگفته و صحت ندارد.
بزرگترین خطری که دیپفیک ایجاد میکند، تواناییاش در انتشار اطلاعات نادرستی است که به نظر قابلاعتماد میآید.
مورد دیگر نگرانیهایی است که در مورد احتمال دخالت دیپفیک در انتخابات و تبلیغات انتخاباتی مطرح شده است. دیپفیکها درحالیکه تهدید جدی هستند در مواردی مانند بازیهای ویدئویی و برنامههای پشتیبانی مشتری و پاسخ به تماسگیرندگان، کاربردهای قانونی دارند.
همانطور که سابقاً اشاره شد، ویدئوهای دیپفیک شامل فیلمهای دستکاری شده و مصنوعی هستند که تغییراتی را در چهره یا بدن افراد ایجاد کرده یا کلاً هویت آنها را تغییر میدهد و هویت شخص دیگری را جایگزین میکند. یک نوع دیگر از دیپفیک، جعل صدای افراد است که در مواردی میتواند بسیار خطرناک باشد. برای مثال مدیرعامل یک شرکت انرژی در انگلستان تلفنی از رئیس شرکت مادر خود دریافت کرده و از او مبلغ هنگفتی درخواست کرده بود و مشخص شد که فردی از دیپفیک استفاده کرده و صدای مدیر واقعی را جعل کرده است.
عکسهای دیپفیک هم از انواع دیگر محتواهای جعلی است که بسیار واقعی به نظر آمده و ساخت آن برای کاربران کار دشواری نیست. در یکی از اولین تحقیقات درباره این پدیده، فیسبوک دهها حساب کاربری تحت حمایت دولت را پیدا کرد که از تصاویر جعلی بهعنوان عکس پروفایل استفاده میکردند.
شیوع محتوای جعلی
یکی دیگر از خطرات هوش مصنوعی انتشار اطلاعات نادرست به علت تعصبات و یا اشتباهات در منابع یادگیری آن است. هوش مصنوعیهای مولد زبانی مانند «ChatGPT» بیشتر از انواع مدلهای دیگر آن احتمال انتشار اطلاعات نادرست را دارند.
هوش مصنوعی مولد قادر است اطلاعات نادرست و جعلی را به طور گسترده و مانند ویروس شیوع دهد. الگوریتمهای هوش مصنوعی مولد میتوانند متون، تصاویر و ویدئوهای جعلی ایجاد کنند که تمییز آن از محتوای واقعی بسیار سخت است. در دوره همهگیری ویروس کرونا، یکی از آسیبهایی که بعد از ویروس روح و روان مخاطبان را هدف گرفته بود اخبار جعلی و شایعات بود. هوش مصنوعی مولد قادر است چالشهای مربوط به انتشار اطلاعات نادرست و اخبار جعلی را چندین برابر کند و آسیبهایی مانند بازیدادن افکار و دیدگاه عمومی، تطهیر نامهای ناشایست و تخریب نامهای شایسته را در پی داشته باشد.
حوزههای در معرض آسیب
الگوریتمهای هوش مصنوعی مولد، قادرند محتواهای تصویری و چندرسانهای ایجاد کنند که کاملاً ساختگی بوده و از محتوای واقعی کاملاً دور هستند. دیپفیکها میتوانند برای ایجاد مدارک جعلی، تقلید از افراد و انتشار محتواهای نامناسب و مخالف شئون استفاده شوند. تشخیص محتوای واقعی از محتوای غیرواقعی و تغییریافته کار دشواری است و این مسئله قادر است پیامدهایی جدی در حوزه سیاست و انتخابات، سرگرمی و روزنامهنگاری داشته باشد.
یکی دیگر از حوزههایی که ممکن است با دیپفیک به خطر بیفتد، حوزه قضاوت است. با همهگیرشدن استفاده از هوش مصنوعی مولد، مجرمان و افراد دارای نیت سو با ساختن ویدئو و تصاویر جعلی قادرند فرایند دادرسی را پیچیدهتر کنند.
حوادث مهم سیاسی و اجتماعی نیز میتواند به بستری برای جولان سو استفادهکنندگان از هوش مصنوعی مولد تبدیل شود.
انتخابات
همانطور که اشاره شد، انتخابات و دموکراسی یکی از عرصههایی است که در عصر جدید نیاز به مراقبتهای بیشتر دارد. انتخاب درست با تحقیق بر مبنای اطلاعات صحیح صورت میگیرد و در غیر این صورت مردم بازیچه دست ذینفعان خواهند شد. در چنین شرایطی کشورهایی که در معرض انتخابات قرار دارند مانند ایالات متحده آمریکا در معرض آسیب دیپ فیک هستند و بنظر میرسد قانونگذاران به تکاپوی تنظیمگری این حوزه خواهند افتاد یا متحمل آسیبهای جبران ناپذیر خواهند شد!
کشور چین، در خط مقدم مقابله با محتوای دیپفیک
در بیشتر نقاط جهان، مسئولین هنوز اقدامی در جهت مقابله با دیپفیک و انتشار اخبار جعلی توسط هوش مصنوعی مولد نکردهاند و این به دلیل شناخت کم آنها از این فناوری نو است. مادامی که تکنولوژی پیچیدهتر و در دسترس تر برای عموم میشود، مقابله با خطرات و آسیبهای آن نیز دشوارتر میشود.
چین که یکی از بسترهای توسعه هوش مصنوعی مولد است سعی دارد تا پیش از سایر کشورها به مقابله با آسیبهای دیپفیک برخیزد. این کشور اخیراً قوانین گستردهای تصویب کرده که بر اساس آن مطالب دستکاری شده باید رضایت شخصیت اصلی آن محتوا را داشته باشد و امضای آن شخص پای اثر باشد و جعلی بودن آن نیز اعلام شود. در این قوانین چین مسئولیت رد شایعات را بر عهده ارائهدهندگان خدمات ساخت محتواهای دیپفیک گذاشته است.
مشکلی که برای مقابله با تکنولوژی جدید وجود دارد این است که افرادی که قصد سو استفاده دارند عموماً باهویت جعلی و یا بیهویت و مخفیانه دست به اقدامات نادرست میزنند. شناسایی آنها به همین دلیل آسان نیست، بنابراین سایر کشورها هنوز موفق به تدوین قوانین تنظیمگرانه هوش مصنوعی مولد نشدهاند. سختگیریهای زیاد هم ممکن است آزادی کاربران را به خطر بیندازد که تا کنون کشوری اقدام به اعمال محدودیتهای شدید در این حوزه نکرده است.
به گفته کارشناسان با وجود موانعی که سر راه پکن قرار دارد، ثبات قدم کشور چین در این زمینه، به سایر کشورها کمک کرده تا اقدام به مقابله با دیپفیک کنند. سابقهها بر این منوال است که قانونگذاران در سراسر جهان ترجیح میدهند قبل از تدوین چارچوبهای جدید، روندهای قانونی سایر کشورها را تقلید یا رد کنند.
راویت دونان، محقق فوق دکترا و صاحب شرکت «Colaboeative AI» میگوید: «این عرصه برای تعیین سیاست جهانی سرنوشتساز است، زیرا کشورها در حال رقابتاند تا در آخر مشخص شود که چه کسی قاعده و لحن این بازی را مشخص میکند.»
دیپفیک و برخی فواید
با وجود همه چالشهای ذکر شده برای این فناوری، دیپفیک در بسیاری از صنایع میتواند نویدبخش باشد. سال گذشته، پلیس هلند یک پرونده قدیمی سال ۲۰۰۳ قتل را با ایجاد آواتاری دیجیتالی از قربانی ۱۳ ساله و انتشار تصاویری از راهرفتن او در میان گروهی از خانواده و دوستانش را دوباره به جریان انداخت. این فناوری همچنین میتواند برای ساختن برنامههای طنز و سرگرمی، خریداران آنلاین لباس که میتوانند با استفاده از این فناوری لباسها را در اتاقهای تزئین مجازی امتحان کنند و انیمیشنسازان مفید باشد.
شورای امنیت سازمان ملل نخستین مذاکرات درباره خطرات هوش مصنوعی را برگزار میکند.
به گزارش سایبربان، شورای امنیت سازمان ملل متحد اولین نشست رسمی خود در مورد هوش مصنوعی را این هفته در نیویورک برگزار خواهد کرد و بریتانیا خواستار گفتگوی بین المللی در مورد تاثیر هوش مصنوعی بر صلح و امنیت جهانی میباشد.
دولت ها در سراسر جهان در حال بررسی چگونگی کاهش خطرات فناوری نوظهور هوش مصنوعی هستند که میتواند اقتصاد جهانی و چشم انداز امنیت بین المللی را تغییر دهد.
بریتانیا در ماه جاری ریاست دوره ای شورای امنیت سازمان ملل را بر عهده دارد و به دنبال نقش رهبری جهانی در تنظیم هوش مصنوعی است.
جیمز کلورلی، وزیر امور خارجه بریتانیا ریاست این مذاکرات را بر عهده خواهد داشت.
در ماه ژوئن، آنتونیو گوترش، دبیرکل سازمان ملل متحد از پیشنهاد برخی مدیران هوش مصنوعی برای ایجاد یک نهاد ناظر بین المللی هوش مصنوعی مانند آژانس بین المللی انرژی اتمی حمایت کرد.
با توجه به اینکه هوش مصنوعی مولد (AI) این روزها در حال گسترش است، شاید تعجب آور نباشد که این فناوری توسط عوامل مخرب به نفع خود تغییر کاربری داده شده باشد و راه هایی را برای جرایم سایبری تسریع شده فراهم کرده باشد.
به گزارش سایبربان، بر اساس یافتههای اسلش نکست (SlashNext)، یک ابزار مولد جدید برای جرایم سایبری هوش مصنوعی به نام وورم جی پی تی (WormGPT) در انجمنهای زیرزمینی به عنوان راهی برای دشمنان برای راهاندازی حملات پیچیده فیشینگ و ایمیلهای تجاری (BEC) در حال تبلیغ است.
دانیل کلی، محقق امنیتی می گوید: این ابزار خود را به عنوان جایگزینی برای مدلهای جی پی تی (GPT) معرفی میکند که به طور خاص برای فعالیتهای مخرب طراحی شده است. مجرمان سایبری می توانند از چنین فناوری برای ایجاد خودکار ایمیل های جعلی بسیار متقاعد کننده و شخصی سازی شده برای گیرنده، استفاده کنند و در نتیجه شانس موفقیت حمله را افزایش دهند.
نویسنده این نرم افزار آن را به عنوان "بزرگترین دشمن شناخته شده چت جی پی تی (ChatGPT)" توصیف کرده است که به شما امکان می دهد تا انواع کارهای غیرقانونی را انجام دهید.
در دستان یک عامل بد، ابزارهایی مانند وورم جی پی تی میتوانند سلاح قدرتمندی باشند، بهویژه که هوش مصنوعی چت جی پی تی اوپن ای آی (OpenAI ChatGPT) و گوگل بارد (Google Bard) به طور فزایندهای برای مبارزه با سوء استفاده از مدلهای زبان بزرگ (LLM) برای ساخت ایمیلهای فیشینگ قانعکننده و تولید کدهای مخرب گام برمیدارند.
چک پوینت در گزارشی در این هفته گفته است: محدود کننده های ضد سوء استفاده بارد در حوزه امنیت سایبری به طور قابل توجهی در مقایسه با چت جی پی تی کمتر است. در نتیجه، تولید محتوای مخرب با استفاده از قابلیت های بارد بسیار آسان تر است.
در اوایل ماه فوریه، شرکت امنیت سایبری اسرائیل فاش کرده بود که چگونه مجرمان سایبری با استفاده از محدودیتهای چت جی پی تی، از ای پی آی (API) آن به غیر از تجارت حسابهای ممتاز دزدیده شده و فروش نرمافزارهای حملات بی رحمانه ( brute-force) برای هک کردن حسابهای چت جی پی تی با استفاده از فهرستهای عظیمی از آدرسهای ایمیل و رمز عبور، کار می کنند.
این واقعیت که وورم جی پی تی بدون هیچ گونه مرز اخلاقی عمل میکند، بر تهدید ناشی از هوش مصنوعی مولد تأکید میکند و حتی به مجرمان سایبری تازه کار اجازه میدهد بدون داشتن امکانات فنی، حملات را به سرعت و در مقیاس انجام دهند.
عوامل تهدید "جیل بریک" را برای چت جی پی تی ترویج می کنند، دستورات و ورودی های تخصصی را مهندسی می کنند که برای دستکاری ابزار برای تولید خروجی طراحی شده اند که می تواند شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کد مضر باشد و این موضوع به بدتر شدن اوضاع منجر می شود.
کلی می گوید: هوش مصنوعی مولد می تواند ایمیل هایی با دستور زبان بی عیب و نقص ایجاد کند، آنها را قانونی جلوه دهد و احتمال علامت گذاری مشکوک را کاهش دهد. استفاده از هوش مصنوعی مولد، اجرای حملات پیچیده ایمیلهای تجاری را دموکراتیزه می کند. حتی مهاجمان با مهارت های محدود نیز می توانند از این فناوری استفاده کنند و آن را به ابزاری در دسترس برای طیف وسیع تری از مجرمان سایبری تبدیل کند.
این افشاگری زمانی صورت میگیرد که محققین شرکت امنیتی میتریل (Mithril Security) یک مدل هوش مصنوعی منبع باز موجود به نام GPT-J-6B را برای انتشار اطلاعات نادرست اصلاح کرده اند و آن را در یک مخزن عمومی مانند هاگینگ فیس (Hugging Face) آپلود کرده اند که میتواند در برنامههای کاربردی دیگر به چیزی که مسمومیت زنجیره تامین LLM نامیده می شود، ادغام شود.
موفقیت این تکنیک که پویزن جی پی تی (PoisonGPT) نامیده میشود، به این شرط است که مدل لوبوتومیشده با استفاده از نامی که از شرکت شناختهشده جعل شده است، در این مورد یک نسخه تایپی شده هوش مصنوعی الوتر (EleutherAI)، شرکت سازنده GPT-J، آپلود شود.
کمیسیون فدرال تجارت آمریکا مشغول تحقیق درباره نقض قوانین حمایت از مصرف کننده توسط «اوپن ای آی» است.
به گزارش خبرگزاری مهر به نقل از سی ان ان، در همین راستا این کمیسیون به دنبال سوابق گسترده ای از سازنده ChatGPTچت جی پی تی درباره مدیریت داده های شخصی، پتانسیل آن برای ارائه اطلاعات نادرست به کاربران و خطر آسیب رساندن به مصرف کنندگان، از جمله آسیب به شهرت افراد است.
این تحقیق احتمالا رابطه اوپن ای آی با سیاستگذاران را پیچیده تر می کند. علاوه بر آن چنین فرایندی احتمالا بیشتر روی نقش اوپن ای آی در بحث و گمانه زنی گسترده درباره خطر هوش مصنوعی برای مشاغل، امنیت ملی و دموکراسی متمرکز است.
کمیسیون فدرال تجارت آمریکا در یک تقاضانامه تحقیق شامل ۲۰ صفحه از اوپن ای آی خواسته تا به چند درخواست مختلف از شیوه جمع آوری اطلاعات مورد استفاده گرفته تا آموزش مدل های زبانی بزرگ و توصیف ظرفیت چت جی پی تی برای ایجاد اظهارات اشتباه درباره افراد واقعی پاسخ دهد.
نخستین بار واشنگتن پست از وجود چنین سندی پرده برداشت و یک منبع آگاه صحت آن را نیز تایید کرده است.
در این درخواست برای دریافت اطلاعاتی که نوعی احضاریه رسمی تلقی می شود، شهادت مدیران اوپن ای آی درباره هرگونه شکایت دریافتی از مردم، فهرست شکایت های ثبت شده از شرکت و همچنین جزئیات نشت داده که در مارس ۲۰۲۳ رخ داد نیز خواسته شده است. در رویداد نشت داده مارس ۲۰۲۳ تاریخچه چت کاربران و اطلاعات پرداخت آنها برای مدت کوتاهی در معرض خطر قرار گرفت.
این تحقیق در حقیقت خواستار توصیف شیوه آزمایش و دستکاری الگوریتم ها در اوپن ای آی به خصوص برای تولید پاسخ های مختلف و زبان های متفاوت است. همچنین در درخواست کمیسیون فدرال تجاری آمریکا از اوپن ای آی خواسته شده تا اقداماتی که برای برطرف کردن اطلاعات اشتباهی که توسط نرم افزار تولید می شود را نیز اعلام کند.
تحقیق کمیسیون فدرال تجارت واضح ترین نمونه از قوانین مستقیم دولت آمریکا درباره هوش مصنوعی است. این درحالی است که قانونگذاران در کنگره در تلاش هستند تا سرعت خود را با این صنعت در حال رشد هماهنگ کنند.
با وجود اقدامات گوناگون کشورها برای کنترل هوشمصنوعی، هنوز در ایران مسئول قانونگذاری در این حوزه مشخص نیست.
به گزارش فارس،هوش مصنوعی این روزها با سرعت بسیار زیادی در حال پیشرفت است و توسعه دهندگان آن اعلام کردند اگر برای توسعه و استفاده از این فناوری قانون گذاری نشود، ممکن است از کنترل خارج شود. علاوه بر این، احتمال سو استفاده از داده هایی که کاربران با هوش های مصنوعی به اشتراک می گذارند یکی دیگر از موارد نگران کننده درباره استفاده در کشورهای مختلف است.
اقدامات کشورهای مختلف برای مدیریت هوش مصنوعی
چند روز پیش بود که کنگره آمریکا اعلام کرد حتی برای استفاده از هوش مصنوعی ChatGPT در دفاتر این کنگره محدودیت اعمال خواهد کرد. بر اساس اعلام این کنگره کارکنان آن صرفا امکان استفاده از خدمات پولی چت جی پی تی را خواهند داشت چرا که روی حریم خصوصی بخش پولی این هوش مصنوعی کنترل بیشتری انجام می شود.
علاوه بر این دفتر سیاست علم و فناوری کاخ سفید طرحی را برای کنترل هوش های مصنوعی ارائه کرده است که هدف از ارائه آن به حداقل رساندن آسیب های احتمالی این فناوری است.
اتحادیه اروپا نیز از مدت ها پیش در زمینه قانون گذاری برای هوش مصنوعی پیشگام بود و به طور دائم برای کنترل و نطارت بر این فناوری برنامه ریزی می کرد. دو هفته پیش بود که اولین پیش نویس از قانون هوش مصنوعی از سوی این اتحادیه منتشر شد که AI Act نام داشت.
بر اساس اعلام اتحادیه اروپا استفاده از اسکنرهای تشخیص چهره و سیستم های تشخیص هویت لحظه ای از راه دور ممنوع خواهد شد.
علاوه بر این فناوری های خطرناک نظیر هوش های مصنوعی نیز برای استفاده از شناسایی کننده های بیومتریک باید در پایگاه داده اتحادیه اروپا متصل شوند. گفتنی است که در پی انتشار پیش نویس این قانون مدیران ۱۵۰ کسب و کار فناورانه نسبت به قوانین سختگیرانه اتحادیه اروپا واکنش نشان دادند و اعلام کردند که این قوانین می تواند توانایی های شرکت های اروپایی برای رقابت و توسعه در این حوزه را تحت تاثیر قرار دهد.
چین نیز در سال ۲۰۲۲ دو قانون با عناوین مدیریت توصیه های الگوریتمی و مدیریت عمیق خدمات اطلاعات اینترنتی را معرفی کرد. این مقررات شامل نکاتی در مورد مدیریت محتوا، برچسبگذاری، شفافیت، حفاظت از دادهها و شیوههای منصفانه هستند. علاوه بر این چین در می سال ۲۰۲۳ پیش نویس اقدامات ادارای برای خدمات هوش مصنوعی را منتشر کرد که بر اساس آن تمامی محصولات جدید در این حوزه پیش از انتشار عمومی باید در اختیار ارزیاب ایمنی قرار بگیرند.
علاوه بر این مقررات چین از ارائه دهندگان خدمات هوش مصنوعی می خواهد از تولید محتوای نادرست جلوگیری کنند و در صورت تولید محتوای نامناسب ارائه دهندگان خدمات باید با بروزرسانی فناوری خود از تولید محتوای مشابه جلوگیری کنند.
پاسکاری بین نهادهای مرتبط در ایران
با وجود تمهیداتی که کشورهای مختلف برای کنترل هوش مصنوعی و نظارت بر استفاده از این فناوری اندیشیده اند، در کشور ما هنوز هیچ قانون یا حتی پیش نویسی در این رابطه منتشر نشده است.
شاید جدا از نبود قانون مشخص نبودن مرجع قانون گذاری برای هوش مصنوعی دیگر معضل بزرگ ایران در این حوزه باشد. اما شورای عالی فضای مجازی هنوز اقدامی برای ایجاد مصوبه درباره این فناوری نداده و پیگیری های خبرنگار فارس درباره هوش مصنوعی با این پاسخ مواجه شد: در حال حاضر معاونت حقوقی سازمان ریاست جمهوری و مرکز پژوهش های مجلس روی قانون گذاری برای هوش مصنوعی تمرکز کرده اند و ما پس از اعلام نظر این دو مرجع مصوبه یا نظر خود را اعلام خواهیم کرد.
توسعه هوش مصنوعی و خطرات این فناوری منتظر پاسکاری نهادهای کشور ما برای قانون گذاری نخواهد ماند و در صورتی که این فناوری مانند مدیریت اینترنت در کشور در ابتدای راه خود رها شود، نتیجه نامطلوبی را برای کشور به دنبال خواهد داشت.
چین مقررات جدید هوش مصنوعی را با تاکید بر کنترل محتوا وضع میکند.
به گزارش سایبربان، فایننشال تایمز به نقل از افراد آگاه اعلام کرد که اداره فضای سایبری چین قصد دارد سیستمی ایجاد کند که شرکتها را مجبور میکند قبل از انتشار سیستم های هوش مصنوعی مولد مجوز بگیرند.
اداره فضای سایبری چین (CAC)، پیشنویس مقررات مربوط به هوش مصنوعی مولد را جهت کنترل شرکتهای فناوری منتشر کرد.
پیشنویس مقررات، شامل خطرات هوش مصنوعی و نقش دولت چین در صنعت فناوری میباشد. بسیاری از بندهای این پیشنویس ، اصولی هستند که منتقدان هوش مصنوعی در اروپا و آمریکا از آن دفاع میکنند.
بر اساس این پیش نویس، دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی مولد نباید مالکیت معنوی یا حریم خصوصی را نقض کند. الگوریتمهای هوش مصنوعی نباید نسبت به نژاد، قومیت، سن، جنسیت و سایر ویژگیها تبعیض قائل شود و شرکتهای هوش مصنوعی باید نسبت به ارائه محصولات خود شفاف باشند.همچنین ،شرکتهای هوش مصنوعی چینی باید محصولات مولد هوش مصنوعی خود را در اداره فضای سایبری چین ثبت نمایند و قبل از انتشار عمومی و در دسترس قرار گرفتن، آنها را برای ارزیابی امنیتی به این اداره ارسال کنند و مجوز بگیرند.
شرکتهای فناوری باید مطمئن شوند که هوش مصنوعی توسعه یافته شان ،قصد براندازی دولت یا سرنگونی حزب کمونیست چین و یا اقداماتی برای ایجاد تفرقه در کشور ،تولید محتوای غیراخلاقی ، افراط گرایی، تروریسم یا تبعیض را ندارد. افرادی که قوانین را نقض کنند مبالغی مابین ۱۰هزار یوان تا ۱۰۰هزار یوان جریمه خواهند شد.
اگرچه مقررات مربوط به هوش مصنوعی مولد در چین،در حال حاضر فقط به صورت پیشنویس هستند اما این موضوع، نشان دهنده رویکرد نظارتی اداره فضای سایبری چین است.
تعداد افرادی که از وبسایت ChatGPT بازدید میکنند، طی ماه ژوئن تا حدود ۱۰ درصد در سراسر جهان کاهش یافت.
به گزارش ایسنا و به نقل از واشنگتن پست، تعداد افرادی که از وبسایت چتبات هوش مصنوعی ChatGPT بازدید میکنند و برنامه آن را دانلود میکنند، برای اولین بار از زمان راهاندازی آن کاهش یافته است. این آمار، کاهش علاقه مصرفکنندگان را نسبت به چتباتهای هوش مصنوعی و تولیدکنندههای تصویر نشان میدهد.
گزارش شرکت داده اینترنتی «سیمیلار وب»(Similarweb) نشان میدهد که ترافیک تلفن همراه و دسکتاپ به وبسایت ChatGPT طی ماه ژوئن نسبت به ماه قبل، در سراسر جهان ۹.۷ درصد کاهش یافته است. دادههای شرکت نرمافزاری «سنسور تاور»(Sensor Tower) نشان میدهند دانلود اپلیکیشن آیفون این ربات، از زمان اوجگیری در اوایل ژوئن به طور پیوسته کاهش یافته است.
چتبات ChatGPT که توسط شرکت هوش مصنوعی «OpenAI» توسعه یافته است، اواخر سال گذشته موج علاقه را برانگیخت و شرکتهای بزرگ فناوری را به رقابت برای ارائه چتباتهای رقیب تشویق کرد. کدنویسان رایانه، کارمندان اداری و دانشجویان از ChatGPT برای سرعت بخشیدن به کار خود و پرسیدن سوالاتی در مورد موضوعات گوناگون استفاده کردهاند.
در سیلیکون ولی و فراتر از آن، چتباتها مولفه اصلی گفتوگوها بودهاند. برخی از شرکتها حتی کپیرایترها را اخراج کردند و ChatGPT را به جای آنها به کار گرفتند. با وجود این، کاهش استفاده از ChatGPT نشان میدهد که محدودیتهای این فناوری رو به افزایش گذاشتهاند و حداقل برخی از تبلیغات پیرامون چتباتها بیش از اندازه هستند.
«ساچین دو دوگال»(Sachin Dev Duggal) مدیر اجرایی استارتآپ «بیلدر.ایآی»(Builder.ai) که از هوش مصنوعی برای کمک کردن به مردم در ساخت اپلیکیشنهای تلفن همراه استفاده میکند، گفت: لحظهای را داشتیم که گفتیم «اوه خدای من! عالی است». سپس، وقتی مردم با یک چتبات روبهرو شدند که اطلاعات نادرستی میسازد، متوجه شدند که این فناوری آن گونه که در ابتدا فکر میکردند، سودمند نیست.
سخنگوی OpenAI از اظهار نظر خودداری کرد.
گزارش تحلیلگران شرکت خدمات مالی و بانکداری سوئیسی «یوبیاس»(UBS) نشان میدهد که ChatGPT در دو ماه اول به ۱۰۰ میلیون کاربر ماهانه رسید. توانایی چتبات برای داشتن گفتوگوهای پیچیده، نوشتن شعر و قبولی در آزمونهای حرفهای، کاربران عادی و کارشناسان هوش مصنوعی را تحت تاثیر قرار داد. کارشناسان فناوری، آن را سریعترین برنامه مخصوص مصرفکننده در تاریخ نامیدند و توسعه سریع آن باعث ایجاد یک رقابت تنگاتنگ در میان غولهای فناوری بزرگ برای بیرون راندن محصولات رقیب شد.
مدیران «گوگل» و «مایکروسافت» از هوش مصنوعی به عنوان انقلاب بعدی در محاسبات یاد کردهاند که نحوه تعامل مردم با دنیای دیجیتال را کاملا تغییر خواهد داد. شرکتهای بزرگ فناوری و استارتآپها، میلیاردها دلار در این فناوری سرمایهگذاری میکنند و شرکتها کل کسبوکار خود را حول محور هوش مصنوعی تغییر جهت میدهند. تنظیمکنندهها در سرتاسر جهان، برای درک این فناوری و تصویب قوانین تلاش میکنند تا اطمینان حاصل شود که برای آسیب رساندن به مردم مورد استفاده قرار نمیگیرد.
با وجود این، مشکلات مربوط به چتباتهای مولد مانند ChatGPT در طول چند ماه گذشته آشکار شدهاند. این چتباتها معمولا اطلاعات نادرست میسازند و آنها را درست جلوه میدهند. این مشکلی است که گوگل، OpenAI، مایکروسافت و سایر رهبران هوش مصنوعی هنوز راه حلی برای آن پیدا نکردهاند. برخی از کاربران شکایت کردهاند که پاسخهای ChatGPT به مرور زمان بدتر شدهاند؛ به ویژه وقتی نوبت به تولید کد رایانهای میرسد.
بسیاری از شرکتها نیز کارمندان خود را از به کار بردن ChatGPT در محل کار منع کردهاند زیرا نگران هستند که قرار دادن اطلاعات حساس شرکت در چتبات، به فاش شدن دادهها منجر شود.
اجرای چتباتهای هوش مصنوعی، به مقدار زیادی قدرت پردازش رایانهای گرانقیمت نیاز دارد و تحلیلگران معتقدند کاهش کیفیت به این دلیل است که OpenAI سعی دارد تا هزینه اجرای چتبات را کاهش دهد. پایان سال تحصیلی در آمریکا و اروپا نیز ممکن است باعث کاهش استفاده از ChatGPT شده باشد زیرا دانشآموزان و دانشجویانی که از آن برای نوشتن مقاله استفاده میکردند، به تعطیلات تابستانی رفتهاند.
برخی دیگر معتقدند که نگرانیها پیرامون مقررات جدید در اتحادیه اروپا باعث شده است که OpenAI و سایر شرکتهای هوش مصنوعی، توانایی چتباتهای خود را رد کنند تا با سیاستمدارانی که نگران استفاده از رباتها برای انتشار اطلاعات نادرست، نفوذ جانبداری به محصولات فناوری و تأثیرگذاری بر مشاغل واقعی افراد هستند، برخورد نداشته باشند.
«سارا هندلیان بولر»(Sarah Hindlian-Bowler)، تحلیلگر شرکت خدمات مالی و بانکداری استرالیایی «مککواری»(Macquarie) در یادداشتی خطاب به مشتریان نوشت: اگر همچنان شاهد افزایش تولید در حوزه «من نمیتوانم به این پرسش پاسخ دهم زیرا من یک چتبات هستم» باشیم، نگرانیهای بیشتری را در مورد این موضوع خواهیم داشت که مقررات، قدرت را از ChatGPT بگیرند.
معاون پژوهشی و قائممقام رئیس فرهنگستان علوم گفت: با توجه به ضرورت به کارگیری هوش مصنوعی برای پیشرفت کشور در پیشرو و به دلیل فقدان برنامه ملی در این حوزه، سند جامع هوش مصنوعی در فرهنگستان علوم تهیه و برای مقامات ارشد کشور ارسال شده است.
علی اکبر صالحی در گفتگو با تسنیم گفت: قریب به دو سال است که فرهنگستان علوم، با عنایت به ضرورت توجه به مسائل بنیادین کشور و برای تحقق رشد و بالندگی آنها ، اتاق فکرها و کارگروههایی به وجود آورده که فعالیت خود را به صورت مستمر و دقیق انجام میدهند.
وی ادامه داد: در حال حاضر 8 اتاق فکر و 23 کارگروه در فرهنگستان علوم ایجاد شده و 134 نفر در این کارگروهها فعالیت میکنند. سخنرانی، برگزاری نشستهای سیاستگذاری، نشستهای علمی، تهیه برنامه درسی کارشناسی ارشد میان رشتهای و تهیه برنامه درسی برای مقطع متوسطه و تنظیم برخی سندهای اجرایی از جمله فعالیتهای این کارگروهها و اتاقفکرها بوده است.
قائممقام رئیس فرهنگستان علوم گفت: اتاق فکرهای «آب»، «تغییر اقلیم»، «چالشهای اقتصادی»، «فناوریهای کوانتومی»، «مخاطرات طبیعی»، «مسائل اجتماعی»، «هوش مصنوعی» و «دیدگاه فرهنگستان علوم در حوزه علم و فناوری در افق 1420» به صورت مستمر در مجموعه فرهنگستان علوم فعال هستند.
صالحی بیان کرد: فعالیتهای تحقیقاتی و عمرانی در اتاق فکر «آب» پیرامون کارگروههایی تحت عنوان حکمرانی آب، ارزشگذاری و بهرهوری آب در بومسازگان مختلف ایران، سیمای مدیریت آب ایران و احیای منابع آب با تاکید بر آبخیزداری و آبخوانداری صورت میگیرد.
وی افزود: کارگروههای آلودگی هوا، پسماند و تغییر اقلیم در اتاق فکر «تغییر اقلیم»؛ چالش مدیریت اقتصادی و حکمرانی دولت محلی در عصر اقتصاد جهانی در اتاق فکر «چالشهای اقتصادی»؛ کارگروههای تحلیل فرآیند حکمرانی و اجرایی، فرونشست و سوانح ژئوتکنیکی کلان، سیلاب و زلزله در اتاق فکر مخاطرات طبیعی؛ کارگروههای شیوه حکمرانی و تحولات حوزه زنان و چالشها در اتاق فکر مسائل اجتماعی؛ چهار کارگروه: محاسبات کوانتومی ، اینترنت کوانتومی ، رمزنگاری کوانتومی ، حسگرها و سنجش کوانتومی در اتاق فکر فناوریهای کوانتومی؛ کارگروههای کاربرد هوش مصنوعی در تدارکات لجستیک حمل و نقل و کاربرد هوش مصنوعی در بهداشت و سلامت در اتاق فکر هوش مصنوعی و 5 کارگروه اقتصاد دانشبنیان، مهاجرت نخبگان، رصد علم، فناوری و نوآوری، آموزش عالی در افق 1420 و آموزش و پرورش در افق 1420 مباحثی است که در اتاق فکر «دیدگاه فرهنگستان علوم در حوزه علم و فناوری در افق 1420» مورد توجه قرار گرفته است.
در ضمن علاوه بر اقدامات فوق، فرهنگستان علوم به اقتضای مسئولیت خود 9 بهمن 1400 به تدوین گزارش «سیاستهای پیشنهادی فرهنگستان علوم در حوزه علم و فناوری در برنامه هفتم» اقدام کرد.
گزارش مزبور به رئیس محترم جمهوری و سازمان برنامه ارسال شد.این گزارش علاوه بر داشتن بازتاب نسبتاً وسیع در رسانهها، مورد امعان نظر رئیس محترم جمهوری واقع و توسط ایشان به ارگانهای ذیربط ارجاع شد.
معاون پژوهشی فرهنگستان علوم در ادامه ضمن تاکید بر اهمیت استفاده از فناوریهای نوین، گفت: ما در فرهنگستان علوم شرط لازم برای بقا و بالندگی را در استفاده و تسلط بر فناوریهایی میدانیم که آینده را به صورت مستمر با امکانات و منابع محدود میسازند و شکل میدهند.
وی توضیح داد: در واقع محدودیت بالقوه و بالفعل در امکانات و منابع، موجب تغییر بنیادی در نگاه به نیازهای افراد و جوامع و به طبع آن برطرف کردن این نیازها منجر شده است. امروز به جای همسانانگاری افراد و جوامع که موجب اتلاف منابع و امکانات محدود میشود چارهای جز نگرش شخصمحور نیست.
صالحی گفت: من اعتقاد دارم این موضوع یعنی استفاده از پتانسیلهای نگرش شخص-محور فقط با استفاده از هوش مصنوعی امکانپذیر و محقق میشود. آن هم در دنیای امروز که با مسائل پیچیدهای روبهرو میشویم که به دلیل دگردیسی مستمر ظاهر و ماهیتشان دنبال کردن آنها در عمل ممکن نیست.
وی به آسیبشناسی نگاههای موجود در مواجه با هوش مصنوعی پرداخت و گفت: راهکارهای بیانعطاف و صلب موجود که به دادهها و واقعیتها بیتوجهی میکنند یا از ماهیت متغیر زمان غفلت میکنند یا بر فرضِ نادرستِ نامحدود بودنِ منابع و امکانات استوارند.
قائممقام رئیس فرهنگستان علوم افزود: صاحبان این نگرش به گونهای اعجابآور اهمیت تصمیمسازیهای به موقع را نادیده میگیرند و به همین دلیل به صورت آشکار توان مقابله با مسائل یاد شده را ندارند.
صالحی به اهمیت هوش مصنوعی برای پیشرفت سطوح مختلف کشور اشاره کرد و توضیح داد: هوش مصنوعی و هوشمندسازی سامانهها در زمره مهمترین مفاهیم، فناوریها و ابزارهایی هستندکه بدون آنها امکان بقا متصور نیست. هوش مصنوعی امروز به عنوان پرچمدار علم و فناوری، ابزاری کارآمد و اجتنابناپذیر برای تحقق عزت و اقتدارملی و ارتقای زندگی آحاد جامعه است.
وی افزود: برخی از مهمترین زمینههای استفاده از هوش مصنوعی و هوشمندسازی سامانهها در ایران که با رصد مشکلات کشور از سوی فرهنگستان علوم به صاحبنظران و مجریان و قانونگذاران پیشنهاد شده بحث هوشمندسازی در حوزه حکمرانی ملی، سلامت و بهداشت، تدارکات به موقع و انبارداری مدرن، حمل و نقل، شبکههای برق و انرژی الکتریکی، مهندسی ارتباطات، نفت و گاز، معدن، کشاورزی و غذا، ساخت و تولید، سامانههای مالی و بانکی، حفاظت از محیطزیست، و آموزش است.
معاون پژوهشی فرهنگستان علوم گفت: به منظور تحقق بالندگی کشور در زمینه هوش مصنوعی و الویت دادن به آن به دنبال ایجاد و به کارگیری زیستبومی تحول آفرین هستیم که در آن عوامل متعددی باید با نگاه همافزایی با هم تعامل کنند.
وی ادامه داد:حکومت، آموزش و پژوهش، تأمین مالی و سرمایهگذاری و ملزمات فنی شامل دادههایی با قابلیت اشتراک و مبادله، سختافزار و رایانههای توانمند و از طرفی الگوریتمها و نرمافزارهای کاربردی بر مبنای هوش مصنوعی از جمله مهمترین ارکان این زیستبوم هستند.
صالحی به بیان برخی مشکلات اساسی در این حوزه پرداخت و گفت: ایران فاقد برنامه ملی هوش مصنوعی است و تنها برخی برنامهها در موضوع فناوریهای مرتبط در این حوزه تدوین شدهاند. این در حالی است که تعداد دانشآموختگان و متخصصان هوش مصنوعی در رشتههای علوم و مهندسی کامپیوتر در حد قابل قبولی است، اما در رشتههای دیگر، توانایی چندانی برای استفاده از هوش مصنوعی به عنوان ابزار وجود ندارد.
وی ضمن اشاره به تهیه سند جامع هوش مصنوعی در فرهنگستان علوم و ارسال آن برای مقامات ارشد کشور، افزود: وضعیت پژوهشهای بنیادی، نوآوری علمی و انتشار علم در حوزه هوش مصنوعی در ایران با وجود محدودیتها در حد بسیار خوبی بوده است. بهگونهای که ایران جزو کشورهای برتر در این حوزه محسوب میشود اما زیرساختهای مناسب و مکفی برای پژوهشهای آیندهساز در کشور وجود ندارد.
قائممقام رئیس فرهنگستان علوم گفت: جایگاه کلی کشور در شاخصهای دسترسی و ارتباطات در حد متوسط و جزو کشورهای میانی دنیاست اما محدودیتهای اخیردر تعاملات علمی، فعالیت در حوزه هوش مصنوعی را در عمل متوقف کرده است.
صالحی گفت: این یک واقعیت است که در زمینه ثبت اختراع و تحقیقات کاربردی، شرایط کشور مناسب نیست. تعداد شرکتها و محصولات دانشبنیان در چند سال اخیر علیرغم رشد قابل توجهی که داشتند، اندک بوده است. از سویی طی چند سال گذشته سرمایهگذاری در کشور بر اساس شاخصهای اقتصاد جهانی در مجموع کافی نبوده و دولت به عنوان بزرگترین فعال در اقتصاد کشور فعالیت مناسبی در این حوزه ندارد.
وی بیان کرد: در شرایط کنونی کشور نبود سرمایهگذاری خطرپذیر نیز آشکار است.کسب و کار و کارآفرینی در ایران شرایط مناسبی ندارد و محیط و فضای لازم برای آن و آمادگی برای شروع و تثبیت کسب و کار مطلوب نیست.
معاون پژوهشی فرهنگستان علوم توضیح داد: با وجود رشد عناصر موثر در این زمینه مانند شتابدهندهها و بسترهای نوآوری، وضعیت نوآوری در ایران متوسط است. چرا که نبود مربیان و راهنمایان در شتابدهندهها مشهود است.
صالحی گفت: از سوی دیگر روند تصویب قوانین و مقررات مرتبط در این زمینه هم در حد متوسط است. در اشتراکگذاری و مبادله دادهها، با وجود تدوین قوانین و مقررات مرتبط، ایران در شرایط مناسبی نیست و رتبه کشور در چند سال اخیر کاهش یافته است.
وی اظهار داشت: برای ایجاد و بهکارگیری زیستبوم تحولآفرین، یک نهاد باید وظیفه هماهنگی ارکان زیستبوم را برعهده داشته باشد که این نهاد میتواند معاونت علمی و فناوری رئیس جمهور باشد.
قائم مقام رئیس فرهنگستان علوم توضیح داد: در حال حاضر 114 اقدام برای بالندگی و شکوفایی زیستبوم هوش مصنوعی کشور به تفکیک هر یک از حوزههای پنجگانه شامل اقدام در برنامه ملی و سیاست کلان، 31 اقدام در حوزه آموزش و پژوهش، 13 اقدام در حوزه زیرساختها و شرکتها، 29 اقدام در حوزه نوآوری و کسبوکار و اقدام در حوزه اخلاق، مقررات و حقوق مشخص شده که توسط نهاد هماهنگکننده ارکان زیستبوم تعیین و اجرایی میشود.
معاون علمی رئیس جمهور با تاکید بر اینکه باید با آینده شناسی دقیق از هوش مصنوعی به عنوان فرصت استفاده کنیم گفت: «هوش مصنوعی» فرصت تغییر قدرت ها و بنوعی فرصت جبران تمام عقب افتادگی های علمی است.
به گزارش خبرگزاری صدا و سیما؛ روح الله دهقانی فیروزآبادی معاون علمی و فناوری رئیس جمهور در رویداد «تبادل فناوری اطلاعات در حوزه علوم و فرهنگ اسلامی» در قم بابیان اینکه موضوع تولید علم تجربی بر مبنای مشاهده بوده است گفت: بشر در نهایت به دانش و آگاهی دست یافته و سپس با بینش زندگی خود را طراحی کرده است.
وی افزود: در صده اخیر دو اتفاق در مشاهده ورزی ما در علوم تجربی رخ داد و از این رو تعداد و حجم دادههای زندگی ما و تولید دادهها زیاد شد و نیز ابزارهای ذخیره سازی اطلاعات قوی شد.
فیروزآبادی بااشاره به این حجم عظیمی از اطلاعاتی که امروز در اختیار بشر قرار دارد گفت: ماشین در کاوش این اطلاعات به کمک بشر آمد و ابزار ماشین با فهم در عملکرد مغز انسان تلفیق و در نهایت به ابزار «هوش مصنوعی» رسیدیم.
وی افزود: هوش مصنوعی با مدد دادههای عظیم و ذخیره سازهای بزرگ و الگوریتمهای مغز به ابزار تولیدکننده تبدیل شده است.
معاون رئیس جمهور با بیان اینکه فناوری این ویژگی را دارد که انسان را در برونش تقویت و در درون ضعیف میکند گفت: هوش مصنوعی تولیدکننده است و فکر میکند و در کمتر از پنج سال آینده حتی طراحیهای تکنولوژی را هوش مصنوعی انجام خواهد داد.
وی افزود: رویکردحوزه علمیه برای استفاده از هوش مصنوعی در بحث فقهی نشانه دوراندیشی حوزویان است.
دهقانی با بیان اینکه بشر با هوش مصنوعی توان فکری و ذهنی را توام با توان جسمی و اجتماعی از دست داد گفت: اگر صرفا استفاده کننده هوش مصنوعی باشیم در ۱۰ سال آینده به مصرف کننده صرف تبدیل میشویم گفت: در همه دنیا و در کشور ما به شکل ویژه به هوش مصنوعی به عنوان یک تهدید نگاه میکنند که چگونه جلوی آن را گرفته و کنترلش کنیم و، چون آن را نمیشناختیم مقهور آن شدیم.
وی ادامه داد: اگر به هوش مصنوعی به عنوان تهدید نگاه کنیم این اتفاق بد به شکل شدیدتری برای ما خواهد افتاد و باید با آینده شناسی دقیق از هوش مصنوعی به عنوان فرصت نگاه کنیم که فرصت تغییر قدرتها بوجود میآید و فرصت جبران تمام عقب افتادگی علمی است.
معاون رئیس جمهور با بیان اینکه بزرگترین مزیت در هوش مصنوعی داشتن نیروی انسانی توانمند در کشور است گفت: خیل عظیمی از جوانان تحصیل کرده داشته و از نظر توان علمی نسبت به دنیا برتری داریم.
وی گفت: در مسیر ایجاد چند هاب فناوری با مرکزیت بخش خصوصی و خیران قرار داریم و راه اندازی هابهای فناوری هوش مصنوعی همکاری اساتید حوزه را در شاخههای علوم دینی میطلبد.