ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

فرض کنید که یک صداپیشه‌ی معروف هستید و روزی هنگام گشت‌و‌گذار در وب به شخصیتی برمی‌خورید که دقیقاً با آهنگ صدای شما پادکستی را اجرا می‌کند. این شخص علاوه بر این که دقیقاً دارای صدایی مشابه صدای شماست، فراز و فرود معمول گویندگی شما را نیز در گفتار خود رعایت می‌کند.


این شخص شما نیستید. چنین شخصیتی تماماً ساخته و پرداخته‌ی هوش مصنوعی است و کلماتی را از دهان شما بر زبان می‌آورد که هرگز بیان نکرده‌اید.
یادداشت فوق با روایت ماجرایی مشابه این مثال -اما واقعی- که در انگلستان رخ داده است آغاز می‌شود و این پرسش را مطرح می‌کند که مصرف‌ بی‌رویه و بی‌ حد وحصر داده‌های دیجیتالی موجود در سطح اینترنت توسط هوش مصنوعی، چه نتیجه‌ای برای زندگی واقعی و مجازی ما در بر خواهد داشت؟

گرگ مارستن -دوبلور بریتانیایی- به تازگی به صورت تصادفی در اینترنت به شخصیتی به نام «کانر» برخورد کرد. «کانر» یک کپی ساخته شده به وسیله هوش مصنوعی از صدای او بود که بر اساس صوتی که آقای مارستن در سال ۲۰۰۳ ضبط کرده بود، ایجاد شده بود. این صدای او بود که چیزهایی را بر زبان می‌آورد که وی هرگز آن‌ها را بیان نکرده بود.
در آن زمان (سال ۲۰۰۳) ، او یک جلسه ضبط برای شرکت IBM انجام داده بود و سپس رضایت‌نامه‌ای را مبنی بر این که صوت ضبط شده بتواند در موارد متعدد دیگری مورد استفاده قرار بگیرد، امضا کرد. البته در آن زمان آقای مارستن نمی‌توانست تصور کند که IBM از چیزی بیش از آن سخنانی که ضبط کرده بود استفاده خواهد کرد. در هر حال به لطف هوش مصنوعی شرکت IBM قادر بود تا نمونه‌ی صوت چند دهه‌ی پیش آقای مارستن را به وبسایت‌هایی بفروشد که از آن برای ساخت یک صدای مصنوعی که می‌تواند هرچیزی بگوید، استفاده می‌کنند. آقای مارستن اخیراً متوجه شد که صدای او از سایت مسابقات تنیس ویمبلدون در طول مسابقات تنیس پخش می‌شود. (شرکت IBM اعلام کرده است که از نگرانی پیش آمده برای آقای مارستن آگاه است و در حال مذاکره مستقیم با او بر سر این مشکل است.)
گرفتاری پیش آمده برای آقای مارستن نشان می‌دهد که چرا بسیاری از سازندگان مشهور اقتصاد ما از این وضعیت خشمگین هستند. ما در زمانه‌ی از بین رفتن اعتمادها به سر می‌بریم. زیرا مردم متوجهند که حاصل مشارکتشان در فضای عمومی می‌تواند به سرقت برود و از آن کسب درآمد شود و حتی این محصول به سرقت رفته به صورت بالقوه ممکن است برای رقابت با خود آن‌ها به کار گرفته شود. هنگامی که این فرایند از بین رفتن اعتمادها کامل شود، من نگرانم که فضاهای عمومی دیجیتالی ما حتی بیشتر از این به محتواهای غیر قابل اعتماد آلوده شوند.
هم اکنون، پس از این که شرکت صاحب پلتفرم ایکس -توییتر سابق- اعلام کرد که در آینده از اطلاعات داخل این پلتفرم برای توسعه هوش مصنوعی خود استفاده خواهد کرد، هنرمندان شروع به حذف آثار خود از این پلتفرم کرده‌اند. نویسندگان و بازیگران هالیوود نیز تا اندازه‌ای به دلیل این که می‌خواهند مطمئن شوند که محصول کارشان در اختیار سیستم‌های هوش مصنوعی‌ای که شرکت‌ها می‌توانند آن‌ها را به جای ایشان استخدام کنند قرار نمی‌گیرد، اعتصاب کرده‌اند. همچنین سازمان‌های خبری‌ای همچون نیویورک تایمز و سی‌ان‌ان فایل‌هایی را به وب‌سایت‌هایشان اضافه کرده‌اند تا کمک کنند که از این که چت‌بات‌های هوش مصنوعی محتوای این وب‌سایت‌ها را مخفیانه جمع‌آوری کنند، جلوگیری شود.
نویسندگان نیز در حال شکایت از شرکت‌های هوش مصنوعی می باشند و مدعی هستند که کتاب‌های آن‌ها در پایگاه‌های اطلاعاتی این شرکت‌ها که برای توسعه هوش‌های مصنوعی به کار گرفته می‌شوند، استفاده می‌شوند. شرکت OpenAi در یک پرونده حقوقی غیر از مورد مذکور، ادعا کرده است که استفاده از اطلاعاتی که دارای کپی رایت هستند در فرایند توسعه هوش مصنوعی، بر اساس ماده «استفاده منصفانه» قانون کپی رایت مجاز می‌باشد.
در حالی که تولیدکنندگان محتواهای حرفه‌ای به این که آثارشان چگونه استفاده می‌شود اعتراض می‌کنند، محتواهای مشکوک تولید شده توسط هوش مصنوعی به فضای عمومی یورش برده‌اند. وب‌سایت NewsGuard ۴۷۵ وبسایت خبری و اطلاعاتی ساخته شده به وسیله هوش مصنوعی به ۱۴ زبان را شناسایی کرده است. موسیقی‌های تولید شده به وسیله هوش مصنوعی به شکلی سیل آسا وارد وب‌سایت‌های استریم کننده شده‌اند و برای اسکمرها (یعنی کسانی که واقعاً نوازنده موسیقی نیستند) از طریق هوش مصنوعی درآمدزایی ایجاد کرده‌اند. کتاب‌های نوشته شده توسط هوش مصنوعی -مثلاً یک کتاب راهنمای جمع‌آوری قارچ که می‌توانست منجر به اشتباه در شناسایی قارچ‌های به شدت سمی شود- به حدی در سایت آمازون شایع شده‌اند که شرکت آمازون از نویسندگانی که کتاب خود را در پلتفرم کیندل با هزینه شخصی منتشر می‌کنند می‌خواهد که اعلام کنند آیا از هوش مصنوعی در نوشتن کتاب خود استفاده کرده‌اند یا خیر.
این وضعیت در واقع یک مثال کلاسیک از تراژدی منابع مشترک است که در آن یک منبع عمومی به وسیله سودی که افراد باید به دست آورند، خسارت می‌بیند. یک چراگاه عمومی که دام‌ها می‌توانند در آن چَرا کنند، مثال سنتی چنین وضعیتی است. بدون هیچ محدودیت و قانونی، افراد صاحب دام تمایل دارند که بیش از حد دام‌های خود را در این مرتع بچرانند و آن را فرسوده کنند و ارزش‌ آن را برای همه از بین ببرند.
ما در اینترنت نیز دارای منابع مشترک هستیم. جدای از زوایای منفی آن، اینترنت همچنان مملو از بخش‌های پویایی است که به خوبی به عموم مردم خدمت می‌کنند- یعنی فضاهایی مانند ویکی‌پدیا یا فروم‌های ردیت که در آن‌ها کاربران داوطلب، با حسن نیت دانش خود را در اختیار دیگران می‌گذارند و سخت تلاش می‌کنند تا از فعالیت کاربرانی که اغراض بدی دارند جلوگیری کنند.
اما اکنون این منابع مشترک موجود در اینترنت توسط شرکت‌های حریص تکنولوژی بیش از حد مورد استفاده و بهره‌وری قرار می‌گیرند و همچون چراگاه مذکور، نابود می‌شوند. شرکت‌های تکنولوژی در تلاشند تا تمام خرد، مهارت، خلق و خو، حکایات و حکمت‌های بشری را که در این فضاهای مشترک پیدا می‌کنند، به سیستم‌های هوش مصنوعی سودآور خود بخورانند.
برای مثال، کاربران داوطلبی که ویکی‌پدیا را ایجاد و آن را توسعه دادند، اطمینان داشتند که از محصول فعالیت آن‌ها بر اساس قوانین ویکی‌پدیا -که ارجاع‌دهی به منبع اصلی در آن لازم است- استفاده خواهد شد. اکنون برخی از ویکی‌پدیایی‌ها ظاهراً در حال بحث هستند که می‌توان اقدام قانونی‌ای علیه چت‌بات‌هایی که از محتوای آن‌ها بدون ذکر منبع و ارجاع‌دهی استفاده می‌کنند انجام داد یا خیر.
سازمان‌های تنظیم کننده مقررات نیز در تلاشند تا بفهمند که آیا امکان اقدام قانونی علیه این چنین فعالیت‌هایی وجود دارد یا ندارد. اتحادیه اروپا در حال بررسی اولین مجموعه‌ از محدودیت‌های جهانی برای هوش مصنوعی می‌باشد. این مجموعه محدودیت‌ها از سیستم‌های هوش مصنوعی مولد مقداری شفافیت طلب می‌کند. این شفافیت شامل ارائه‌ی خلاصه‌ای از داده‌های دارای کپی‌رایتی است که برای توسعه سیستم‌های هوش مصنوعی ارائه شده، به کار رفته‌اند.
اعمال این مجموعه محدودیت‌ها می‌تواند گام رو به جلویی باشد. چرا که بسیاری از سیستم‌های هوش مصنوعی به صورت کامل داده‌هایی را که بر اساس آن‌ها ساخته شده‌اند، افشا نمی‌کنند.
غالباً این روزنامه‌نگاران بوده‌اند که داده‌های مبهمی را که در زیر پوست خوش رنگ و لعاب چت‌بات‌های هوش مصنوعی پنهان شده بودند، کشف و افشا کردند. یک تحقیق که اخیراً در مجله آتلانتیک منتشر شد نشان داد که بیش از ۱۷۰ هزار کتاب پرینت شده بدون اجازه ناشر در بین مجموعه داده‌هایی که برای توسعه هوش مصنوعی شرکت متا -به نام لاما- به کار رفته بود، قرار داشتند. یک تحقیق دیگر که در خبرگزاری واشنگتن‌پست منتشر شد نیز نشان داد که چت‌‌جی‌پی‌تی که متعلق به شرکت OpenAi است، متکی به داده‌هایی است که بدون اجازه از تولیدکنندگان آن‌ها از هزاران سایت استخراج شده‌اند.
اماً صرف شفافیت برای ایجاد دوباره‌ی توازن قدرت میان کسانی که داده‌هایشان مورد سو استفاده قرار می‌گیرد و شرکت‌هایی که آماده پول در آوردن از طریق سواستفاده از این داده‌ها هستند، کاملاً کافی نیست.
تیم فریدلندر -بنیان‌گذار و رئیس انجمن ملی دوبلورها- به شکلی شدیداللحن از شرکت‌های تولیدکننده هوش مصنوعی خواسته است که به استانداردهای اخلاقی پایبند باشند. او اذعان داشته است که دوبلورها به سه قانون نیازمندند: این که برای استفاده از کارهایشان از آن‌ها رضایت گرفته شود، این که بر فرایند استفاده از کارهایشان نظارت و کنترل داشته باشند و این که هزینه استفاده از کارهایشان پرداخت شود.
در واقع همه ما به این سه قانون نیازمندیم- چه بازیگر حرفه‌ای باشیم و چه فقط چند عکس در فضای مجازی پست کنیم. همه باید این حق را دارا باشند که حتماً رضایتشان برای این که زندگی‌های آنلاین‌ ما به ماشین‌های بزرگ هوش مصنوعی خورانده شوند، گرفته شود.
و جلب رضایت افراد به معنای قرار دادن چند کلید اختیاری‌ای که به سختی پیدا می‌شوند و باید برای رضایت دادن بر روی آن‌ها کلیک کنیم نیست- که صنعت هوش مصنوعی در حال حرکت به سمت ایجاد چنین شیوه‌ای برای جلب رضایت افراد می باشد.
اما فرایند پرداخت هزینه‌ی استفاده از آثار، توسط شرکت‌های هوش مصنوعی سخت‌تر است. به خصوص که بسیاری از ربات‌های هوش مصنوعی اکنون غالباً به صورت رایگان فعالیت می‌کنند. اما اشتباه نکنید. صنعت هوش مصنوعی در حال برنامه‌ریزی برای درآمدزایی از چنین سیستم‌هایی است و از آن‌ها پول درخواهد آورد. و هنگامی که شرکت‌های هوش مصنوعی از این ربات‌‌ها پول در بیاورند، کسانی که کارهایشان باعث سودآوری این شرکت‌ها شده بود، مد نظر قرار خواهند گرفت.
کسانی مانند آقای مارستن در چنین وضعیتی معیشتشان در خطر است. وی تخمین می‌زند که کپی ساخته شده از صدای او به وسیله هوش مصنوعی تا کنون چند فرصت شغلی را از او گرفته است و به شکل قابل ملاحظه‌ای درآمد آینده او را کاهش خواهد داد. او در حال همکاری با یک وکیل برای غرامت گرفتن است. او به من گفت: «من هیچگاه رضایت ندادم که از صدایم کپی‌برداری شود تا در فضای عمومی شنیده شود و با صدای خود من رقابت کند.»
اما حتی کسانی از ما که شغلشان مستقیماً به وسیله هوش مصنوعی تهدید نمی‌شود نیز به نوشتن یک رمان، نواختن یک موسیقی، ضبط یک کلیپ برای تیک تاک و انتشار محتوای طنز در شبکه‌های اجتماعی فکر کرده‌اند. من نگرانم که اگر از ما در برابر هوش‌های مصنوعی‌ای که داده‌ها را بی‌رویه مصرف می‌کنند محافظت نشود، حتی تلاش برای ساخت محتوا در فضای عمومی بی‌فایده به نظر برسد. و این وضعیت واقعاً تراژدیک خواهد بود.

ترجمه: محمدحسین قدمی

منبع:سایبرپژوه

  • ۰۳/۰۷/۰۴

هوش مصنوعی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">