مرثیهای برای مالکیت معنوی در عصر هوش مصنوعی
فرض کنید که یک صداپیشهی معروف هستید و روزی هنگام گشتوگذار در وب به شخصیتی برمیخورید که دقیقاً با آهنگ صدای شما پادکستی را اجرا میکند. این شخص علاوه بر این که دقیقاً دارای صدایی مشابه صدای شماست، فراز و فرود معمول گویندگی شما را نیز در گفتار خود رعایت میکند.
این شخص شما نیستید. چنین شخصیتی تماماً ساخته و پرداختهی هوش مصنوعی است و کلماتی را از دهان شما بر زبان میآورد که هرگز بیان نکردهاید.
یادداشت فوق با روایت ماجرایی مشابه این مثال -اما واقعی- که در انگلستان رخ داده است آغاز میشود و این پرسش را مطرح میکند که مصرف بیرویه و بی حد وحصر دادههای دیجیتالی موجود در سطح اینترنت توسط هوش مصنوعی، چه نتیجهای برای زندگی واقعی و مجازی ما در بر خواهد داشت؟
گرگ مارستن -دوبلور بریتانیایی- به تازگی به صورت تصادفی در اینترنت به شخصیتی به نام «کانر» برخورد کرد. «کانر» یک کپی ساخته شده به وسیله هوش مصنوعی از صدای او بود که بر اساس صوتی که آقای مارستن در سال ۲۰۰۳ ضبط کرده بود، ایجاد شده بود. این صدای او بود که چیزهایی را بر زبان میآورد که وی هرگز آنها را بیان نکرده بود.
در آن زمان (سال ۲۰۰۳) ، او یک جلسه ضبط برای شرکت IBM انجام داده بود و سپس رضایتنامهای را مبنی بر این که صوت ضبط شده بتواند در موارد متعدد دیگری مورد استفاده قرار بگیرد، امضا کرد. البته در آن زمان آقای مارستن نمیتوانست تصور کند که IBM از چیزی بیش از آن سخنانی که ضبط کرده بود استفاده خواهد کرد. در هر حال به لطف هوش مصنوعی شرکت IBM قادر بود تا نمونهی صوت چند دههی پیش آقای مارستن را به وبسایتهایی بفروشد که از آن برای ساخت یک صدای مصنوعی که میتواند هرچیزی بگوید، استفاده میکنند. آقای مارستن اخیراً متوجه شد که صدای او از سایت مسابقات تنیس ویمبلدون در طول مسابقات تنیس پخش میشود. (شرکت IBM اعلام کرده است که از نگرانی پیش آمده برای آقای مارستن آگاه است و در حال مذاکره مستقیم با او بر سر این مشکل است.)
گرفتاری پیش آمده برای آقای مارستن نشان میدهد که چرا بسیاری از سازندگان مشهور اقتصاد ما از این وضعیت خشمگین هستند. ما در زمانهی از بین رفتن اعتمادها به سر میبریم. زیرا مردم متوجهند که حاصل مشارکتشان در فضای عمومی میتواند به سرقت برود و از آن کسب درآمد شود و حتی این محصول به سرقت رفته به صورت بالقوه ممکن است برای رقابت با خود آنها به کار گرفته شود. هنگامی که این فرایند از بین رفتن اعتمادها کامل شود، من نگرانم که فضاهای عمومی دیجیتالی ما حتی بیشتر از این به محتواهای غیر قابل اعتماد آلوده شوند.
هم اکنون، پس از این که شرکت صاحب پلتفرم ایکس -توییتر سابق- اعلام کرد که در آینده از اطلاعات داخل این پلتفرم برای توسعه هوش مصنوعی خود استفاده خواهد کرد، هنرمندان شروع به حذف آثار خود از این پلتفرم کردهاند. نویسندگان و بازیگران هالیوود نیز تا اندازهای به دلیل این که میخواهند مطمئن شوند که محصول کارشان در اختیار سیستمهای هوش مصنوعیای که شرکتها میتوانند آنها را به جای ایشان استخدام کنند قرار نمیگیرد، اعتصاب کردهاند. همچنین سازمانهای خبریای همچون نیویورک تایمز و سیانان فایلهایی را به وبسایتهایشان اضافه کردهاند تا کمک کنند که از این که چتباتهای هوش مصنوعی محتوای این وبسایتها را مخفیانه جمعآوری کنند، جلوگیری شود.
نویسندگان نیز در حال شکایت از شرکتهای هوش مصنوعی می باشند و مدعی هستند که کتابهای آنها در پایگاههای اطلاعاتی این شرکتها که برای توسعه هوشهای مصنوعی به کار گرفته میشوند، استفاده میشوند. شرکت OpenAi در یک پرونده حقوقی غیر از مورد مذکور، ادعا کرده است که استفاده از اطلاعاتی که دارای کپی رایت هستند در فرایند توسعه هوش مصنوعی، بر اساس ماده «استفاده منصفانه» قانون کپی رایت مجاز میباشد.
در حالی که تولیدکنندگان محتواهای حرفهای به این که آثارشان چگونه استفاده میشود اعتراض میکنند، محتواهای مشکوک تولید شده توسط هوش مصنوعی به فضای عمومی یورش بردهاند. وبسایت NewsGuard ۴۷۵ وبسایت خبری و اطلاعاتی ساخته شده به وسیله هوش مصنوعی به ۱۴ زبان را شناسایی کرده است. موسیقیهای تولید شده به وسیله هوش مصنوعی به شکلی سیل آسا وارد وبسایتهای استریم کننده شدهاند و برای اسکمرها (یعنی کسانی که واقعاً نوازنده موسیقی نیستند) از طریق هوش مصنوعی درآمدزایی ایجاد کردهاند. کتابهای نوشته شده توسط هوش مصنوعی -مثلاً یک کتاب راهنمای جمعآوری قارچ که میتوانست منجر به اشتباه در شناسایی قارچهای به شدت سمی شود- به حدی در سایت آمازون شایع شدهاند که شرکت آمازون از نویسندگانی که کتاب خود را در پلتفرم کیندل با هزینه شخصی منتشر میکنند میخواهد که اعلام کنند آیا از هوش مصنوعی در نوشتن کتاب خود استفاده کردهاند یا خیر.
این وضعیت در واقع یک مثال کلاسیک از تراژدی منابع مشترک است که در آن یک منبع عمومی به وسیله سودی که افراد باید به دست آورند، خسارت میبیند. یک چراگاه عمومی که دامها میتوانند در آن چَرا کنند، مثال سنتی چنین وضعیتی است. بدون هیچ محدودیت و قانونی، افراد صاحب دام تمایل دارند که بیش از حد دامهای خود را در این مرتع بچرانند و آن را فرسوده کنند و ارزش آن را برای همه از بین ببرند.
ما در اینترنت نیز دارای منابع مشترک هستیم. جدای از زوایای منفی آن، اینترنت همچنان مملو از بخشهای پویایی است که به خوبی به عموم مردم خدمت میکنند- یعنی فضاهایی مانند ویکیپدیا یا فرومهای ردیت که در آنها کاربران داوطلب، با حسن نیت دانش خود را در اختیار دیگران میگذارند و سخت تلاش میکنند تا از فعالیت کاربرانی که اغراض بدی دارند جلوگیری کنند.
اما اکنون این منابع مشترک موجود در اینترنت توسط شرکتهای حریص تکنولوژی بیش از حد مورد استفاده و بهرهوری قرار میگیرند و همچون چراگاه مذکور، نابود میشوند. شرکتهای تکنولوژی در تلاشند تا تمام خرد، مهارت، خلق و خو، حکایات و حکمتهای بشری را که در این فضاهای مشترک پیدا میکنند، به سیستمهای هوش مصنوعی سودآور خود بخورانند.
برای مثال، کاربران داوطلبی که ویکیپدیا را ایجاد و آن را توسعه دادند، اطمینان داشتند که از محصول فعالیت آنها بر اساس قوانین ویکیپدیا -که ارجاعدهی به منبع اصلی در آن لازم است- استفاده خواهد شد. اکنون برخی از ویکیپدیاییها ظاهراً در حال بحث هستند که میتوان اقدام قانونیای علیه چتباتهایی که از محتوای آنها بدون ذکر منبع و ارجاعدهی استفاده میکنند انجام داد یا خیر.
سازمانهای تنظیم کننده مقررات نیز در تلاشند تا بفهمند که آیا امکان اقدام قانونی علیه این چنین فعالیتهایی وجود دارد یا ندارد. اتحادیه اروپا در حال بررسی اولین مجموعه از محدودیتهای جهانی برای هوش مصنوعی میباشد. این مجموعه محدودیتها از سیستمهای هوش مصنوعی مولد مقداری شفافیت طلب میکند. این شفافیت شامل ارائهی خلاصهای از دادههای دارای کپیرایتی است که برای توسعه سیستمهای هوش مصنوعی ارائه شده، به کار رفتهاند.
اعمال این مجموعه محدودیتها میتواند گام رو به جلویی باشد. چرا که بسیاری از سیستمهای هوش مصنوعی به صورت کامل دادههایی را که بر اساس آنها ساخته شدهاند، افشا نمیکنند.
غالباً این روزنامهنگاران بودهاند که دادههای مبهمی را که در زیر پوست خوش رنگ و لعاب چتباتهای هوش مصنوعی پنهان شده بودند، کشف و افشا کردند. یک تحقیق که اخیراً در مجله آتلانتیک منتشر شد نشان داد که بیش از ۱۷۰ هزار کتاب پرینت شده بدون اجازه ناشر در بین مجموعه دادههایی که برای توسعه هوش مصنوعی شرکت متا -به نام لاما- به کار رفته بود، قرار داشتند. یک تحقیق دیگر که در خبرگزاری واشنگتنپست منتشر شد نیز نشان داد که چتجیپیتی که متعلق به شرکت OpenAi است، متکی به دادههایی است که بدون اجازه از تولیدکنندگان آنها از هزاران سایت استخراج شدهاند.
اماً صرف شفافیت برای ایجاد دوبارهی توازن قدرت میان کسانی که دادههایشان مورد سو استفاده قرار میگیرد و شرکتهایی که آماده پول در آوردن از طریق سواستفاده از این دادهها هستند، کاملاً کافی نیست.
تیم فریدلندر -بنیانگذار و رئیس انجمن ملی دوبلورها- به شکلی شدیداللحن از شرکتهای تولیدکننده هوش مصنوعی خواسته است که به استانداردهای اخلاقی پایبند باشند. او اذعان داشته است که دوبلورها به سه قانون نیازمندند: این که برای استفاده از کارهایشان از آنها رضایت گرفته شود، این که بر فرایند استفاده از کارهایشان نظارت و کنترل داشته باشند و این که هزینه استفاده از کارهایشان پرداخت شود.
در واقع همه ما به این سه قانون نیازمندیم- چه بازیگر حرفهای باشیم و چه فقط چند عکس در فضای مجازی پست کنیم. همه باید این حق را دارا باشند که حتماً رضایتشان برای این که زندگیهای آنلاین ما به ماشینهای بزرگ هوش مصنوعی خورانده شوند، گرفته شود.
و جلب رضایت افراد به معنای قرار دادن چند کلید اختیاریای که به سختی پیدا میشوند و باید برای رضایت دادن بر روی آنها کلیک کنیم نیست- که صنعت هوش مصنوعی در حال حرکت به سمت ایجاد چنین شیوهای برای جلب رضایت افراد می باشد.
اما فرایند پرداخت هزینهی استفاده از آثار، توسط شرکتهای هوش مصنوعی سختتر است. به خصوص که بسیاری از رباتهای هوش مصنوعی اکنون غالباً به صورت رایگان فعالیت میکنند. اما اشتباه نکنید. صنعت هوش مصنوعی در حال برنامهریزی برای درآمدزایی از چنین سیستمهایی است و از آنها پول درخواهد آورد. و هنگامی که شرکتهای هوش مصنوعی از این رباتها پول در بیاورند، کسانی که کارهایشان باعث سودآوری این شرکتها شده بود، مد نظر قرار خواهند گرفت.
کسانی مانند آقای مارستن در چنین وضعیتی معیشتشان در خطر است. وی تخمین میزند که کپی ساخته شده از صدای او به وسیله هوش مصنوعی تا کنون چند فرصت شغلی را از او گرفته است و به شکل قابل ملاحظهای درآمد آینده او را کاهش خواهد داد. او در حال همکاری با یک وکیل برای غرامت گرفتن است. او به من گفت: «من هیچگاه رضایت ندادم که از صدایم کپیبرداری شود تا در فضای عمومی شنیده شود و با صدای خود من رقابت کند.»
اما حتی کسانی از ما که شغلشان مستقیماً به وسیله هوش مصنوعی تهدید نمیشود نیز به نوشتن یک رمان، نواختن یک موسیقی، ضبط یک کلیپ برای تیک تاک و انتشار محتوای طنز در شبکههای اجتماعی فکر کردهاند. من نگرانم که اگر از ما در برابر هوشهای مصنوعیای که دادهها را بیرویه مصرف میکنند محافظت نشود، حتی تلاش برای ساخت محتوا در فضای عمومی بیفایده به نظر برسد. و این وضعیت واقعاً تراژدیک خواهد بود.
ترجمه: محمدحسین قدمی
منبع:سایبرپژوه