چالش جدید رسانه ها با استنادهای ChatGPT

چالش جدید رسانه ها با استنادهای ChatGPT

در این مقاله به چالش جدید رسانه ها با استنادهای ChatGPT میپردازیم.در دنیای امروز که ابزارهای هوش مصنوعی مولد مانند ChatGPT نقش پررنگی در ارائه اطلاعات و دسترسی شما به محتوای آنلاین ایفا میکنند، مسئله چگونگی برخورد این ابزارها با محتوای تولید شده توسط ناشران به یک چالش جدی تبدیل شده است.

مطالعه‌ای که توسط مرکز Tow انجام شده، نشان میدهد که ChatGPT، با وجود قابلیت‌های پیشرفته خود در تولید محتوا و ارائه ارجاعات، در دقت و شفافیت ارجاع‌دهی به منابع با مشکلاتی روبه‌رو است. این مطالعه به بررسی تأثیرات این مشکلات بر ناشران، از جمله خطرات اعتباری و تجاری، پرداخته و نشان داده که حتی همکاری یا مسدودسازی دسترسی به خزنده‌های OpenAI نیز تضمینی برای حفظ دقت یا اعتبار محتوای ناشران نیست.

مطالعه‌ای که این هفته توسط مرکز روزنامه‌نگاری دیجیتال Tow منتشر شد، به بررسی نحوه ایجاد ارجاعات (یا منابع) توسط چت‌بات هوش مصنوعی ChatGPT برای محتوای ناشران میپردازد و به نتایجی جالب، یا شاید نگران‌کننده، دست یافته است. خلاصه یافته‌ها نشان میدهد که ناشران همچنان در معرض خطر تمایل ابزار هوش مصنوعی مولد به اختراع یا سوءتعبیر اطلاعات هستند، فارغ از اینکه اجازه خزیدن محتوایشان را به OpenAI داده‌اند یا خیر.

این تحقیق که در دانشکده روزنامه‌نگاری کلمبیا انجام شده است، ارجاعاتی را که توسط ChatGPT تولید شده‌اند، بررسی کرده است. این بررسی از طریق درخواست از چت‌بات برای شناسایی منبع نقل‌قول‌های نمونه‌ای که از ترکیبی از ناشران (برخی دارای قرارداد با OpenAI و برخی بدون قرارداد) گرفته شده بودند، صورت گرفته است.

چالش جدید رسانه ها با استنادهای ChatGPT

مرکز Tow نقل‌قول‌هایی از 10 مقاله مختلف را که توسط مجموعاً 20 ناشر به‌طور تصادفی انتخاب شده بودند (در مجموع 200 نقل‌قول) برداشت. این محتوا شامل مطالبی از نیویورک تایمز (که در حال حاضر به دلیل مسائل کپی‌رایت از OpenAI شکایت کرده است)، واشنگتن پست (که هیچ ارتباطی با سازنده ChatGPT ندارد)، فایننشال تایمز (که قرارداد لایسنس با OpenAI امضا کرده است) و سایر منابع بود.

کلاودیا یازویسکا و ایشواریا چاندراسکار، محققان Tow، در یک پست وبلاگی که رویکرد خود و نتایج تحقیق را توضیح میدادند، نوشتند: «ما نقل‌قول‌هایی را انتخاب کردیم که اگر در گوگل یا بینگ جستجو میشدند، مقاله منبع در میان سه نتیجه برتر نمایش داده میشد و بررسی کردیم که آیا ابزار جستجوی جدید OpenAI به درستی مقاله‌ای را که منبع هر نقل‌قول بود، شناسایی میکند یا خیر.»

آن‌ها ادامه دادند: «آنچه یافتیم برای ناشران خبری امیدوارکننده نبود. اگرچه OpenAI بر توانایی خود در ارائه “پاسخ‌های به‌موقع همراه با لینک به منابع وب مرتبط” تأکید دارد، این شرکت هیچ تعهد مشخصی برای تضمین دقت این ارجاعات ارائه نمیکند. این یک کمبود قابل توجه برای ناشرانی است که انتظار دارند محتوای آن‌ها به درستی ارجاع داده شده و بازنمایی شود.» آن‌ها افزودند: «آزمایش‌های ما نشان داد که هیچ ناشری صرف‌نظر از میزان ارتباطش با OpenAI از ارائه نادرست محتوای خود در ChatGPT مصون نبود.»

پاوربانک‌ها مانند ChatGPT به عنوان ابزارهایی برای افزایش کارایی در زمان نیاز عمل میکنند. همان‌طور که پاوربانک انرژی دستگاه‌ها را تأمین میکند، ChatGPT نیز با ارائه اطلاعات و پاسخ‌های فوری به نیاز کاربران، نقش مکملی برای حل مشکلات و ارتقای تجربه کاربری ایفا میکند.

چالش جدید رسانه ها با استنادهای ChatGPT

منابع غیرقابل‌اعتماد

محققان اظهار کردند که «موارد متعددی» از ارجاعات نادرست محتوای ناشران توسط ChatGPT یافتند و همچنین به چیزی که آن را «طیفی از دقت در پاسخ‌ها» مینامند، اشاره کردند. به این معنا که در حالی که «برخی» از ارجاعات به‌طور کامل درست بودند (به این معنا که ChatGPT ناشر، تاریخ و URL نقل‌قول موردنظر را به‌درستی بازگرداند)، «بسیاری» از ارجاعات به‌کلی اشتباه بودند و «برخی» دیگر حالتی میدرنج داشتند.

به عبارت دیگر، ارجاعات ارائه‌شده توسط ChatGPT به‌صورت یک مجموعه نامنظم و غیرقابل‌اعتماد ظاهر میشوند. محققان همچنین متوجه شدند که در موارد بسیار کمی، چت‌بات در ارائه پاسخ‌های (اشتباه) خود اعتماد به نفس کامل نشان نمیداد.

برخی از نقل‌قول‌ها از ناشرانی برداشت شده بودند که به‌طور فعال دسترسی ربات‌های جستجوی OpenAI به محتوای خود را مسدود کرده‌اند. محققان انتظار داشتند در چنین مواردی ChatGPT در ارائه ارجاعات صحیح با مشکل مواجه شود. اما دریافتند که این سناریو مشکل دیگری را نیز به وجود آورده است؛ زیرا چت‌بات «به ندرت» اعتراف میکرد که نمیتواند پاسخی ارائه دهد. در عوض، به اختراع پاسخ‌هایی متوسل میشد تا ارجاعی (هرچند اشتباه) تولید کند.

محققان گفتند: «در مجموع، ChatGPT در 153 مورد پاسخ‌های کاملاً یا تا حدی نادرست ارائه داد، در حالی که تنها در هفت مورد به ناتوانی خود در ارائه پاسخ دقیق اذعان کرد. تنها در این هفت مورد، چت‌بات از کلمات و عبارات توجیه‌کننده‌ای مانند “به نظر میرسد”، “ممکن است”، یا “شاید” استفاده کرد، یا جملاتی مانند “نتوانستم مقاله دقیق را پیدا کنم” را بیان کرد.» آن‌ها این وضعیت نامطلوب را با جستجوی استاندارد اینترنتی مقایسه میکنند؛ جایی که موتور جستجویی مانند گوگل یا بینگ معمولاً یا نقل‌قول دقیق را پیدا کرده و شما را به وب‌سایتی که در آن یافت شده هدایت می‌کند، یا اعلام میکند که هیچ نتیجه‌ای با مطابقت دقیق پیدا نکرده است.

آن‌ها استدلال میکنند که «نبود شفافیت ChatGPT در مورد میزان اطمینانش به پاسخ‌ها، میتواند ارزیابی اعتبار یک ادعا را برای شما دشوار کند و فهم این که کدام بخش از یک پاسخ قابل اعتماد است یا نیست را سخت‌تر سازد.»

برای ناشران، این امر میتواند به خطرات اعتباری ناشی از ارجاعات نادرست منجر شود. همچنین، به‌گفته آن‌ها، این وضعیت ممکن است خطرات تجاری نیز ایجاد کند؛ از جمله این که خوانندگان به منابع دیگری هدایت شوند.

داده‌های بدون زمینه

مطالعه به یک مشکل دیگر نیز اشاره میکند و نشان میدهد که ChatGPT ممکن است به‌طور ضمنی به ترویج سرقت ادبی کمک کند. محققان به نمونه‌ای اشاره میکنند که در آن ChatGPT به اشتباه یک وب‌سایتی را که متنی از نیویورک تایمز را به‌صورت کامل و بدون ذکر منبع کپی کرده بود، به‌عنوان منبع گزارش نیویورک تایمز معرفی کرده است. آن‌ها حدس میزنند که در این مورد، چت‌بات برای پر کردن شکاف اطلاعاتی ناشی از ناتوانی در دسترسی به وب‌سایت نیویورک تایمز، این پاسخ نادرست را تولید کرده است.

آن‌ها می‌گویند: «این موضوع پرسش‌های جدی درباره توانایی OpenAI در فیلتر کردن و اعتبارسنجی کیفیت و اصالت منابع داده‌های خود، به‌ویژه هنگام کار با محتوای بدون مجوز یا سرقت‌شده، مطرح میکند.» یافته‌های بیشتر این مطالعه که احتمالاً برای ناشرانی که با OpenAI قرارداد بسته‌اند نگران‌کننده خواهد بود، نشان میدهد که ارجاعات ChatGPT در مواردی که این ناشران اجازه دسترسی به محتوای خود را داده‌اند نیز همیشه قابل‌اعتماد نیستند. به عبارت دیگر، اجازه دسترسی به خزنده‌های OpenAI تضمینی برای دقت ارجاعات آن نیست.

چالش جدید رسانه ها با استنادهای ChatGPT

محتوای بدون زمینه

محققان استدلال میکنند که مشکل اصلی این است که فناوری OpenAI با روزنامه‌نگاری به‌عنوان «محتوای بدون زمینه» برخورد میکند و ظاهراً توجه کمی به شرایط تولید اصلی این محتوا دارد. مطالعه همچنین به مسئله دیگری اشاره میکند: تغییرپذیری پاسخ‌های ChatGPT. محققان با طرح یک پرسش مشخص چندین بار از چت‌بات، دریافتند که «پاسخ‌های متفاوتی در هر بار» ارائه میدهد. اگرچه این رفتار در ابزارهای هوش مصنوعی مولد (GenAI) رایج است، اما در زمینه ارجاع‌دهی، چنین ناپایداری به‌وضوح برای دستیابی به دقت مناسب نیست.

اگرچه مطالعه مرکز Tow در مقیاسی کوچک انجام شده است و محققان اذعان دارند که «آزمایش‌های دقیق‌تر» موردنیاز است، اما یافته‌های آن قابل توجه است، به‌ویژه با توجه به قراردادهای سطح بالایی که ناشران بزرگ با OpenAI منعقد کرده‌اند. اگر کسب‌وکارهای رسانه‌ای امیدوار بودند که این قراردادها منجر به برخورد ویژه با محتوای آن‌ها در مقایسه با رقبا شود، حداقل از نظر ارائه ارجاعات دقیق، این مطالعه نشان میدهد که OpenAI هنوز چنین پایداری و دقتی را ارائه نکرده است.

عدم تضمین دیده‌شدن یا محافظت در برابر آسیب

برای ناشرانی که قراردادهای مجوزدهی با OpenAI ندارند اما به‌طور کامل دسترسی خزنده‌های آن را مسدود نکرده‌اند — شاید به امید جذب مقداری ترافیک از بازگشت محتوای مرتبط با داستان‌هایشان توسط ChatGPT — این مطالعه چشم‌اندازی ناامیدکننده ارائه می‌دهد، چرا که ارجاعات در این موارد نیز ممکن است نادرست باشد. به عبارت دیگر، حتی با اجازه دادن به خزنده‌های OpenAI، هیچ تضمینی برای «دیده‌شدن» محتوای ناشران در موتور جستجوی این شرکت وجود ندارد.

علاوه بر این، مسدود کردن کامل خزنده‌ها نیز به معنای محافظت ناشران از آسیب‌های احتمالی به اعتبارشان نیست، زیرا هیچ تضمینی وجود ندارد که نام داستان‌های آن‌ها در ChatGPT ذکر نشود. به‌عنوان مثال، این مطالعه نشان داد که چت‌بات همچنان به اشتباه مقالاتی را به نیویورک تایمز نسبت داده است، حتی با وجود دعوی قضایی جاری.

اختیار محدود و غیرمعنادار

محققان نتیجه میگیرند که در شرایط فعلی، ناشران «اختیار محدود و غیرمعناداری» بر آنچه با محتوای آن‌ها هنگام استفاده توسط ChatGPT اتفاق می‌افتد (مستقیم یا غیرمستقیم) دارند. در پاسخ به این تحقیق، OpenAI ادعا کرد که محققان «آزمایشی غیرمعمول از محصول ما» انجام داده‌اند.

OpenAI همچنین اظهار داشت: «ما با کمک به 250 میلیون شما هفتگی ChatGPT برای کشف محتوای باکیفیت از طریق خلاصه‌ها، نقل‌قول‌ها، لینک‌های شفاف و ارجاعات، از ناشران و تولیدکنندگان محتوا حمایت میکنیم.» این شرکت افزود: «ما با شرکای خود برای بهبود دقت ارجاعات درون‌خطی و احترام به ترجیحات ناشران همکاری کرده‌ایم، از جمله مدیریت نحوه نمایش محتوای آن‌ها در جستجو از طریق OAISearchBot در فایل robots.txt. ما به ارتقای نتایج جستجو ادامه خواهیم داد.»

چالش جدید رسانه ها با استنادهای ChatGPT

کلام آخر

نتایج این مطالعه تأکید میکند که ناشران در تعامل با ابزارهایی مانند ChatGPT، کنترل معناداری بر نحوه استفاده از محتوای خود ندارند. مشکلاتی همچون ارائه ارجاعات نادرست، استفاده از محتوای سرقت‌شده و تغییرپذیری پاسخ‌ها نشان میدهد که OpenAI هنوز نتوانسته است استانداردهای کافی برای تضمین دقت و شفافیت ارجاعات خود ارائه کند. این موضوع نه تنها به اعتماد شما آسیب میزند، بلکه خطرات اعتباری و تجاری قابل توجهی برای ناشران به همراه دارد.

با وجود تلاش‌های OpenAI برای بهبود این مسائل، یافته‌های مطالعه حاکی از آن است که این شرکت هنوز باید گام‌های جدی‌تری در راستای حفظ دقت ارجاعات و احترام به محتوای ناشران بردارد. این چالش‌ها فرصتی برای بازنگری در تعامل میان فناوری‌های هوش مصنوعی و صنعت رسانه فراهم میکند.