چالش جدید رسانه ها با استنادهای ChatGPT
در این مقاله به چالش جدید رسانه ها با استنادهای ChatGPT میپردازیم.در دنیای امروز که ابزارهای هوش مصنوعی مولد مانند ChatGPT نقش پررنگی در ارائه اطلاعات و دسترسی شما به محتوای آنلاین ایفا میکنند، مسئله چگونگی برخورد این ابزارها با محتوای تولید شده توسط ناشران به یک چالش جدی تبدیل شده است.
مطالعهای که توسط مرکز Tow انجام شده، نشان میدهد که ChatGPT، با وجود قابلیتهای پیشرفته خود در تولید محتوا و ارائه ارجاعات، در دقت و شفافیت ارجاعدهی به منابع با مشکلاتی روبهرو است. این مطالعه به بررسی تأثیرات این مشکلات بر ناشران، از جمله خطرات اعتباری و تجاری، پرداخته و نشان داده که حتی همکاری یا مسدودسازی دسترسی به خزندههای OpenAI نیز تضمینی برای حفظ دقت یا اعتبار محتوای ناشران نیست.
مطالعهای که این هفته توسط مرکز روزنامهنگاری دیجیتال Tow منتشر شد، به بررسی نحوه ایجاد ارجاعات (یا منابع) توسط چتبات هوش مصنوعی ChatGPT برای محتوای ناشران میپردازد و به نتایجی جالب، یا شاید نگرانکننده، دست یافته است. خلاصه یافتهها نشان میدهد که ناشران همچنان در معرض خطر تمایل ابزار هوش مصنوعی مولد به اختراع یا سوءتعبیر اطلاعات هستند، فارغ از اینکه اجازه خزیدن محتوایشان را به OpenAI دادهاند یا خیر.
این تحقیق که در دانشکده روزنامهنگاری کلمبیا انجام شده است، ارجاعاتی را که توسط ChatGPT تولید شدهاند، بررسی کرده است. این بررسی از طریق درخواست از چتبات برای شناسایی منبع نقلقولهای نمونهای که از ترکیبی از ناشران (برخی دارای قرارداد با OpenAI و برخی بدون قرارداد) گرفته شده بودند، صورت گرفته است.
مرکز Tow نقلقولهایی از 10 مقاله مختلف را که توسط مجموعاً 20 ناشر بهطور تصادفی انتخاب شده بودند (در مجموع 200 نقلقول) برداشت. این محتوا شامل مطالبی از نیویورک تایمز (که در حال حاضر به دلیل مسائل کپیرایت از OpenAI شکایت کرده است)، واشنگتن پست (که هیچ ارتباطی با سازنده ChatGPT ندارد)، فایننشال تایمز (که قرارداد لایسنس با OpenAI امضا کرده است) و سایر منابع بود.
کلاودیا یازویسکا و ایشواریا چاندراسکار، محققان Tow، در یک پست وبلاگی که رویکرد خود و نتایج تحقیق را توضیح میدادند، نوشتند: «ما نقلقولهایی را انتخاب کردیم که اگر در گوگل یا بینگ جستجو میشدند، مقاله منبع در میان سه نتیجه برتر نمایش داده میشد و بررسی کردیم که آیا ابزار جستجوی جدید OpenAI به درستی مقالهای را که منبع هر نقلقول بود، شناسایی میکند یا خیر.»
آنها ادامه دادند: «آنچه یافتیم برای ناشران خبری امیدوارکننده نبود. اگرچه OpenAI بر توانایی خود در ارائه “پاسخهای بهموقع همراه با لینک به منابع وب مرتبط” تأکید دارد، این شرکت هیچ تعهد مشخصی برای تضمین دقت این ارجاعات ارائه نمیکند. این یک کمبود قابل توجه برای ناشرانی است که انتظار دارند محتوای آنها به درستی ارجاع داده شده و بازنمایی شود.» آنها افزودند: «آزمایشهای ما نشان داد که هیچ ناشری صرفنظر از میزان ارتباطش با OpenAI از ارائه نادرست محتوای خود در ChatGPT مصون نبود.»
پاوربانکها مانند ChatGPT به عنوان ابزارهایی برای افزایش کارایی در زمان نیاز عمل میکنند. همانطور که پاوربانک انرژی دستگاهها را تأمین میکند، ChatGPT نیز با ارائه اطلاعات و پاسخهای فوری به نیاز کاربران، نقش مکملی برای حل مشکلات و ارتقای تجربه کاربری ایفا میکند.
منابع غیرقابلاعتماد
محققان اظهار کردند که «موارد متعددی» از ارجاعات نادرست محتوای ناشران توسط ChatGPT یافتند و همچنین به چیزی که آن را «طیفی از دقت در پاسخها» مینامند، اشاره کردند. به این معنا که در حالی که «برخی» از ارجاعات بهطور کامل درست بودند (به این معنا که ChatGPT ناشر، تاریخ و URL نقلقول موردنظر را بهدرستی بازگرداند)، «بسیاری» از ارجاعات بهکلی اشتباه بودند و «برخی» دیگر حالتی میدرنج داشتند.
به عبارت دیگر، ارجاعات ارائهشده توسط ChatGPT بهصورت یک مجموعه نامنظم و غیرقابلاعتماد ظاهر میشوند. محققان همچنین متوجه شدند که در موارد بسیار کمی، چتبات در ارائه پاسخهای (اشتباه) خود اعتماد به نفس کامل نشان نمیداد.
برخی از نقلقولها از ناشرانی برداشت شده بودند که بهطور فعال دسترسی رباتهای جستجوی OpenAI به محتوای خود را مسدود کردهاند. محققان انتظار داشتند در چنین مواردی ChatGPT در ارائه ارجاعات صحیح با مشکل مواجه شود. اما دریافتند که این سناریو مشکل دیگری را نیز به وجود آورده است؛ زیرا چتبات «به ندرت» اعتراف میکرد که نمیتواند پاسخی ارائه دهد. در عوض، به اختراع پاسخهایی متوسل میشد تا ارجاعی (هرچند اشتباه) تولید کند.
محققان گفتند: «در مجموع، ChatGPT در 153 مورد پاسخهای کاملاً یا تا حدی نادرست ارائه داد، در حالی که تنها در هفت مورد به ناتوانی خود در ارائه پاسخ دقیق اذعان کرد. تنها در این هفت مورد، چتبات از کلمات و عبارات توجیهکنندهای مانند “به نظر میرسد”، “ممکن است”، یا “شاید” استفاده کرد، یا جملاتی مانند “نتوانستم مقاله دقیق را پیدا کنم” را بیان کرد.» آنها این وضعیت نامطلوب را با جستجوی استاندارد اینترنتی مقایسه میکنند؛ جایی که موتور جستجویی مانند گوگل یا بینگ معمولاً یا نقلقول دقیق را پیدا کرده و شما را به وبسایتی که در آن یافت شده هدایت میکند، یا اعلام میکند که هیچ نتیجهای با مطابقت دقیق پیدا نکرده است.
آنها استدلال میکنند که «نبود شفافیت ChatGPT در مورد میزان اطمینانش به پاسخها، میتواند ارزیابی اعتبار یک ادعا را برای شما دشوار کند و فهم این که کدام بخش از یک پاسخ قابل اعتماد است یا نیست را سختتر سازد.»
برای ناشران، این امر میتواند به خطرات اعتباری ناشی از ارجاعات نادرست منجر شود. همچنین، بهگفته آنها، این وضعیت ممکن است خطرات تجاری نیز ایجاد کند؛ از جمله این که خوانندگان به منابع دیگری هدایت شوند.
دادههای بدون زمینه
مطالعه به یک مشکل دیگر نیز اشاره میکند و نشان میدهد که ChatGPT ممکن است بهطور ضمنی به ترویج سرقت ادبی کمک کند. محققان به نمونهای اشاره میکنند که در آن ChatGPT به اشتباه یک وبسایتی را که متنی از نیویورک تایمز را بهصورت کامل و بدون ذکر منبع کپی کرده بود، بهعنوان منبع گزارش نیویورک تایمز معرفی کرده است. آنها حدس میزنند که در این مورد، چتبات برای پر کردن شکاف اطلاعاتی ناشی از ناتوانی در دسترسی به وبسایت نیویورک تایمز، این پاسخ نادرست را تولید کرده است.
آنها میگویند: «این موضوع پرسشهای جدی درباره توانایی OpenAI در فیلتر کردن و اعتبارسنجی کیفیت و اصالت منابع دادههای خود، بهویژه هنگام کار با محتوای بدون مجوز یا سرقتشده، مطرح میکند.» یافتههای بیشتر این مطالعه که احتمالاً برای ناشرانی که با OpenAI قرارداد بستهاند نگرانکننده خواهد بود، نشان میدهد که ارجاعات ChatGPT در مواردی که این ناشران اجازه دسترسی به محتوای خود را دادهاند نیز همیشه قابلاعتماد نیستند. به عبارت دیگر، اجازه دسترسی به خزندههای OpenAI تضمینی برای دقت ارجاعات آن نیست.
محتوای بدون زمینه
محققان استدلال میکنند که مشکل اصلی این است که فناوری OpenAI با روزنامهنگاری بهعنوان «محتوای بدون زمینه» برخورد میکند و ظاهراً توجه کمی به شرایط تولید اصلی این محتوا دارد. مطالعه همچنین به مسئله دیگری اشاره میکند: تغییرپذیری پاسخهای ChatGPT. محققان با طرح یک پرسش مشخص چندین بار از چتبات، دریافتند که «پاسخهای متفاوتی در هر بار» ارائه میدهد. اگرچه این رفتار در ابزارهای هوش مصنوعی مولد (GenAI) رایج است، اما در زمینه ارجاعدهی، چنین ناپایداری بهوضوح برای دستیابی به دقت مناسب نیست.
اگرچه مطالعه مرکز Tow در مقیاسی کوچک انجام شده است و محققان اذعان دارند که «آزمایشهای دقیقتر» موردنیاز است، اما یافتههای آن قابل توجه است، بهویژه با توجه به قراردادهای سطح بالایی که ناشران بزرگ با OpenAI منعقد کردهاند. اگر کسبوکارهای رسانهای امیدوار بودند که این قراردادها منجر به برخورد ویژه با محتوای آنها در مقایسه با رقبا شود، حداقل از نظر ارائه ارجاعات دقیق، این مطالعه نشان میدهد که OpenAI هنوز چنین پایداری و دقتی را ارائه نکرده است.
عدم تضمین دیدهشدن یا محافظت در برابر آسیب
برای ناشرانی که قراردادهای مجوزدهی با OpenAI ندارند اما بهطور کامل دسترسی خزندههای آن را مسدود نکردهاند — شاید به امید جذب مقداری ترافیک از بازگشت محتوای مرتبط با داستانهایشان توسط ChatGPT — این مطالعه چشماندازی ناامیدکننده ارائه میدهد، چرا که ارجاعات در این موارد نیز ممکن است نادرست باشد. به عبارت دیگر، حتی با اجازه دادن به خزندههای OpenAI، هیچ تضمینی برای «دیدهشدن» محتوای ناشران در موتور جستجوی این شرکت وجود ندارد.
علاوه بر این، مسدود کردن کامل خزندهها نیز به معنای محافظت ناشران از آسیبهای احتمالی به اعتبارشان نیست، زیرا هیچ تضمینی وجود ندارد که نام داستانهای آنها در ChatGPT ذکر نشود. بهعنوان مثال، این مطالعه نشان داد که چتبات همچنان به اشتباه مقالاتی را به نیویورک تایمز نسبت داده است، حتی با وجود دعوی قضایی جاری.
اختیار محدود و غیرمعنادار
محققان نتیجه میگیرند که در شرایط فعلی، ناشران «اختیار محدود و غیرمعناداری» بر آنچه با محتوای آنها هنگام استفاده توسط ChatGPT اتفاق میافتد (مستقیم یا غیرمستقیم) دارند. در پاسخ به این تحقیق، OpenAI ادعا کرد که محققان «آزمایشی غیرمعمول از محصول ما» انجام دادهاند.
OpenAI همچنین اظهار داشت: «ما با کمک به 250 میلیون شما هفتگی ChatGPT برای کشف محتوای باکیفیت از طریق خلاصهها، نقلقولها، لینکهای شفاف و ارجاعات، از ناشران و تولیدکنندگان محتوا حمایت میکنیم.» این شرکت افزود: «ما با شرکای خود برای بهبود دقت ارجاعات درونخطی و احترام به ترجیحات ناشران همکاری کردهایم، از جمله مدیریت نحوه نمایش محتوای آنها در جستجو از طریق OAISearchBot در فایل robots.txt. ما به ارتقای نتایج جستجو ادامه خواهیم داد.»
کلام آخر
نتایج این مطالعه تأکید میکند که ناشران در تعامل با ابزارهایی مانند ChatGPT، کنترل معناداری بر نحوه استفاده از محتوای خود ندارند. مشکلاتی همچون ارائه ارجاعات نادرست، استفاده از محتوای سرقتشده و تغییرپذیری پاسخها نشان میدهد که OpenAI هنوز نتوانسته است استانداردهای کافی برای تضمین دقت و شفافیت ارجاعات خود ارائه کند. این موضوع نه تنها به اعتماد شما آسیب میزند، بلکه خطرات اعتباری و تجاری قابل توجهی برای ناشران به همراه دارد.
با وجود تلاشهای OpenAI برای بهبود این مسائل، یافتههای مطالعه حاکی از آن است که این شرکت هنوز باید گامهای جدیتری در راستای حفظ دقت ارجاعات و احترام به محتوای ناشران بردارد. این چالشها فرصتی برای بازنگری در تعامل میان فناوریهای هوش مصنوعی و صنعت رسانه فراهم میکند.
پاسخگوی سوالات شما هستیم
دیدگاهی وجود ندارد!