آموزش هوش مصنوعی اپل با انصراف ناشران بزرگ با واکنشهای منفی روبرو میشود
برای دههها، این رباتهای دیجیتال بیصدا اطلاعاتی را از اینترنت جمعآوری میکنند و به آنها میرسانند. همه چیز از موتورهای جستجو گرفته تا مدل های هوش مصنوعی. اما با قویتر شدن هوش مصنوعی، ریسکها افزایش یافته است. اکنون، ناشران در حال ترسیم خطی در شن و ماسه هستند و خواستار کنترل محتوای خود هستند و جاهطلبیهای هوش مصنوعی اپل را به چالش میکشند.
خزنده وب اپل، Applebot، در ابتدا برای قدرت بخشیدن به ویژگی هایی مانند Siri و Spotlight طراحی شد. با این حال، اخیراً نقش بزرگ دیگری را ایفا کرده است: جمع آوری داده ها برای آموزش مدل های پایه هوش مصنوعی اپل، یا آنچه این شرکت آن را “هوش اپل” می نامد. این دادهها شامل متن، تصاویر و سایر محتواها میشود.
Robots.txt چیست؟
Robots.txt فایلی است که توسط صاحبان وب سایت برای کنترل اینکه کدام ربات ها می توانند به محتوای آنها دسترسی داشته باشند استفاده می شود. ناشران به طور فزاینده ای از آن استفاده می کنند تا ربات های هوش مصنوعی را از خراش دادن وب سایت های خود برای داده های آموزشی جلوگیری کنند. این به دلیل نگرانی در مورد حق نسخه برداری و سوء استفاده احتمالی از محتوای آنها است.
در حالی که robots.txt یک ابزار نسبتا ساده است، اما در عصر هوش مصنوعی پیچیده تر شده است. با ظهور سریع عوامل جدید هوش مصنوعی، به روز نگه داشتن لیست بلاک های خود برای ناشران می تواند چالش برانگیز باشد. در نتیجه، بسیاری به سرویسهایی روی میآورند که بهطور خودکار فایلهای robots.txt خود را بهروزرسانی میکنند. فایلهای robots.txt به صورت عمومی در دسترس هستند، به این معنی که همه میتوانند ببینند کدام طرفها از آموزش هوش مصنوعی اپل انصراف میدهند، که دقیقاً چه Wired انجام داد.
معلوم شد که برخی از رسانه ها مانند نیویورک تایمز، برای مثال، در انتقاد از رویکرد انصراف اپل صریح بوده است. این روزنامه که از OpenAI به دلیل نقض حق چاپ شکایت می کند، استدلال می کند که ناشران برای شروع نباید مجبور به انصراف شوند. در عوض، برای دسترسی خزندههای وب به محتوای رسانه باید مجوز لازم باشد.
منبع: گروه ترجمه چه خبر