خلاصه هوش مصنوعی متا و گوگل در میان عدم اطمینان قانونی در استرالیا به افترا را تهدید می کند


google-meta

از آنجایی که هوش مصنوعی (AI) به طور فزاینده ای در خدمات دیجیتال جاسازی می شود، پیشرفت های اخیر گوگل و متا نگرانی قابل توجهی را در بین کارشناسان حقوقی ایجاد کرده است. این شرکت‌ها اکنون از هوش مصنوعی برای تولید خلاصه‌ای از نظرات و نظرات کاربران استفاده می‌کنند تا با ارائه اطلاعات جمع‌آوری شده درباره رستوران‌ها، مکان‌ها و حتی نظرات پست‌های رسانه‌های اجتماعی، تجربه کاربر را بهبود بخشند. با این حال، کارشناسان هشدار می‌دهند که چنین نوآوری‌هایی می‌تواند این غول‌های فناوری را در معرض دعوای افترا قرار دهد و چشم‌انداز قانونی پیرامون انتشار آنلاین و محتوای تولید شده توسط هوش مصنوعی را تغییر دهد.

این بحث حقوقی به دنبال تصمیم مهم دادگاه عالی استرالیا در سال 2021 در پرونده دیلن وولر است، جایی که رسانه‌ها مسئول اظهارنظرهای توهین آمیز اشخاص ثالث در صفحات فیس بوک خود هستند. این تصمیم، همراه با پرونده‌های افترای اخیر مربوط به Google، خطرات احتمالی را برای شرکت‌های فناوری نشان می‌دهد که فیدهای تولید شده توسط هوش مصنوعی اطلاعات مضر یا افتراآمیز را منتشر می‌کنند. از آنجایی که متا و گوگل ابزارهای خلاصه سازی مبتنی بر هوش مصنوعی را ارائه می کنند، مرزهای مسئولیت ایجاد و انتشار محتوا به روش های بی سابقه ای آزمایش می شود.

در اکتبر 2024، گوگل قابلیت های هوش مصنوعی جدید خود را بر اساس مدل چند زبانه Gemini خود برای کاربران ایالات متحده و استرالیا گسترش داد. ابزار هوش مصنوعی که اکنون در Google Maps و Google Search در دسترس است، می‌تواند بازخورد کاربران را تجزیه و تحلیل کند و خلاصه‌ای مختصر از مکان‌های بازدید ایجاد کند و توصیه‌هایی را بر اساس احساسات کلی در بررسی‌ها ارائه دهد. در همین حال، متا خلاصه‌های مشابه تولید شده توسط هوش مصنوعی را به فیس‌بوک معرفی کرد و مروری کوتاه بر نظرات کاربران در زیر پست‌ها ارائه کرد. این ویژگی‌ها برای بهینه‌سازی تجربه کاربر با ارائه پاسخ‌های کامل و مختصر که از هزاران نظر و بررسی فردی جمع‌آوری شده‌اند، طراحی شده‌اند.

با وجود مزایا، خطر انتشار ناخواسته ادعاهای افتراآمیز با هوش مصنوعی بی‌توجه نمانده است. متخصصان حقوقی در استرالیا هشدار می دهند که اگرچه این ویژگی های تجمیع ممکن است راحتی کاربر را بهبود بخشد، اما احتمال تبدیل شدن شرکت های فناوری به ناشران مطالب افتراآمیز را نیز افزایش می دهد که عواقب قانونی و مالی قابل توجهی دارد.

طبق قانون افترا در استرالیا، افرادی که در پلتفرم‌هایی مانند فیس‌بوک یا گوگل کامنت‌های افتراآمیز می‌گذارند به طور سنتی بیشترین مسئولیت را متحمل می‌شوند. با این حال، تصمیم دادگاه عالی در سال 2021 در مورد دیلن والر، یک جوان بومی که در بازداشتگاه جوانان دان دیل مورد آزار و اذیت قرار گرفت، یک سابقه بحرانی ایجاد کرد. دادگاه حکم داد که شرکت‌های رسانه‌ای می‌توانند در قبال نظرات افتراآمیز شخص ثالث منتشر شده در صفحات رسانه‌های اجتماعی خود، با این استدلال که با فراهم کردن بستری برای این نظرات، به عنوان ناشر عمل می‌کنند، مسئول شناخته شوند.

از آن زمان این حکم به یک اصل راهنما برای نحوه تفسیر مسئولیت پلتفرم توسط دادگاه های استرالیا تبدیل شده است و ثابت می کند که ارسال یا انتشار محتوای افتراآمیز می تواند به منزله انتشار باشد. برای Google و Meta که اکنون از هوش مصنوعی برای جمع‌آوری و جمع‌آوری محتوای تولید شده توسط کاربر استفاده می‌کنند، پیامدهای آن واضح است: اگر خلاصه‌های تولید شده توسط هوش مصنوعی حاوی اظهارات افتراآمیز یا تقویت آن باشند، می‌توان آن‌ها را ناشر آن محتوا در نظر گرفت و به طور بالقوه آنها را در معرض افترا قرار داد. دعاوی حقوقی

در سال‌های اخیر، هم گوگل و هم متا در استرالیا با پرونده‌های افترا مواجه شده‌اند که عواقب مالی قابل توجهی در پی داشته است. در سال 2022، گوگل به جان باریلارو، معاون سابق نخست وزیر نیو ساوت ولز، بیش از 700000 دلار به دلیل یک ویدیوی توهین آمیز یوتیوب محکوم شد، در حالی که در سال 2020، پس از اینکه موتور جستجوی آن سیستم به مقاله ای توهین آمیز در مورد یک وکیل ملبورن اشاره کرد، شرکت را به پرداخت 40،000 دلار جریمه کرد.

این موارد نشان می‌دهد که دادگاه‌های استرالیا به طور فزاینده‌ای مایلند شرکت‌های فناوری را در قبال محتوای افتراآمیز که در پلتفرم‌هایشان به اشتراک گذاشته شده است، مسئول بدانند، حتی اگر آن محتوا توسط کاربر تولید شده یا توسط الگوریتم‌ها جمع‌آوری شده باشد. از آنجایی که ابزارهای مبتنی بر هوش مصنوعی مانند Gemini وارد صحنه می‌شوند، با توانایی خود در ترکیب مقادیر زیادی از محتوای کاربر، این شرکت‌ها ممکن است به زودی با چالش‌های حقوقی پیچیده‌تری در رابطه با نقش خود به عنوان متصدی محتوا و ناشر مواجه شوند.

مایکل داگلاس، کارشناس افترا و مشاور در Bennett Law، هشدار می دهد که ابزارهای تجمیع محتوای مبتنی بر هوش مصنوعی، مانند ابزارهایی که توسط گوگل و متا راه اندازی شده اند، ناگزیر می توانند منجر به شکایت های افترا شوند. او خاطرنشان می‌کند که اگر این ابزارهای هوش مصنوعی خلاصه‌های افتراآمیز تولید کنند، پلتفرم‌ها می‌توانند به‌عنوان ناشران آن محتوا در نظر گرفته شوند که احتمالاً با ادعاهای افترا روبرو هستند.

داگلاس گفت: “اگر متا نظرات را حذف کند و آنها را منتشر کند، و اگر آنچه منتشر می کند توهین آمیز باشد، ناشر است و می تواند مسئول افترا باشد.” او همچنین پیشنهاد می‌کند که اگرچه شرکت‌های فناوری ممکن است به دنبال استناد به برخی دفاع‌ها مانند «انتشار بی‌گناه» بر اساس قانون افترا در استرالیا باشند، با توجه به آگاهی شرکت‌ها از خطرات مرتبط با تجمع الگوریتمی، این دفاع‌ها ممکن است در موارد مربوط به هوش مصنوعی قابل اجرا نباشد.

مسئولیت به طور بالقوه می تواند به مفاد “واسطه های دیجیتالی” قوانین ایالتی در مورد افترا بستگی داشته باشد. این مفاد اخیراً برای روشن شدن مسئولیت‌های پلتفرم‌ها تصویب شده‌اند، اما همانطور که داگلاس اشاره می‌کند، مشخص نیست که آیا آنها نقشی از هوش مصنوعی در توزیع محتوا را پوشش خواهند داد یا خیر.

توسعه سریع فناوری هوش مصنوعی چالش های جدیدی را به همراه داشته است که قانون فعلی افترا ممکن است به اندازه کافی به آنها رسیدگی نکند. پروفسور دیوید رولف، مدرس ارشد حقوق در دانشگاه سیدنی، خاطرنشان می کند که اصلاحات اخیر استرالیا در مورد افترا، آستانه ای برای کاهش ادعاهای کوچک ایجاد کرده است. در حالی که هدف آستانه جدید ساده کردن پرونده ها و فیلتر کردن ادعاهای بیهوده است، اصلاحات با در نظر گرفتن هوش مصنوعی طراحی نشده اند، به ویژه هوش مصنوعی که قادر به ایجاد پاسخ های منحصر به فرد برای هر کاربر باشد.

رولف توضیح داد: «فرایند اصلاح قانون افترا به وضوح با تغییر و چالش‌های جدید ایجاد شده توسط هوش مصنوعی مواجه نشده است. او بر عقب ماندگی ذاتی اصلاحات قانونی و پیشرفت فناوری تاکید کرد و بر لزوم استفاده مکرر از قوانین مربوط به افترا تاکید کرد.

با این حال، رولف اذعان می‌کند که توانایی هوش مصنوعی برای ایجاد پاسخ‌های منحصربه‌فرد بسیاری ممکن است آسیب‌های احتمالی را کاهش دهد، زیرا افراد کمتری ممکن است اظهارات خاص توهین‌آمیز را ببینند. با این حال، اگر خلاصه‌ای مضر تولید شده توسط هوش مصنوعی حتی به مخاطبان کوچکی برسد، پیامدهای مربوط به مسئولیت همچنان شدید است و نیاز به راهنمایی واضح‌تر با پیشرفت فناوری را نشان می‌دهد.

هم متا و هم گوگل در مورد خطرات احتمالی افترا در ابزارهای مبتنی بر هوش مصنوعی خود محتاط بوده اند. وقتی از میریام دانیل، معاون و رئیس Google Maps در مورد پتانسیل خلاصه‌های افتراآمیز تولید شده توسط هوش مصنوعی پرسیده شد، توضیح داد که مدل هوش مصنوعی Gemini برای برجسته کردن نماهای متعادل با تجزیه و تحلیل مضامین مشترک در چندین بررسی طراحی شده است. Google همچنین بر تعهد خود به حذف نظرات جعلی یا هر محتوایی که خط‌مشی‌های Google را نقض می‌کند، تاکید کرد تا اطمینان حاصل شود که نظرات Gemini دیدی خنثی از مکان‌ها یا فعالیت‌ها ارائه می‌دهد.

دانیل گفت: «ما به اندازه کافی به دنبال مضامین مشترک از منتقدان کافی، چه مثبت و چه منفی هستیم، و سعی می کنیم هنگام ارسال خلاصه، نظر متعادلی ارائه دهیم. به نظر می‌رسد تلاش‌های تعدیل‌کننده Google با هدف کاهش احتمال محتوای افتراآمیز صورت می‌گیرد، اگرچه مشخص نیست که این حفاظت‌ها چقدر مؤثر خواهند بود.

متا همچنین خطر خلاصه سازی هوش مصنوعی را تأیید کرد که می تواند پاسخ های ناخواسته را ایجاد کند. یکی از سخنگویان متا گفت که در حالی که هوش مصنوعی مورد استفاده برای تولید خلاصه نظرات هنوز در مراحل اولیه است، شرکت دائماً در حال بهبود است تا نادرستی‌های احتمالی را به حداقل برساند. این سخنگوی اضافه کرد که متا به کاربران اطلاع می‌دهد که نتایج حاصل از هوش مصنوعی ممکن است همیشه دقیق نباشد، و به مدیریت انتظارات کاربر و رسیدگی فعالانه به خطاهای احتمالی کمک می‌کند.

سخنگوی متا با تأکید بر رویکرد محتاطانه متا به این فناوری خاطرنشان کرد: «ما اطلاعات خود ویژگی‌ها را به اشتراک می‌گذاریم تا به مردم کمک کنیم بفهمند که هوش مصنوعی می‌تواند نتایج نادرست یا متناقضی ایجاد کند.

دیدگاهتان را بنویسید