از آنجایی که هوش مصنوعی (AI) به طور فزاینده ای در خدمات دیجیتال جاسازی می شود، پیشرفت های اخیر گوگل و متا نگرانی قابل توجهی را در بین کارشناسان حقوقی ایجاد کرده است. این شرکتها اکنون از هوش مصنوعی برای تولید خلاصهای از نظرات و نظرات کاربران استفاده میکنند تا با ارائه اطلاعات جمعآوری شده درباره رستورانها، مکانها و حتی نظرات پستهای رسانههای اجتماعی، تجربه کاربر را بهبود بخشند. با این حال، کارشناسان هشدار میدهند که چنین نوآوریهایی میتواند این غولهای فناوری را در معرض دعوای افترا قرار دهد و چشمانداز قانونی پیرامون انتشار آنلاین و محتوای تولید شده توسط هوش مصنوعی را تغییر دهد.
این بحث حقوقی به دنبال تصمیم مهم دادگاه عالی استرالیا در سال 2021 در پرونده دیلن وولر است، جایی که رسانهها مسئول اظهارنظرهای توهین آمیز اشخاص ثالث در صفحات فیس بوک خود هستند. این تصمیم، همراه با پروندههای افترای اخیر مربوط به Google، خطرات احتمالی را برای شرکتهای فناوری نشان میدهد که فیدهای تولید شده توسط هوش مصنوعی اطلاعات مضر یا افتراآمیز را منتشر میکنند. از آنجایی که متا و گوگل ابزارهای خلاصه سازی مبتنی بر هوش مصنوعی را ارائه می کنند، مرزهای مسئولیت ایجاد و انتشار محتوا به روش های بی سابقه ای آزمایش می شود.
در اکتبر 2024، گوگل قابلیت های هوش مصنوعی جدید خود را بر اساس مدل چند زبانه Gemini خود برای کاربران ایالات متحده و استرالیا گسترش داد. ابزار هوش مصنوعی که اکنون در Google Maps و Google Search در دسترس است، میتواند بازخورد کاربران را تجزیه و تحلیل کند و خلاصهای مختصر از مکانهای بازدید ایجاد کند و توصیههایی را بر اساس احساسات کلی در بررسیها ارائه دهد. در همین حال، متا خلاصههای مشابه تولید شده توسط هوش مصنوعی را به فیسبوک معرفی کرد و مروری کوتاه بر نظرات کاربران در زیر پستها ارائه کرد. این ویژگیها برای بهینهسازی تجربه کاربر با ارائه پاسخهای کامل و مختصر که از هزاران نظر و بررسی فردی جمعآوری شدهاند، طراحی شدهاند.
با وجود مزایا، خطر انتشار ناخواسته ادعاهای افتراآمیز با هوش مصنوعی بیتوجه نمانده است. متخصصان حقوقی در استرالیا هشدار می دهند که اگرچه این ویژگی های تجمیع ممکن است راحتی کاربر را بهبود بخشد، اما احتمال تبدیل شدن شرکت های فناوری به ناشران مطالب افتراآمیز را نیز افزایش می دهد که عواقب قانونی و مالی قابل توجهی دارد.
طبق قانون افترا در استرالیا، افرادی که در پلتفرمهایی مانند فیسبوک یا گوگل کامنتهای افتراآمیز میگذارند به طور سنتی بیشترین مسئولیت را متحمل میشوند. با این حال، تصمیم دادگاه عالی در سال 2021 در مورد دیلن والر، یک جوان بومی که در بازداشتگاه جوانان دان دیل مورد آزار و اذیت قرار گرفت، یک سابقه بحرانی ایجاد کرد. دادگاه حکم داد که شرکتهای رسانهای میتوانند در قبال نظرات افتراآمیز شخص ثالث منتشر شده در صفحات رسانههای اجتماعی خود، با این استدلال که با فراهم کردن بستری برای این نظرات، به عنوان ناشر عمل میکنند، مسئول شناخته شوند.
از آن زمان این حکم به یک اصل راهنما برای نحوه تفسیر مسئولیت پلتفرم توسط دادگاه های استرالیا تبدیل شده است و ثابت می کند که ارسال یا انتشار محتوای افتراآمیز می تواند به منزله انتشار باشد. برای Google و Meta که اکنون از هوش مصنوعی برای جمعآوری و جمعآوری محتوای تولید شده توسط کاربر استفاده میکنند، پیامدهای آن واضح است: اگر خلاصههای تولید شده توسط هوش مصنوعی حاوی اظهارات افتراآمیز یا تقویت آن باشند، میتوان آنها را ناشر آن محتوا در نظر گرفت و به طور بالقوه آنها را در معرض افترا قرار داد. دعاوی حقوقی
در سالهای اخیر، هم گوگل و هم متا در استرالیا با پروندههای افترا مواجه شدهاند که عواقب مالی قابل توجهی در پی داشته است. در سال 2022، گوگل به جان باریلارو، معاون سابق نخست وزیر نیو ساوت ولز، بیش از 700000 دلار به دلیل یک ویدیوی توهین آمیز یوتیوب محکوم شد، در حالی که در سال 2020، پس از اینکه موتور جستجوی آن سیستم به مقاله ای توهین آمیز در مورد یک وکیل ملبورن اشاره کرد، شرکت را به پرداخت 40،000 دلار جریمه کرد.
این موارد نشان میدهد که دادگاههای استرالیا به طور فزایندهای مایلند شرکتهای فناوری را در قبال محتوای افتراآمیز که در پلتفرمهایشان به اشتراک گذاشته شده است، مسئول بدانند، حتی اگر آن محتوا توسط کاربر تولید شده یا توسط الگوریتمها جمعآوری شده باشد. از آنجایی که ابزارهای مبتنی بر هوش مصنوعی مانند Gemini وارد صحنه میشوند، با توانایی خود در ترکیب مقادیر زیادی از محتوای کاربر، این شرکتها ممکن است به زودی با چالشهای حقوقی پیچیدهتری در رابطه با نقش خود به عنوان متصدی محتوا و ناشر مواجه شوند.
مایکل داگلاس، کارشناس افترا و مشاور در Bennett Law، هشدار می دهد که ابزارهای تجمیع محتوای مبتنی بر هوش مصنوعی، مانند ابزارهایی که توسط گوگل و متا راه اندازی شده اند، ناگزیر می توانند منجر به شکایت های افترا شوند. او خاطرنشان میکند که اگر این ابزارهای هوش مصنوعی خلاصههای افتراآمیز تولید کنند، پلتفرمها میتوانند بهعنوان ناشران آن محتوا در نظر گرفته شوند که احتمالاً با ادعاهای افترا روبرو هستند.
داگلاس گفت: “اگر متا نظرات را حذف کند و آنها را منتشر کند، و اگر آنچه منتشر می کند توهین آمیز باشد، ناشر است و می تواند مسئول افترا باشد.” او همچنین پیشنهاد میکند که اگرچه شرکتهای فناوری ممکن است به دنبال استناد به برخی دفاعها مانند «انتشار بیگناه» بر اساس قانون افترا در استرالیا باشند، با توجه به آگاهی شرکتها از خطرات مرتبط با تجمع الگوریتمی، این دفاعها ممکن است در موارد مربوط به هوش مصنوعی قابل اجرا نباشد.
مسئولیت به طور بالقوه می تواند به مفاد “واسطه های دیجیتالی” قوانین ایالتی در مورد افترا بستگی داشته باشد. این مفاد اخیراً برای روشن شدن مسئولیتهای پلتفرمها تصویب شدهاند، اما همانطور که داگلاس اشاره میکند، مشخص نیست که آیا آنها نقشی از هوش مصنوعی در توزیع محتوا را پوشش خواهند داد یا خیر.
توسعه سریع فناوری هوش مصنوعی چالش های جدیدی را به همراه داشته است که قانون فعلی افترا ممکن است به اندازه کافی به آنها رسیدگی نکند. پروفسور دیوید رولف، مدرس ارشد حقوق در دانشگاه سیدنی، خاطرنشان می کند که اصلاحات اخیر استرالیا در مورد افترا، آستانه ای برای کاهش ادعاهای کوچک ایجاد کرده است. در حالی که هدف آستانه جدید ساده کردن پرونده ها و فیلتر کردن ادعاهای بیهوده است، اصلاحات با در نظر گرفتن هوش مصنوعی طراحی نشده اند، به ویژه هوش مصنوعی که قادر به ایجاد پاسخ های منحصر به فرد برای هر کاربر باشد.
رولف توضیح داد: «فرایند اصلاح قانون افترا به وضوح با تغییر و چالشهای جدید ایجاد شده توسط هوش مصنوعی مواجه نشده است. او بر عقب ماندگی ذاتی اصلاحات قانونی و پیشرفت فناوری تاکید کرد و بر لزوم استفاده مکرر از قوانین مربوط به افترا تاکید کرد.
با این حال، رولف اذعان میکند که توانایی هوش مصنوعی برای ایجاد پاسخهای منحصربهفرد بسیاری ممکن است آسیبهای احتمالی را کاهش دهد، زیرا افراد کمتری ممکن است اظهارات خاص توهینآمیز را ببینند. با این حال، اگر خلاصهای مضر تولید شده توسط هوش مصنوعی حتی به مخاطبان کوچکی برسد، پیامدهای مربوط به مسئولیت همچنان شدید است و نیاز به راهنمایی واضحتر با پیشرفت فناوری را نشان میدهد.
هم متا و هم گوگل در مورد خطرات احتمالی افترا در ابزارهای مبتنی بر هوش مصنوعی خود محتاط بوده اند. وقتی از میریام دانیل، معاون و رئیس Google Maps در مورد پتانسیل خلاصههای افتراآمیز تولید شده توسط هوش مصنوعی پرسیده شد، توضیح داد که مدل هوش مصنوعی Gemini برای برجسته کردن نماهای متعادل با تجزیه و تحلیل مضامین مشترک در چندین بررسی طراحی شده است. Google همچنین بر تعهد خود به حذف نظرات جعلی یا هر محتوایی که خطمشیهای Google را نقض میکند، تاکید کرد تا اطمینان حاصل شود که نظرات Gemini دیدی خنثی از مکانها یا فعالیتها ارائه میدهد.
دانیل گفت: «ما به اندازه کافی به دنبال مضامین مشترک از منتقدان کافی، چه مثبت و چه منفی هستیم، و سعی می کنیم هنگام ارسال خلاصه، نظر متعادلی ارائه دهیم. به نظر میرسد تلاشهای تعدیلکننده Google با هدف کاهش احتمال محتوای افتراآمیز صورت میگیرد، اگرچه مشخص نیست که این حفاظتها چقدر مؤثر خواهند بود.
متا همچنین خطر خلاصه سازی هوش مصنوعی را تأیید کرد که می تواند پاسخ های ناخواسته را ایجاد کند. یکی از سخنگویان متا گفت که در حالی که هوش مصنوعی مورد استفاده برای تولید خلاصه نظرات هنوز در مراحل اولیه است، شرکت دائماً در حال بهبود است تا نادرستیهای احتمالی را به حداقل برساند. این سخنگوی اضافه کرد که متا به کاربران اطلاع میدهد که نتایج حاصل از هوش مصنوعی ممکن است همیشه دقیق نباشد، و به مدیریت انتظارات کاربر و رسیدگی فعالانه به خطاهای احتمالی کمک میکند.
سخنگوی متا با تأکید بر رویکرد محتاطانه متا به این فناوری خاطرنشان کرد: «ما اطلاعات خود ویژگیها را به اشتراک میگذاریم تا به مردم کمک کنیم بفهمند که هوش مصنوعی میتواند نتایج نادرست یا متناقضی ایجاد کند.