لینکدین می‌گوید اگر محتوای جعلی یا غیرواقعی تولید شده توسط هوش مصنوعی به اشتراک می‌گذارید، مسئولیت آن بر عهده شماست.

## لینکدین مسئولیت اطلاعات نادرست تولید شده توسط هوش مصنوعی را به کاربران واگذار می‌کند

لینکدین در حال تغییر سیاست های خود برای واگذار کردن مسئولیت اطلاعات نادرست یا غیر دقیق تولید شده توسط ابزارهای هوش مصنوعی خود به کاربران است.

در آپدیت نوامبر 2024 توافقنامه خدمات لینکدین ، کاربران مسئول انتشار هرگونه اطلاعات نادرست ایجاد شده توسط ابزارهای هوش مصنوعی که مقررات حریم خصوصی را نقض می کند ، خواهند بود .

از آنجایی که هیچ کس نمی تواند ضمانت کند که محتوای تولید شده توسط هوش مصنوعی صحیح یا درست است ، شرکت ها با واگذار کردن مسئولیت نظارت بر محتوای منتشر شده به کاربران ، خود را پوشش می دهند .

## اطلاعات نادرست ، گمراه کننده یا نامناسب برای استفاده

این آپدیت به دنبال تغییرات در شرایط و ضوابط شرکت مادر لینکدین ، مایکروسافت ، است که در اوایل سال 2024 شرایط استفاده از خدمات هوش مصنوعی خود را به روز کرد تا کاربران را مطلع کند که نباید خدمات هوش مصنوعی را بیش از حد جدی بگیرند و به محدودیت های آن اشاره کند ، و توصیه می کند که ” این ابزارها برای استفاده به جای مشاوره حرفه ای طراحی نشده اند “.

لینکدین به ارائه ویژگی هایی که می تواند محتوا را به طور خودکار تولید کند ، ادامه می دهد ، اما با این هشدار که ممکن است قابل اعتماد نباشد .

در این آپدیت نوشته خواهد شد : ” ویژگی های هوش مصنوعی تولید کننده : با استفاده از خدمات ، ممکن است با ویژگی هایی که ما ارائه می دهیم ، که محتوا را به طور خودکار برای شما ایجاد می کنند ، تعامل داشته باشید . محتوای تولید شده ممکن است نادرست ، ناقص ، با تأخیر ، گمراه کننده یا نامناسب برای اهداف شما باشد .”

این سیاست جدید کاربران را یادآوری می کند که هرگونه اطلاعات را دوباره بررسی کنند و در صورت نیاز ، ویرایش های لازم را برای رعایت قوانین جامعه انجام دهند .

” لطفاً قبل از اشتراک گذاری با دیگران ، چنین محتوایی را بررسی و ویرایش کنید . مانند تمام محتوایی که در خدمات ما به اشتراک می گذارید ، مسئول اطمینان از انطباق آن با قوانین جامعه حرفه ای ما ، از جمله اجتناب از اشتراک گذاری اطلاعات گمراه کننده ، هستید .”

شبکه اجتماعی لینکدین احتمالاً انتظار دارد که مدل های هوش مصنوعی تولید کننده خود در آینده بهبود یابند ، به خصوص از آنجایی که اکنون به طور پیش فرض از داده های کاربران برای آموزش مدل های خود استفاده می کند ، و کاربران باید به طور دستی انتخاب کنند که نمی خواهند داده های آنها استفاده شود .

این اقدام با انتقاد قابل توجهی روبرو شد ، زیرا نگرانی های GDPR با مدل های هوش مصنوعی تولید کننده در همه جا تضاد دارد ، اما آپدیت اخیر سیاست ها نشان می دهد که این مدل ها هنوز نیاز به آموزش زیادی دارند .

مجله خبری تکنولوژی و موبایل

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *