به هوش مصنوعی اطلاعات ندهید
شما باید هنگام صحبت با چتباتهای آنلاین مانند ChatGPT خیلی محتاط باشید. باید حواستان باشد و خطر سرقت هویت یا دسترسی غیرمجاز به حسابهای بانکیتان را بهدلیل یک اشتباه رایج به جان نخرید. روزنامه سان در این خصوص با یک کارشناس امنیتی برجسته صحبت کرده که میگوید، استفاده از چتباتهای هوش مصنوعی باید با احتیاط انجام شود. چتباتهای هوش مصنوعی همه جا وجود دارند (حتی در اپلیکیشنهایی مانند واتساپ) بنابراین مهم است که بدانید چه چیزی باید به آنها بگویید و چه چیزی نگویید. استوارت گرین، کارشناس امنیت سایبری، هشدار میدهد: «چتباتهایی مانند ChatGPT و ابزارهای مشابه هوش مصنوعی را مانند یک غریبه درنظر بگیرید. سیستمهایAI اغلب دارای یک رابط شبیه انسان هستند، بنابراین با آنها مانند یک فرد بیگانه رفتار کنید.»
قانون 3 حرفی: این اصطلاح کمتر شناختهشده 3 حرفی مخفف «اطلاعات شناسایی شخصی» (PII) است. استوارت میگوید: «این شامل نام کامل شما، آدرس خانه، آدرس ایمیل، شماره تلفن یا هر نوع شناسایی مثل اطلاعات گذرنامه است. اشتراکگذاری PII میتواند خطر سرقت هویت، افشای اطلاعات یا دسترسی غیرمجاز به حسابهای شخصی شما را افزایش دهد. حتی اگر پلتفرم اطلاعات شما را ناشناس کند همیشه احتمال نشت داده، وجود دارد. البته لیست اطلاعاتی که نباید با چتباتهای هوش مصنوعی به اشتراک بگذارید فراتر از PII است.»
اطلاعات مالی: چتباتها انسانگونه هستند و میتوانند بسیار قانعکننده باشند، بنابراین ممکن است بهراحتی توسط یک هوش مصنوعی فریب بخورید. استوارت میگوید: «شماره کارت اعتباری، جزئیات حساب بانکی و رمزهای عبور باید خصوصی نگه داشته شوند. اشتراکگذاری دادههای مالی آنلاین شما را در معرض خطر کلاهبرداری، سرقت یا تقلب قرار میدهد، اگر این اطلاعات فاش شود. به همان اندازه مهم است که اطلاعات ورود به سیستم خود مانند نامهای کاربری، رمزهای عبور یا کدهای تأیید 2 مرحلهای را به اشتراک نگذارید.»