جمعه , 24 بهمن 1404 - 12:52 بعد از ظهر

Anthropic: مدل‌های جدید «کلود» می‌توانند برای جرایم خطرناک استفاده شوند


به گزارش خبرگزاری ایده روز آنلاین، شرکت Anthropic در گزارشی تازه هشدار داده است که برخی از جدیدترین مدل‌های هوش مصنوعی این شرکت، از جمله Claude Opus 4.5 و Claude Opus 4.6، در شرایط خاص می‌توانند در معرض سوءاستفاده برای اقدامات مجرمانه خطرناک مانند کمک به توسعه سلاح‌های شیمیایی قرار بگیرند.

به گفته Anthropic، این آسیب‌پذیری‌ها در آزمایش‌هایی مشاهده شده که مدل‌ها بدون دخالت مستقیم انسان عمل کرده‌اند. هرچند شرکت تأکید کرده احتمال بروز چنین رفتارهایی پایین است، اما آن را «قابل چشم‌پوشی» نمی‌داند.

Dario Amodei مدیرعامل Anthropic پیش‌تر نیز نسبت به خطرات بالقوه هوش مصنوعی هشدار داده و خواستار توجه جدی قانون‌گذاران و شرکت‌های فناوری به موضوع ایمنی و نظارت بر توسعه این فناوری شده است.

منبع: axios

۲۲۷۲۲۷


Source link

درباره ی ایده روز آنلاین

مطلب پیشنهادی

جذاب آلمانی با موتور جدید معرفی شد

به گزارش خبرگزاری ایده روز آنلاین، در سال‌های اخیر بسیاری از طرفداران AMG از جایگزینی …

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *