هکرها به ابزاری نفوذ کرده اند که تیم های توسعه نرم افزار شما ممکن است از آن برای نوشتن کد استفاده کنند. جای راحتی نیست
توسعهدهندگان مدتهاست که از سایتهایی مانند Stack Overflow بهعنوان انجمنهایی استفاده میکنند که میتوانند نمونههای کد و کمک دریافت کنند. این انجمن به سرعت با ابزارهای هوش مصنوعی مولد مانند ChatGPT جایگزین میشود. امروزه، توسعهدهندگان از چت رباتهای هوش مصنوعی میخواهند که به ایجاد کد نمونه، ترجمه از یک زبان برنامهنویسی به زبان دیگر و حتی نوشتن موارد آزمایشی کمک کنند. این چت بات ها به اعضای کامل تیم های توسعه شما تبدیل شده اند. دستاوردهای بهره وری که ارائه می دهند، به سادگی، چشمگیر است.
فقط یک مشکل وجود دارد. اعضای تیم چت بات هوش مصنوعی شما چگونه کدنویسی را یاد گرفتند؟ همیشه با خواندن میلیاردها خط نرم افزار منبع باز، که مملو از خطاهای طراحی، اشکالات و بدافزارهای وارد شده توسط هکرها است. اجازه دادن به منبع باز آموزش ابزارهای هوش مصنوعی مانند اجازه دادن به یک راننده فراری که از بانک سرقت میکند، درس راننده دبیرستان را آموزش دهد. این یک تعصب داخلی برای آموزش چیز بد دارد.
سالانه بیش از یک میلیارد مشارکت منبع باز به مخازن مختلف وجود دارد. GitHub به تنهایی بیش از ۴۰۰ میلیون در سال ۲۰۲۲ داشت. این فرصت زیادی برای معرفی کد بد و یک “سطح حمله” بزرگ برای تلاش برای اسکن مشکلات است. هنگامی که از منبع باز برای آموزش یک مدل هوش مصنوعی استفاده می شود، آسیب وارد می شود. هر کدی که توسط مدل تولید میشود، تحت تأثیر آموختههای آن قرار میگیرد.
کدی که توسط چت ربات هوش مصنوعی مولد شما نوشته شده و توسط توسعه دهندگان شما استفاده می شود، می تواند و باید به دقت بررسی شود. متأسفانه، زمان هایی که توسعه دهندگان شما به احتمال زیاد از یک ربات چت کمک می خواهند، زمانی است که فاقد تخصص کافی برای نوشتن کد هستند. این بدان معناست که آنها همچنین فاقد تخصص برای درک اینکه آیا کد تولید شده دارای یک درب پشتی یا بدافزار عمدی پنهان است یا خیر.
از LinkedIn پرسیدم که مردم با چه دقتی کیفیت و امنیت کد تولید شده توسط هوش مصنوعی را بررسی می کنند. چند هزار برداشت بعد، پاسخها از «بسیار بسیار با احتیاط» تا «به همین دلیل است که من از هوش مصنوعی مولد برای تولید کد استفاده نمیکنم»، «برای استفاده خیلی زود است» و «خطر زیاد بدافزارهای تعبیهشده» متغیر بود. و ضعف طراحی شناخته شده. اما واقعیت این است که بسیاری از شرکتها از هوش مصنوعی مولد برای توسعه کد استفاده میکنند، و تعداد بیشتری از آنها در حال حرکت هستند.
بنابراین شرکت ها چه کاری باید انجام دهند؟ ابتدا باید کدهای نوشته شده توسط هوش مصنوعی را به دقت بررسی و اسکن کنند. انواع اسکن های مورد استفاده اهمیت دارد. تصور نکنید که بدافزار مولد هوش مصنوعی با امضای بدافزار شناخته شده مطابقت دارد، زیرا کد تولید شده هر بار که نوشته میشود تغییر میکند. در عوض، از اسکنهای رفتاری استاتیک و تجزیه و تحلیل ترکیب نرمافزار (SCA) استفاده کنید تا ببینید آیا نرمافزار تولید شده دارای نقصهای طراحی است یا کارهای مخرب انجام میدهد.
شاید ناگفته نماند، اما ایده خوبی نیست که به همان هوش مصنوعی مولد که کدهای پرخطر تولید میکند اجازه دهید موارد آزمایشی را بنویسد تا ببینید آیا این کد خطرناک است یا خیر. این مانند این است که از یک روباه بخواهید مرغداری را برای روباه بررسی کند.
در حالی که خطرات ایجاد کد بد واقعی است، مزایای کدنویسی با هوش مصنوعی مولد نیز واقعی است. اگر می خواهید به کد تولید شده اعتماد کنید، ضرب المثل قدیمی اعمال می شود: اعتماد کنید، اما تأیید کنید.
موسس و شریک مدیریت در < است a href="https://ctminsights.com/" rel="nofollow">CTM Insights، یک آزمایشگاه تحقیقاتی امنیت سایبری و انکوباتور. قبل از راهاندازی CTM، او مدیر ارشد فناوری TD Ameritrade بود که در آنجا مسئولیت نوآوری فناوری، معماری پلتفرم، مهندسی، عملیات، مدیریت ریسک و امنیت سایبری را بر عهده داشت.
—
Generative AI Insights مکانی را برای رهبران فناوری فراهم می کند تا چالش ها و فرصت های هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمانها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت میکنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. با doug_dineley@foundryco.com تماس بگیرید.
پست های مرتبط
آیا ChatGPT کد شما را می نویسد؟ مراقب بدافزارها باشید
آیا ChatGPT کد شما را می نویسد؟ مراقب بدافزارها باشید
آیا ChatGPT کد شما را می نویسد؟ مراقب بدافزارها باشید