У відэа разгледжваецца праблема празмернай даверлівасці распрацоўшчыкаў да моўных мадэляў (LLM) пры напісанні кода. Прыводзіцца рэальная гісторыя, у якой сгенераваны AI код некалькі разоў выклікаў сур'ёзныя збояў у воблачнай інфраструктуры. У выніку гэтых інцыдэнтаў распрацоўшчыкаў пачалі крытыкаваць за недастатковую праверку AI-генерацыі кода. У адказ на гэта ўводзіцца новае правіла: любы код, створаны LLM, павінен праходзіць ручны аўдыт і парадковую праверку перад выкарыстаннем у вытворчай асяроддзі. Гэта падчеркивае важнасць уважлівай праверкі кода, асабліва калі ён ствараецца з дапамогай штучнага інтэлекту.
⚠️ Увага! Кароткі зьмест згенэраваны штучным інтэлектам, таму магчымыя лягічныя і моўныя памылкі. Вы можаце прагледзець замест гэтага арыгінальнае апісаньне відэа