GitHub Copilot doporučuje v 40 % kód s bezpečnostními chybami.

Od Rychlofky

GitHub Copilot doporučuje v 40 % kód s bezpečnostními chybami. Vypovídá to bohužel nejvíce o tom, že naučit #AI na náhodném vzorku nezaručí kvalitu. Což ostatně víme i z řady jiných případů pokusů o hloubkového učení. A také to ukazuje na rizika, pokud programátoři přebírají cizí kód. Via GitHub autopilot „highly likely“ to introduce bugs and vulnerabilities, report claims a An Empirical Cybersecurity Evaluation of GitHub Copilot’s Code Contributions