Ai 3

속도는 AI가 안전은 SBOM이 :: 블랙덕 임베디드 소프트웨어 품질 및 안전 현황 2025 보고서

블랙덕(Black Duck)의 보고서 「임베디드 소프트웨어 품질 및 안전 현황 2025 (The State of Embedded Software Quality and Safety 2025)」는 임베디드 소프트웨어 전문가 대상으로 한 설문의 핵심 결과를 바탕으로 현재 일어나고 있는 상황에 대한 데이터 기반의 시각을 제공합니다. 보고서는 임베디드 소프트웨어 분야의 두 가지 중대한 변화를 배경으로 합니다. 첫째, AI 도구의 광범위한 도입과 그에 비해 위험할 정도로 미흡한 거버넌스 체계둘째, 소프트웨어 공급망이 핵심 비즈니스 기능으로 부상하면서 상업적 요구사항으로 자리잡은 소프트웨어 자재명세서(SBOM)또한 보고서에서는 임베디드 개발자의 역할 변화, 속도와 품질 사이의 지속적 긴장, 임베디드 소프트웨어 개발에..

오픈소스 2025.12.02

AI 시대, 새로운 개발 패러다임에 대응하기 위한 오픈소스 보안 관리 전략- 포세라 위드 블랙덕(FOSSEra with Black Duck) by 엘에스웨어 박준석

1. AI와 오픈소스, 개발의 새로운 표준 요즘 개발자라면 한 번쯤은 AI 코딩 도구(GitHub Copilot, ChatGPT, Cursor 등)를 써봤을 것이다. 몇 줄 입력만 해도 자동으로 코드가 생성되고, 개발 속도는 몇 배 이상 빨라진다. 하지만 여기에는 중대한 리스크가 숨어 있다.AI가 제안한 코드에 오픈소스가 섞여 있을 수 있고,그 코드가 보안 취약점을 내제하고 있을 가능성도 크다.더 나아가, 라이선스 충돌이 발생하면 기업은 법적 분쟁까지 직면할 수 있다.이 문제를 해결하기 위한 가장 확실한 방법은, 새로운 개발 패러다임에 대응 가능한 관리 시스템을 구축하는 것이다. 여기에서는 포세라(FOSSEra)와 블랙덕(Black Duck)을 결합한 통합 오픈소스 관리 솔루션 포세라 위드 블랙덕을 활용..

오픈소스 2025.10.24

탐지를 넘어 신뢰로: 설명 가능한 AI(XAI)가 바꾸는 사이버 보안의 미래 by 엘에스웨어 김현수

1. 서론: 왜 우리는 AI의 설명을 들어야 하는가? 인공지능(AI) 모델이 점점 더 복잡해지면서 그 의사결정 과정이 '블랙박스'처럼 불투명해지는 문제가 대두되고 있습니다. AI가 단순히 데이터를 분류하는 것을 넘어, 기업의 보안 시스템을 통제하고 잠재적 위협을 판단하는 중추적인 역할을 맡게 되면서, 우리는 AI의 '결정'뿐만 아니라 그 '이유'를 알아야 할 필요성에 직면했습니다. 특히 금융, 의료, 국방, 그리고 사이버 보안처럼 높은 수준의 책임과 신뢰가 요구되는 분야에서 AI의 판단 근거를 이해하는 것은 선택이 아닌 필수입니다. 이 아티클은 AI의 투명성과 신뢰성을 확보하기 위한 핵심 기술인 '설명 가능한 AI(eXplainable AI, XAI)'의 개념과 최신 기술 동향을 심도 있게 다룹니다...

R&D 2025.10.02