chatGPT, Gemini, LLAMA등 LLM(Large Language Model)은 단순히 웹 인터페이스를 이용한 채팅뿐만 아니라 다양항 어플리케이션에도 탑재되어 활용되고 있습니다.

따라서 LLM 자체에 대한 보안 뿐만 아니라, LLM을 활용한 Application에 대한 보안 역시 매우 중요하며, 향후 이에 대한 연구가 더욱 활발히 진행될 것으로 생각합니다.

저 역시 올 한 해는 AI Security와 Safety에 대해 집중적으로 연구하고, 사내에서도 이에 대한 실무적인 준비를 해나가려고 합니다.

이전에 같은 팀에서 일했던 동료이자, AWSKRUG #SECURITY의 모더레이터를 맡고 있는 Seongjin Hong Linkedin의 부탁으로 1월 AWSKRUG 보안 Meetup의 발표를 맡게 되었습니다.

발표 주제와 내용은 다음과 같습니다.

주제 : LLM App Security & AWS Bedrock 내용

  • Demystifying LLM Security: Model vs Systems
  • Model Attack
  • System Attack
  • AWS Bedrock & Guardrails
  • AI Security & Safety

전반부에서는 업계에서 “LLM Security” 라고 두루뭉술하게 정의되고 있는 것에 대해 문제를 제기합니다. Model 영역과 Application 영역에 대한 구분을 통해 위협 요소를 명확하게 정의하고 그에 따른 책임 모델을 제시합니다.

중반부에서는 Model 및 System(Applicaion)에 대한 공격 기법에 대해 설명합니다. 최대한 최신 리서치를 반영하고자 노력했습니다.

후반부에는 AWS에서 제공하는 LLM 관리형 서비스인 Bedrock에 대해 소개합니다. 또한 앞서 소개한 LLM 공격기법을 방어할 수 있는 Guardrails에 대해서도 설명합니다.

마지막으로 AI 업계에서 Security와 Safety를 어떻게 바라보고 준비하고 있는지에 대해 다루며 발표 내용을 마칩니다.

자료는 아래 링크에서 다운받을 수 있습니다. 재사용 및 공유 시 반드시 출처를 명기해주시기 바랍니다.

AWSKRUG_SECURITY_LLM_App_Security_AWS_Bedrock