728x90
반응형

AI 25

A2UI란 무엇인가? AI Agent가 텍스트가 아닌 UI를 보낸다

생성형 AI는 텍스트, 이미지, 코드를 만드는데는 매우 뛰어납니다.하지만 사용자가 실제로 눌러야하는 버튼, 선택해야 하는 날짜, 입력해야 하는 폼을 구성해 전달하는 데는 한계가 있었습니다. 이 문제를 해결하기 위해 등장한 것이 바로 A2UI (Agent-to-UI) 입니다. 1. A2UI란?A2UI는 Google 이 공개한 오픈소스 표준, 프로토콜로 AI Agent가 단순 텍스트 응답을 넘어 인터랙티브한 UI 구성 정보를 JSON 형태로 생성하여 사용자에게 전달할 수 있게 합니다.A2UI는 A2A Protocol 위에 구축되었으며 에이전트가 텍스트뿐 아니라 상호작용 가능한 UI 구성 요소까지 함께 보낼 수 있도록 확장합니다.에이전트가 UI를 직접 그리는 것이 아니라 UI의 구조를 설명하고 실제 렌더링은 ..

AI/LLM 2026.02.01

AG-UI, 에이전트와 사용자를 연결하는 실시간 인터페이스 표준

AI 에이전트 기술이 빠르게 발전하면서, 이를 실제 서비스에 적용하려는 시도도 급격히 늘고 있습니다. 하지만 현실에서는 한 가지 큰 문제가 반복되었습니다.에이전트는 잘 만들었는데, UI에 자연스럽게 붙이는 방법이 매번 제각각이었다는 점입니다.백엔드 자동화에는 많은 투자가 이루어졌지만, 사용자와의 실시간 상호작용(UI 통합)은 프레임워크마다, 프로젝트마다, 개발자마다 모두 다른 방식으로 구현되어 왔습니다.이 문제를 해결하기 위해 CopilotKit이 공개한 것이 바로 AG-UI (Agent-User Interaction Protocol) 입니다. 1. AG-UI란 무엇인가?AG-UI는 Agent-User Interaction Protocol의 약자로, 에이전트 백엔드와 프론트엔드 UI를 단일 JSON 이..

AI/LLM 2026.02.01

A2A (Agent2Agent)란, 핵심 개념부터 적용까지

1. A2A란AI 에이전트가 점점 복잡한 업무를 수행하게 되면서 에이전트 간 협업은 필수가 되었습니다.이때 필요한 것이 바로 에이전트들이 서로를 이해하고, 작업을 주고받고, 결과를 공유할 수 있는 프로토콜입니다.그 역할을 하는 것이 A2A 프로토콜 입니다.A2A는 AI 에이전트들이 서로 소통하고 협업하는 방식을 표준화하는 프로토콜입니다.메시지, 작업 요청, 상태, 결과를 구조화된 방식으로 교환할 수 있게 합니다.A2A의 주요 특징에이전트 간 통신을 위한 표준화된 메세지 형식보안 및 인증 메커니즘 내장다양한 전송 프로토콜(HTTP, WebSockets, gRPC)을 지원다중 에이전트 오케스트레이션을 고려한 설계2. A2A 등장 배경2.1. 기존 LLM 기반 시스템의 한계초기의 LLM 시스템은 보통 단일 에..

AI/LLM 2026.01.31

MCP(Model Context Protocol) 정리와 MCP 서버 구축

1. MCP란 Model Context Protocol(MCP)는 LLM 애플리케이션과 외부 데이터 소스 및 도구 간의 원활한 연동을 가능하게 해주는 오픈 프로토콜 AI 기반 IDE를 만들거나, 채팅 인터페이스를 개선하거나, 맞춤형 AI 워크플로우를 구축하든 MCP는 LLM이 필요한 컨텍스트에 표준화된 방식으로 접근할 수 있도록 도와준다. 1.1 왜 MCP인가?MCP는 LLM을 기반으로 에이전트와 복잡한 워크플로를 구축하는데 도움을 준다.LLM은 다양한 데이터 및 도구와의 통합이 자주 필요하며, MCP는 다음과 같은 방식으로 지원한다.LLM이 바로 사용할 수 있는 다양한 사전 구축 통합 기능 제공 (ex. DB, API, 외부 툴 등 쉽게 연동할 수 있는 통합 기능)LLM 제공자나 벤더 간 유연한 전환 ..

AI/LLM 2025.07.06

[시계열 데이터 이미지 인코딩] 2. Markov Transition Field(MTF) 개념 및 적용

1. Markov Transition Field(MTF)란?Markov Transition Field (MTF) 알고리즘은 이산화한 시계열 데이터의 전이 확률을 나타내는 알고리즘이다.N개의 Time Series 데이터가 있다고 가정한다.Time Series 데이터를 분위수를 활용하여 Q+1 bin으로 이산화한다.아래 과정을 통해 상태 전이 행렬을 구한다. 즉, Markov model은 상태 전이 행렬(state transition matrix)을 만들기 위한 것이다.상태 전이 행렬은 어떤 상태가 시간에 따라 어떻게 변화하는지 나타낸 것$w_{ij} = P(x_t = j | x_{t-1} = i)$i 상태로부터 j 상태로 전이하는 확률을 $W_{ij}$라고 한다.위 확률을 최대우도추정법(maximum li..

AI/Time series 2024.11.25

[시계열 데이터 이미지 인코딩] 1. Gramian Angular Field (GAF) 개념 및 적용

1. Gramian Angular Field (GAF) 이란?Gram Matrix: 각 시점 간의 시간적 상관관계를 극좌표를 기반으로 표현하는 알고리즘 ($G = X^TX$)서로 다른 모든 벡터들에 대해 유사도를 나타내는 행렬이라고 볼 수 있다.cosine similarity와 비슷하게 값이 1에 가까우면 유사도가 높고, 0이면 유사도가 없고, -1이면 정반대의 유사도를 가진다.극좌표 기반 행렬은 시계열 데이터를 이미지로 변경할 때 시간 상관관계를 보존할 수 있다는 장점이 있다. 1. Time Series 데이터를 -1~1까지로 정규화를 한다.시계열 데이터의 작거나 큰 다양한 범위들을 [-1, 1] 혹은 [0, 1] 구간으로 정규화시킨다.2. 정규화된 Time Series 값을 극좌표계(poloar co..

AI/Time series 2024.11.24

Tensorflow에서 multi GPU 사용 방법

1. GPU 확인보유하고 있는 gpu 정보와 해당 gpu 번호 확인from tensorflow.python.client import device_libdevice_lib.list_local_devices()아래 결과를 통해 gpu가 2개 있는 것을 확인할 수 있다. MirroredStrategy2. 사용 가능한 모든 GPU 병렬처리MirroredStrategy 인스턴스 생성 시 아무것도 지정하지 않으면 multi GPU에 대해 분산처리되어 동작함.마찬가지로 with mirrored_strategy.scope() 블럭 내에서는 모델 생성 및 학습 모델 설계 관련 구현하고, with 구문 내에서 model이 compile되어야함.import tensorflow as tfmirrored_strategy = t..

AI/딥러닝 2024.11.22

Residual Attention Network for Image Classification (2017) 논문 분석

1. Introduction 위 논문은 CNN에 Attention을 적용한 논문으로, ResNet에 Attention mechanism을 사용했다. Residual Attention Network는 Attention Module로 이루어져있고, Attention 모듈 내부에는 크게 마스크를 생성하는 부분과, 기존 모듈(residual 모듈, inception 모듈) 두 파트로 이루어져 있다. 기존 모듈의 출력값에 마스크를 곱하여 출력값의 픽셀에 가중치를 부여하는 것. 즉, Attention module은 이미지에서 중요한 특징을 포착하여 출력값을 정제해주는 역할을 한다. Attention module이 깊게 쌓일 수록 다양한 특징을 포착하고 가중치를 부여할 수 있어 성능이 향상된다. 위 그림을 보면 기존..

AI/딥러닝 2024.03.17

GRU(Gated Recurrent Unit) 정리

GRU (Gated Recurrent Unit) GRU는 Gate 메커니즘이 적용된 RNN 프레임워크의 일종으로 LSTM에 영감을 받았고, LSTM보다 조금 더 간단한 구조를 가지고 있음. 대한민국의 조경현 박사님이 제안한 방법. GRU는 LSTM과 마찬가지로 Gate 개념 사용. GRU의 핵심은 아래 두가지이다. (1) LSTM의 forget gate와 input gate를 통합하여 하나의 'update gate'를 만든다. GRU는 크게 reset gate와 update gate로 나뉨. (2) Cell State와 Hidden State를 통합한다. GRU는 memory cell을 사용하지 않음. GRU는 LSTM에 비하여 파라미터수가 적기 때문에 연산 비용이 적게 들고, 구조도 더 간단하지만, 성..

AI/딥러닝 2024.03.17

LSTM (Long Short Term Memory) 정리

RNN의 문제점 1. Gradient Vanishing 긴 sequence에서 역전파를 진행할 때 위와 같이 각 편미분 값이 1보다 작고, hidden layer의 개수가 100개가 넘어가면 결국 $ \frac{\partial E}{\partial W} $ 값이 0에 가까워져서 결국 가중치 업데이트가 거의 이루어지지 않아 학습이 매우 길어지고 비효율적이게 됨. 2. Gradient Exploding 마찬가지로 긴 sequence에서 역전파를 진행할 때 위와 같이 각 편미분 값이 1보다 크고, hidden layer의 개수가 100개가 넘어가면 결국 $ \frac{\partial E}{\partial W} $ 값이 커지게 되고 가중치 업데이트가 왔다갔다 변동이 커짐. LSTM LSTM은 RNN의 특별한 한..

AI/딥러닝 2024.03.17
728x90
반응형