새 문서 목록

IT 위키
새 문서 목록
등록된 사용자 숨기기 | 봇 숨기기 | 넘겨주기를 숨기기
(최신 | 오래됨) (다음 50개 | ) (20 | 50 | 100 | 250 | 500) 보기
  • 2025년 10월 26일 (일) 13:20텐서 압축 (역사 | 편집) ‎[5,093 바이트]인공무능 (토론 | 기여) (새 문서: 텐서 압축(Tensor Compression)은 고차원 배열(텐서)을 저장·처리할 때 메모리 사용량과 계산 복잡도를 줄이기 위해 희소성(sparsity) 또는 저차(rank) 구조를 이용하여 데이터를 압축하는 기법이다. ==개념== 고차원 텐서란 3차원 이상(예: 3‑way, 4‑way…) 배열을 의미하며, 텐서 압축은 이러한 배열에서 대부분이 0이거나 중요도가 낮은 원소를 효율적으로 표현하는 방식이다....) 태그: 시각 편집
  • 2025년 10월 26일 (일) 13:18CSC (압축) (역사 | 편집) ‎[4,656 바이트]인공무능 (토론 | 기여) (새 문서: CSC(Compressed Sparse Column, 압축된 희소 열 형식)은 희소 행렬을 저장할 때 열 중심(column‑oriented)으로 비제로(non‑zero) 원소를 압축하는 방식이다. ==개념== CSC 방식은 비제로 원소들을 열 단위로 순서대로 저장하며, 각 열의 시작 위치를 나타내는 포인터 배열을 함께 유지한다. 구체적으로 세 개의 배열을 사용한다: * ‘data’ — 비제로 원소들의 값 배열 * ‘indices...) 태그: 시각 편집
  • 2025년 10월 25일 (토) 12:15프루닝 (역사 | 편집) ‎[292 바이트]인공무능 (토론 | 기여) (새 문서: 프루닝은 컴퓨터 과학 측면에선 계산 효율 및 성능 개선등을 위해 상대적으로 불필요한 경로나 수치를 잘라내는 것을 의미한다. 아래 중 하나의 문서를 선택할 수 있다. * 의사결정 나무의 프루닝 * 신경망 가지치기) 태그: 시각 편집
  • 2025년 10월 25일 (토) 11:33깊이별 합성곱 (역사 | 편집) ‎[3,018 바이트]인공무능 (토론 | 기여) (새 문서: 깊이별 합성곱(Depthwise Convolution)은 합성곱 신경망(CNN)에서 연산 효율성을 높이기 위해 제안된 구조로, 표준 합성곱(Standard Convolution)을 채널 단위로 분리하여 수행하는 방식이다. 이 방식은 MobileNet 등 경량 신경망의 핵심 구성 요소로 사용되며, 모델의 파라미터 수와 연산량을 크게 줄인다. ==개요== 일반적인 합성곱 연산은 입력의 모든 채널에 대해 동일한 필터를 적...) 태그: 시각 편집
  • 2025년 10월 25일 (토) 11:17ShiftNet (역사 | 편집) ‎[3,013 바이트]인공무능 (토론 | 기여) (새 문서: ShiftNet은 2018년에 제안된 초경량 합성곱 신경망(CNN) 구조로, 합성곱 연산(convolution) 자체를 제거하고 단순한 픽셀 이동(shift) 연산으로 공간 정보를 처리하는 혁신적인 접근 방식을 제시하였다. ==개요== ShiftNet은 전통적인 합성곱 계층의 연산량과 파라미터 수를 극단적으로 줄이기 위해 설계되었다. 기존의 표준 합성곱이나 깊이별 합성곱(depthwise convolution)조차도 상...) 태그: 시각 편집
  • 2025년 10월 25일 (토) 11:15ConvNeXt (역사 | 편집) ‎[2,596 바이트]인공무능 (토론 | 기여) (새 문서: ConvNeXt(Convolutional Network for the 2020s)는 2022년에 제안된 현대적 합성곱 신경망(CNN) 구조로, 비전 트랜스포머(Vision Transformer)의 설계 철학을 결합하여 기존 CNN의 성능과 효율성을 극대화한 모델이다. ==개요== ConvNeXt는 기존 ResNet 구조를 기반으로 하지만, 트랜스포머의 설계 원칙을 도입하여 단순한 CNN 구조로도 최신 비전 모델과 경쟁 가능한 성능을 달성하였다. 주요 목...) 태그: 시각 편집
  • 2025년 10월 25일 (토) 05:38EfficientNet (역사 | 편집) ‎[4,216 바이트]인공무능 (토론 | 기여) (새 문서: EfficientNet(영어: EfficientNet)은 컨볼루션 신경망(CNN) 아키텍처의 효율적인 확장을 위한 모델 계열로, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks” 논문에서 제안되었다. ==개요== EfficientNet은 네트워크의 깊이(depth), 폭(width), 입력 해상도(resolution)를 균형 있게 확장하는 '''복합 계수(compound coefficient)''' 기반 스케일링 기법을 도입하였다. 기존 모델들은 깊이...) 태그: 시각 편집
  • 2025년 10월 25일 (토) 05:34DenseNet (역사 | 편집) ‎[4,121 바이트]인공무능 (토론 | 기여) (새 문서: DenseNet(영어: Dense Convolutional Network, 덴스넷)은 층(layer) 간의 연결을 극대화하여 특징 재사용(feature reuse)과 기울기 흐름(gradient flow)을 개선한 컨볼루션 신경망(CNN) 구조이다. ==개요== DenseNet은 각 층이 이전 모든 층의 출력(feature map)을 입력으로 받아들이고, 자신의 출력을 이후 모든 층이 다시 입력으로 전달하는 구조를 가진다. 즉, 하나의 Dense Block 내부에서 l번째 층...) 태그: 시각 편집
  • 2025년 10월 25일 (토) 05:32SqueezeNet (역사 | 편집) ‎[3,509 바이트]인공무능 (토론 | 기여) (새 문서: SqueezeNet(영어: SqueezeNet)은 모바일 및 임베디드 환경에서 매우 적은 파라미터 수로도 높은 정확도를 달성하도록 설계된 경량 컨볼루션 신경망(CNN) 구조이다. ==개요== SqueezeNet은 2016년 발표된 모델로, AlexNet과 비슷한 수준의 이미지 분류 성능을 유지하면서도 파라미터 수를 약 50배 줄이는 것을 목표로 설계되었다. 모델 크기가 매우 작아(최소 0.5MB 수준) 모바일 및 임...) 태그: 시각 편집
  • 2025년 10월 25일 (토) 05:29ShuffleNet (역사 | 편집) ‎[4,678 바이트]인공무능 (토론 | 기여) (새 문서: ShuffleNet(영어: ShuffleNet)은 모바일 및 임베디드 디바이스 환경에서 매우 제한된 연산 자원 하에서도 고성능 이미지 인식이 가능하도록 설계된 경량 컨볼루션 신경망(CNN) 아키텍처이다. ==개요== ShuffleNet은 연산량이 극히 적은 환경(수십 MFLOPs 수준)에서도 동작하도록 설계되었다. 핵심은 두 가지 연산 기법인 포인트와이즈 그룹 컨볼루션(pointwise group convolution)과 채널...) 태그: 시각 편집
  • 2025년 10월 25일 (토) 05:23MobileNet (역사 | 편집) ‎[4,623 바이트]인공무능 (토론 | 기여) (새 문서: MobileNet(영어: MobileNet)은 모바일 및 임베디드 디바이스 환경에서 낮은 지연(latency)과 적은 연산량으로 이미지 인식, 객체 검출 등의 컴퓨터 비전 과제를 수행하도록 설계된 경량 컨볼루션 신경망(CNN) 아키텍처 계열이다. ==개요== MobileNet은 일반적인 컨볼루션 연산을 깊이별 분리된 컨볼루션(depthwise separable convolution) 방식으로 대체하여 연산량과 파라미터 수를 크게 줄...) 태그: 시각 편집
  • 2025년 10월 25일 (토) 05:19Wide ResNet (역사 | 편집) ‎[5,035 바이트]인공무능 (토론 | 기여) (새 문서: Wide ResNet(영어: Wide Residual Network, 축약 WRN)은 ResNet 구조의 “깊이(Depth)”를 늘리는 대신 “폭(Width)”을 확장하여 성능을 향상시킨 변형 아키텍처로, 세르게이 자고루이코(Sergey Zagoruyko)와 니코스 코모다키스(Nikos Komodakis)가 2016년에 제안하였다. ==개요== Wide ResNet은 기존 ResNet이 층을 깊게 쌓을수록 학습 효율이 떨어지고, 특징 재사용(feature reuse)이 감소하는 문제를 해...) 태그: 시각 편집
  • 2025년 10월 25일 (토) 05:11AlexNet (역사 | 편집) ‎[4,668 바이트]인공무능 (토론 | 기여) (새 문서: AlexNet(영어: AlexNet)은 2012년 ImageNet 대회(ILSVRC 2012)에서 우승하며 딥러닝 기반 이미지 인식의 시대를 연 컨볼루션 신경망(CNN) 모델이다. 토론토 대학교의 알렉스 크리제브스키(Alex Krizhevsky), 일야 서츠케버(Ilya Sutskever), 제프리 힌턴(Geoffrey Hinton)에 의해 개발되었다. ==개요== AlexNet은 대규모 이미지 데이터셋(ImageNet)을 학습하여 객체 분류 문제를 해결한 모델로, 당시 기...) 태그: 시각 편집
  • 2025년 10월 25일 (토) 05:09LeNet (역사 | 편집) ‎[3,032 바이트]인공무능 (토론 | 기여) (새 문서: LeNet(영어: LeNet)은 손글씨 숫자 인식 등 문서 이미지 인식을 위해 설계된 초기 컨볼루션 신경망(CNN) 계열 모델로, 특히 1998년에 제안된 LeNet-5가 가장 널리 알려져 있다. ==개요== LeNet은 컨볼루션과 서브샘플링(당시 평균 풀링)을 반복해 공간 정보를 보존하며 특징을 추출하고, 마지막에 완전연결층으로 분류를 수행하는 구조를 갖는다. 원래 목적은 우편번호나 수표의...) 태그: 시각 편집
  • 2025년 10월 25일 (토) 05:08르넷 (역사 | 편집) ‎[23 바이트]인공무능 (토론 | 기여) (LeNet 문서로 넘겨주기) 태그: 새 넘겨주기
  • 2025년 10월 24일 (금) 11:47전문가 조합 (인공지능) (역사 | 편집) ‎[4,688 바이트]인공무능 (토론 | 기여) (새 문서: 섬네일|혼합 전문가 모델 예시 Mixture of Experts(줄여서 MoE)는 여러 개의 전문가 모델(expert model)과 게이트(gating) 또는 라우터(router) 메커니즘을 결합하여 입력에 따라 적절한 전문가를 선택하거나 가중합하여 출력을 내는 기계학습 기법이다. 주로 딥러닝에서 모델의 효율적 확장과 성능 향상을 위해 사용된다. ==개요== Mixture of Experts는...)
  • 2025년 10월 24일 (금) 07:08엔비디아 GPU 모델 (역사 | 편집) ‎[5,206 바이트]인공무능 (토론 | 기여) (새 문서: '''엔비디아 GPU 모델'''은 NVIDIA가 출시한 주요 GPU 제품들을 모델 중심으로 정리한 문서이다. 본 문서는 각 모델의 아키텍처, 특징, 성능, 출시 당시의 소비자 가격 등을 포함한다. ==개요== 엔비디아의 GPU 라인업은 크게 소비자용(GeForce), 전문가용(Quadro/RTX PRO), 데이터센터용(Tesla, A100 등)으로 나뉜다. 모델명에 따라 성능과 용도가 명확히 구분되며, 각 세대의 아키텍처...) 태그: 시각 편집
  • 2025년 10월 24일 (금) 06:59엔비디아 GPU 아키텍처 (역사 | 편집) ‎[6,454 바이트]인공무능 (토론 | 기여) (새 문서: '''엔비디아 GPU 아키텍처'''는 엔비디아(NVIDIA)가 개발해 온 주요 GPU 마이크로아키텍처의 발전 과정을 다룬 문서이다. ==개요== 엔비디아는 그래픽 처리, 병렬 연산, 인공지능 가속 등 다양한 목적을 위해 GPU(Graphics Processing Unit) 아키텍처를 지속적으로 발전시켜 왔다. 각 세대의 아키텍처는 그래픽 파이프라인, 메모리 기술, 전력 효율, 연산 단위(CUDA Core, Tensor Core, RT Cor...) 태그: 시각 편집
  • 2025년 10월 24일 (금) 06:57Google Colab 런타임 (역사 | 편집) ‎[5,251 바이트]인공무능 (토론 | 기여) (새 문서: '''Colab 런타임'''은 구글이 제공하는 클라우드 기반 노트북 환경인 '''Google Colaboratory(줄여서 Colab)'''에서 코드가 실제로 실행되는 가상 머신(VM) 환경이다. <ref>https://cloud.google.com/colab/docs/runtimes?hl=ko</ref> ==기본 개념== Colab 노트북(.ipynb 형식)은 브라우저에서 실행되지만, 실제로는 원격의 가상 머신에서 파이썬 코드가 동작한다. 이 실행 환경이 바로 ‘런타임’이다....) 태그: 시각 편집
  • 2025년 10월 24일 (금) 06:53엔비디아 GPU 아키텍처 및 모델 (역사 | 편집) ‎[5,540 바이트]인공무능 (토론 | 기여) (새 문서: 이 문서는 엔비디아가 지금까지 출시해온 주요 GPU 아키텍처와 그에 해당하는 대표 모델들을 정리한 문서이다. 아래 두 문서로 세분화된다. 본 문서는 아래 두 문서에 대한 요약본이나 최신화 및 구체성 측면에선 부족할 수 있다. * 엔비디아 GPU 아키텍처 * 엔비디아 GPU 모델 ==개요== 엔비디아(NVIDIA)는 그래픽 카드, 데이터센터용 가속기, 인공지능용 가속기 등...) 태그: 시각 편집
  • 2025년 10월 24일 (금) 06:49엔비디아 L4 (역사 | 편집) ‎[4,436 바이트]인공무능 (토론 | 기여) (새 문서: '''NVIDIA L4'''(엔비디아 L4 Tensor Core GPU)은 엔비디아가 데이터센터, 클라우드 및 엣지(edge) 환경을 위해 설계한 에너지 효율 중심의 범용 가속기이다. ==개요== NVIDIA L4는 2023년경 출시된 Ada Lovelace 아키텍처 기반 GPU로, 영상 처리, AI 추론(inference), 가상 워크스테이션 및 그래픽 처리까지 폭넓은 워크로드에 대응할 수 있도록 설계되었다. 저전력(약 72 W) 설계 및 단일 슬롯/...) 태그: 시각 편집
  • 2025년 10월 24일 (금) 06:47엔비디아 A100 (역사 | 편집) ‎[4,079 바이트]인공무능 (토론 | 기여) (새 문서: '''NVIDIA A100'''(엔비디아 A100 Tensor Core GPU)은 엔비디아가 데이터센터 및 고성능 컴퓨팅(HPC) 및 인공지능(AI) 워크로드를 위해 설계한 최상위급 GPU 가속기이다. ==개요== NVIDIA A100은 2020년에 발표된 Ampere 아키텍처 기반의 데이터센터용 가속기로, 대형 모델 학습(training), 딥러닝 추론(inference), HPC 애플리케이션을 염두에 두고 설계되었다. 특히 대용량 메모리(HBM2/HBM2e), 고대...) 태그: 시각 편집
  • 2025년 10월 24일 (금) 06:46엔비디아 T4 (역사 | 편집) ‎[4,204 바이트]인공무능 (토론 | 기여) (새 문서: '''NVIDIA Tesla T4'''(엔비디아 T4, 코드명: Tesla T4)는 엔비디아가 데이터센터 및 클라우드 환경을 위해 설계한 저전력 고효율 GPU(그래픽 처리 장치)로, 딥러닝 추론(inference), 머신러닝, 가상화, 영상 처리 등에 사용된다. ==개요== NVIDIA T4는 2018년에 발표된 엔비디아의 Turing 아키텍처 기반 GPU로, 높은 연산 성능과 에너지 효율을 동시에 달성하기 위해 설계되었다. 특히 클라...) 태그: 시각 편집
  • 2025년 10월 23일 (목) 07:56DuQuant (역사 | 편집) ‎[5,336 바이트]인공무능 (토론 | 기여) (새 문서: '''DuQuant (Distributing Outliers via Dual Transformation)'''은 대형 언어 모델(LLM: Large Language Model)의 활성화 및 가중치 양자화 과정에서 특히 문제되는 아웃라이어(outlier) 값을 효과적으로 분산시켜 저비트 양자화 시 성능 손실을 최소화하는 회전(rotation) 및 순열(permutation) 기반 포스트 트레이닝 양자화(Post-Training Quantization, PTQ) 기법이다. ==개요== DuQuant는 활성화 내에 존재하는...) 태그: 시각 편집
  • 2025년 10월 23일 (목) 07:53QuaRot (역사 | 편집) ‎[6,229 바이트]인공무능 (토론 | 기여) (새 문서: '''QuaRot (Quantization via Rotations)'''은 대형 언어 모델(LLM: Large Language Model)의 모든 가중치(weights), 활성화(activations), KV 캐시(KV cache)를 4비트 수준으로 양자화하면서도 성능 저하를 최소화하도록 설계된 회전 기반 포스트 트레이닝 양자화(Post-Training Quantization, PTQ) 기법이다. ==배경 및 필요성== *전통적인 양자화 기법들은 가중치는 낮은 비트로 줄일 수 있어도, 모델의 활성...) 태그: 시각 편집
  • 2025년 10월 23일 (목) 04:54Wanda (역사 | 편집) ‎[36 바이트]인공무능 (토론 | 기여) (Wanda 가지치기 문서로 넘겨주기) 태그: 새 넘겨주기 시각 편집
  • 2025년 10월 23일 (목) 04:52저랭크 분해 (역사 | 편집) ‎[4,678 바이트]인공무능 (토론 | 기여) (새 문서: 저랭크 분해(低階分解, 영어: Low-Rank Decomposition)는 행렬이나 텐서 등의 데이터를 더 낮은 차원의 구성 요소로 표현하여 계산 효율을 높이고 데이터의 잠재 구조를 추출하는 기법이다. 이는 복잡한 고차원 데이터를 단순화하면서도 본질적인 정보는 유지하려는 수학적 방법이다. ==개요== 행렬 A ∈ ℝ^{m×n}이 있을 때, 그 랭크(rank)가 r(< m,n)인 근사 행렬 Ă를 찾아 A ≈...) 태그: 시각 편집
  • 2025년 10월 23일 (목) 04:50대형 언어 모델 효율화 (역사 | 편집) ‎[8,144 바이트]인공무능 (토론 | 기여) (새 문서: 본 문서는 대형 언어 모델(Large Language Model, LLM)의 저장 공간 및 연산 효율을 개선하기 위한 대표적 기법들을 정리한 것이다. 주요 방향은 '''양자화(Quantization)''', '''가지치기(Pruning)''', '''지식 증류(Knowledge Distillation)'''이며, LoRA, SmoothQuant, MoE 등 최신 기법들도 포함된다. ==양자화 (Quantization)== 모델의 가중치(weight)와 활성값(activation)을 부동소수(FP32) 대신 정수(INT8, INT...) 태그: 시각 편집
  • 2025년 10월 23일 (목) 04:15SmoothQuant (역사 | 편집) ‎[4,978 바이트]인공무능 (토론 | 기여) (새 문서: SmoothQuant(스무스퀀트, 영어: SmoothQuant)은 대규모 언어모델(LLM, Large Language Model)을 대상으로 한 사후(Post-Training) 양자화 기법으로, 정확도 손실을 최소화하면서 모델의 추론 속도와 메모리 효율을 향상시키는 방법이다. 이 기법은 2022년 구글 리서치(Google Research)와 MIT 공동 연구진이 발표한 논문 「SmoothQuant: Accurate and Efficient Post-Training Quantization for Large Language Models」에...) 태그: 시각 편집
  • 2025년 10월 23일 (목) 04:11ONNX (역사 | 편집) ‎[5,071 바이트]인공무능 (토론 | 기여) (새 문서: ONNX(Open Neural Network Exchange)은 다양한 머신러닝·딥러닝 프레임워크에서 학습된 모델을 프레임워크 간에 변환하고 배포할 수 있도록 설계된 오픈 표준 저장 포맷 및 중간 표현(IR, Intermediate Representation)이다. ==정의 및 개요== ONNX는 학습된 신경망 모델의 구조(그래프 형태), 연산자(operator) 정의, 가중치(weights), 메타데이터(metadata) 등을 하나의 파일로 기술하여, 다양한...) 태그: 시각 편집
  • 2025년 10월 23일 (목) 04:04신경망 저장 포맷 (역사 | 편집) ‎[7,198 바이트]인공무능 (토론 | 기여) (새 문서: 신경망 저장 포맷(Neural Network Storage Format)은 인공신경망이 학습된 모델의 구조(architecture), 가중치(weights), 옵티마이저 상태(optimizer state) 등을 디스크에 저장하고 나중에 불러와 재사용하거나 배포할 수 있도록 설계된 파일 형식 또는 규격이다. ==개요== 신경망 모델을 저장하고 불러오는 과정은 머신러닝·딥러닝 워크플로우에서 매우 중요한 부분으로, 학습이 완료된...) 태그: 시각 편집
  • 2025년 10월 23일 (목) 03:38Massive Activation (역사 | 편집) ‎[37 바이트]인공무능 (토론 | 기여) (과도한 활성값 문서로 넘겨주기) 태그: 새 넘겨주기 시각 편집
  • 2025년 10월 22일 (수) 05:48Saga 패턴 (역사 | 편집) ‎[6,322 바이트]Agiler (토론 | 기여) (새 문서: 사가 패턴(영어: Saga Pattern)은 마이크로서비스 아키텍처나 분산 시스템에서 여러 서비스에 걸친 다단계 트랜잭션을 관리하여 데이터 일관성을 확보하기 위한 설계 패턴이다. ==정의== 사가 패턴은 하나의 큰 트랜잭션을 여러 개의 로컬 트랜잭션으로 나누고, 각 로컬 트랜잭션이 자신의 데이터베이스를 업데이트한 뒤 다음 단계를 트리거하는 방식으로 실행된다. 만...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 05:30스프린트 리뷰 (역사 | 편집) ‎[3,246 바이트]Agiler (토론 | 기여) (새 문서: 스프린트 리뷰란 스프린트(반복작업) 종료 시점에 Scrum 팀이 완료한 작업을 이해관계자에게 공유하고 피드백을 받아 다음 작업 방향을 조정하기 위한 회의이다. ==정의== * 스프린트 리뷰는 스프린트 동안 팀이 달성한 산출물(인크리먼트)을 검토하고 향후 적응할 사항을 결정하기 위한 작업 회의이다. * 회의 참가자는 스크럼 팀과 제품 책임자(Product Owner), 스크럼...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 05:27스프린트 계획 (역사 | 편집) ‎[3,436 바이트]Agiler (토론 | 기여) (새 문서: 스프린트 계획(영어: Sprint Planning)은 스크럼 프레임워크에서 새 스프린트를 시작하기 전에 팀이 다가오는 스프린트 동안 무엇을 할지 그리고 어떻게 할지를 결정하는 회의이다. ==정의== 스프린트 계획은 스프린트 동안 수행할 작업을 설정하고, 팀이 스프린트 목표(Sprint Goal)에 도달하기 위해 일을 조직하는 이벤트이다. 회의에서는 제품 책임자(Product Owner)가 높은...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 05:12퍼펙트 스톰 (역사 | 편집) ‎[2,621 바이트]Agiler (토론 | 기여) (새 문서: 퍼펙트 스톰(영어: perfect storm)은 여러 악조건이 동시에 겹쳐 매우 심각하고 복합적인 위기 상황이 발생하는 현상을 비유적으로 이르는 표현이다. ==정의 및 어원== 퍼펙트 스톰이라는 표현은 다음과 같은 특징을 갖는다: *여러 개의 요인이 우연히 동시에 작용하여, 각각의 요인이 개별적으로 작용할 때보다 훨씬 강력하고 위험한 결과를 낳는 상황 *본래는 기상학 용...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 05:03DORA 메트릭 (역사 | 편집) ‎[4,861 바이트]Agiler (토론 | 기여) (새 문서: DevOps Research and Assessment 메트릭(영어: DORA Metrics)은 소프트웨어 개발 및 배포 효율성과 안정성을 측정하기 위해 고안된 지표 집합이다. 이 메트릭은 개발‑운영(DevOps) 문화 및 프로세스를 개선하고자 하는 조직들이 핵심 성과를 수치화할 수 있도록 설계되었다. * Four Key Metric이라고도 불리며 DevOps, CI/CD, SRE 분야에서는 거의 '''업계 공인 지표처럼 널리 사용된다.''' ==...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 04:54깃헙 액션 (역사 | 편집) ‎[32 바이트]Agiler (토론 | 기여) (GitHub Actions 문서로 넘겨주기) 태그: 새 넘겨주기 시각 편집
  • 2025년 10월 22일 (수) 04:03오케스트레이션 패턴 (역사 | 편집) ‎[5,683 바이트]Agiler (토론 | 기여) (새 문서: 오케스트레이션 패턴(영어: Orchestration Pattern)은 마이크로서비스 아키텍처에서 중앙 컨트롤러(오케스트레이터)가 전체 워크플로우를 제어하고, 각 서비스에 작업을 명령하여 전체 흐름을 관리하는 설계 방식이다. ==정의== 오케스트레이션 패턴은 여러 서비스가 협력하여 하나의 비즈니스 프로세스를 완성해야 할 때, 중앙의 오케스트레이터가 서비스 간 호출 순서,...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 04:00코레오그래피 패턴 (역사 | 편집) ‎[5,062 바이트]Agiler (토론 | 기여) (새 문서: 코레오그래피 패턴(영어: Choreography Pattern)은 마이크로서비스 아키텍처에서 각 서비스가 이벤트 기반으로 독립적으로 작동하며 전체 흐름을 자율적으로 구성하는 설계 패턴이다. ==정의== 코레오그래피 패턴은 여러 서비스가 비동기 이벤트 기반으로 상호작용하면서 워크플로우의 흐름을 중앙에서 제어하지 않고, 각 서비스가 자신의 책임을 수행하고 다음 서비스를...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 01:02마이크로서비스 아키텍처 (역사 | 편집) ‎[1,762 바이트]Agiler (토론 | 기여) (새 문서: 분류:소프트웨어 공학분류:기술사 기출 ;Microservice Architecture ;대용량 웹 기반 분산시스템에 주로 사용되는 아키텍처스타일로 SOA 사상을 기반으로 하여 서비스의 경량화 및 독립적 배치가 가능한 서비스 조합 아키텍처 * 아주 작은 단위로 동작하는 서비스가 구동되도록 시스템 및 소프트웨어의 구성과 구성요소 간의 관계를 정의 * 신속한 변경 가능(애자...)
  • 2025년 10월 22일 (수) 01:01클라우드 네이티브 인프라 (역사 | 편집) ‎[6,713 바이트]Agiler (토론 | 기여) (새 문서: '''클라우드 네이티브 인프라'''(영어: Cloud‑Native Infrastructure)은 클라우드 환경의 특성과 원칙을 인프라 설계 및 운영에 내재화한 인프라스트럭처 방식으로, 지속적 변화, 자동화, 확장성, 복원력(resilience)을 중심으로 설계된다. ==개념 및 정의== 클라우드 네이티브 인프라는 단순히 인프라를 클라우드에 올리는 것 이상이다. 이는 인프라가 다음과 같은 특성들을 갖추...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 00:5812 팩터 앱 (역사 | 편집) ‎[3,699 바이트]Agiler (토론 | 기여) (새 문서: '''12 팩터 앱'''(영어: The Twelve‑Factor App)은 클라우드 환경에서 서비스형 소프트웨어(SaaS)를 개발하고 운영할 때 이식성, 확장성, 유지보수성을 확보하기 위해 제안된 12가지 원칙이다. ==개요== 12‑Factor 앱 방법론은 2011년 Heroku 소속 개발자들이 정의하였으며, 클라우드 환경에서 애플리케이션을 일관되게 개발, 배포, 운영하기 위한 실천 지침으로 널리 사용된다. 이...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 00:48코드형 인프라 (역사 | 편집) ‎[4,903 바이트]Agiler (토론 | 기여) (새 문서: '''코드형 인프라'''(영어: Infrastructure as Code, IaC)는 서버, 네트워크, 운영체제, 데이터베이스, 스토리지 등 컴퓨팅 인프라를 수작업이 아닌 코드 정의 방식으로 관리하고, 이를 통해 자동화, 재현성, 일관성을 확보하는 인프라 운영 방식이다. ==개념== 코드형 인프라는 인프라스트럭처를 사람이 직접 설정하지 않고, 선언적 또는 명령형 코드 파일로 정의하고 실행함으...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 00:40서버는 반려동물이 아닌 가축 (역사 | 편집) ‎[4,464 바이트]Agiler (토론 | 기여) (새 문서: '''반려동물이 아닌 가축: 서버 인프라에서의 ‘Pets vs Cattle’ 은유'''(영어: Pets vs Cattle in IT / Servers as Cattle not Pets)은 서버 및 인프라 운영 방식에서 '''개별 서버를 특별히 애지중지하여 관리하는 방식'''(반려동물 Pets) 과 '''동일하게 대량으로 운영하고 문제가 생기면 교체 가능한 방식'''(가축 Cattle) 사이의 대비를 설명하는 은유이다. ==개념== *반려동물(Pets)...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 00:34테일러리즘 (역사 | 편집) ‎[5,365 바이트]Agiler (토론 | 기여) (새 문서: '''테일러주의(영어: Taylorism, 또는 과학적 관리법)'''은 20세기 초 프레더릭 윈즐로 테일러(Frederick Winslow Taylor)가 제시한 노동관리 및 생산관리 이론으로, 작업을 과학적으로 분석하고 시간 및 동작을 연구하여 노동자와 작업 방식의 표준화·최적화를 통해 생산성을 극대화하고자 하는 경영 패러다임이다. ==개념 및 의의== 테일러주의는 다음과 같은 기본 개념을...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 00:31회로 차단기 패턴 (소프트웨어 공학) (역사 | 편집) ‎[6,506 바이트]Agiler (토론 | 기여) (새 문서: 회로 차단기 패턴(영어: Circuit Breaker Pattern)은 분산 시스템이나 마이크로서비스 아키텍처에서 반복적인 호출 실패가 전체 시스템으로 전파되는 것을 방지하기 위해 해당 호출을 일시 차단하고 복구 시점을 제어하는 내결함성 설계 패턴이다. ==의도 및 목적== *호출 대상 서비스에 반복적인 실패가 발생할 때 호출을 계속 시도함으로써 호출자 또는 다른 종속 서비스...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 00:27몽키 테스트 (역사 | 편집) ‎[5,195 바이트]Agiler (토론 | 기여) (새 문서: '''몽키 테스트(소프트웨어 공학)'''(영어: Monkey Testing)은 테스트 케이스나 시나리오 없이 무작위 입력이나 사용자 이벤트를 애플리케이션에 가하여, 예기치 않은 오류나 충돌이 발생하는지를 탐색하는 소프트웨어 테스트 기법이다. ==개념== 몽키 테스트는 내부 구조나 상세 기능을 미리 고려하지 않고, 마치 원숭이가 무작위로 키를 누르거나 화면을 터치하듯이 시...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 00:03허영 지표 (역사 | 편집) ‎[4,836 바이트]Agiler (토론 | 기여) (새 문서: '''허영 지표(애자일)'''(영어: Vanity Metrics)은 애자일(Agile) 개발 및 프로젝트 관리에서 겉보기에는 긍정적인 성과처럼 보이지만, 실제로 팀이나 조직의 개선 활동이나 의사결정에 실질적인 도움을 주지 못하는 지표를 의미한다. ==개념== 허영 지표는 외형적으로 좋은 수치를 보여주지만, 그 결과가 행동이나 학습으로 이어지지 않는다는 점에서 문제로 지적된다. *측정...) 태그: 시각 편집
  • 2025년 10월 22일 (수) 00:02실행 가능한 지표 (애자일) (역사 | 편집) ‎[7,471 바이트]Agiler (토론 | 기여) (새 문서: '''실행 가능한 지표(애자일)'''(영어: Actionable Agile Metrics)은 애자일 개발 및 프로젝트 관리 방식에서 팀이나 조직이 실제로 조치를 취할 수 있도록 유도하는 측정 가능한 성과 지표이다. ==개념 및 목적== 애자일 방식에서는 반복(iteration)과 피드백(loop)을 통해 지속적으로 개선해 나가는 것이 핵심이다. 이때 단순히 ‘측정’만 하는 것이 아니라 그 지표가 '''실제로 팀...) 태그: 시각 편집
(최신 | 오래됨) (다음 50개 | ) (20 | 50 | 100 | 250 | 500) 보기