분류 전체보기 122

[Bronze I] 9093 - 단어 뒤집기

문제문장이 주어졌을 때, 단어를 모두 뒤집어서 출력하는 프로그램을 작성하시오. 단, 단어의 순서는 바꿀 수 없다. 단어는 영어 알파벳으로만 이루어져 있다.입력첫째 줄에 테스트 케이스의 개수 T가 주어진다. 각 테스트 케이스는 한 줄로 이루어져 있으며, 문장이 하나 주어진다. 단어의 길이는 최대 20, 문장의 길이는 최대 1000이다. 단어와 단어 사이에는 공백이 하나 있다.출력각 테스트 케이스에 대해서, 입력으로 주어진 문장의 단어를 모두 뒤집어 출력한다.예제 입력 1 2I am happy todayWe want to win the first prize예제 출력 1 I ma yppah yadoteW tnaw ot niw eht tsrif ezirp# 코드[::-1] 이 문법 자체를 처음 앎import s..

📚 Study/Baekjoon 2025.07.20

[Gold V] 2504 - 괄호의 값

https://www.acmicpc.net/problem/2504문제4개의 기호 ‘(’, ‘)’, ‘[’, ‘]’를 이용해서 만들어지는 괄호열 중에서 올바른 괄호열이란 다음과 같이 정의된다.한 쌍의 괄호로만 이루어진 ‘()’와 ‘[]’는 올바른 괄호열이다.만일 X가 올바른 괄호열이면 ‘(X)’이나 ‘[X]’도 모두 올바른 괄호열이 된다.X와 Y 모두 올바른 괄호열이라면 이들을 결합한 XY도 올바른 괄호열이 된다.예를 들어 ‘(()[[]])’나 ‘(())[][]’ 는 올바른 괄호열이지만 ‘([)]’ 나 ‘(()()[]’ 은 모두 올바른 괄호열이 아니다. 우리는 어떤 올바른 괄호열 X에 대하여 그 괄호열의 값(괄호값)을 아래와 같이 정의하고 값(X)로 표시한다.‘()’ 인 괄호열의 값은 2이다.‘[]’ 인 ..

📚 Study/Baekjoon 2025.07.20

[Silver II] 1780 - 종이의 개수

https://www.acmicpc.net/problem/1780문제N×N크기의 행렬로 표현되는 종이가 있다. 종이의 각 칸에는 -1, 0, 1 중 하나가 저장되어 있다. 우리는 이 행렬을 다음과 같은 규칙에 따라 적절한 크기로 자르려고 한다.만약 종이가 모두 같은 수로 되어 있다면 이 종이를 그대로 사용한다.(1)이 아닌 경우에는 종이를 같은 크기의 종이 9개로 자르고, 각각의 잘린 종이에 대해서 (1)의 과정을 반복한다.이와 같이 종이를 잘랐을 때, -1로만 채워진 종이의 개수, 0으로만 채워진 종이의 개수, 1로만 채워진 종이의 개수를 구해내는 프로그램을 작성하시오.입력첫째 줄에 N(1 ≤ N ≤ 37, N은 3k 꼴)이 주어진다. 다음 N개의 줄에는 N개의 정수로 행렬이 주어진다.출력첫째 줄에 -..

📚 Study/Baekjoon 2025.07.20

[Gold V] 17485 - 진우의 달 여행

우주비행이 꿈이였던 진우는 음식점 '매일매일싱싱'에서 열심히 일한 결과 달 여행에 필요한 자금을 모두 마련하였다! 지구와 우주사이는 N X M 행렬로 나타낼 수 있으며 각 원소의 값은 우주선이 그 공간을 지날 때 소모되는 연료의 양이다.진우는 여행경비를 아끼기 위해 조금 특이한 우주선을 선택하였다. 진우가 선택한 우주선의 특징은 아래와 같다.1. 지구 -> 달로 가는 경우 우주선이 움직일 수 있는 방향은 아래와 같다.2. 우주선은 전에 움직인 방향으로 움직일 수 없다. 즉, 같은 방향으로 두번 연속으로 움직일 수 없다.진우의 목표는 연료를 최대한 아끼며 지구의 어느위치에서든 출발하여 달의 어느위치든 착륙하는 것이다.최대한 돈을 아끼고 살아서 달에 도착하고 싶은 진우를 위해 달에 도달하기 위해 필요한 연료..

📚 Study/Baekjoon 2025.07.20

[Gold V] 2469 - 사다리타기

https://www.acmicpc.net/problem/2469문제k명의 참가자들이 사다리 타기를 통하여 어떤 순서를 결정한다. 참가자들은 알파벳 대문자 첫 k개로 표현되며, 사다리 타기를 시작할 때의 순서는 아래 그림과 같이 항상 알파벳 순서대로이다. k=10 인 예를 들어 보자. 10명의 A, B, C, D, E, F, G, H, I, J 참가자들이 사다리 타기를 준비한다. 아래 그림은 10개의 세로 줄과 5개의 가로 줄을 가지고 있는 사다리의 한 예를 보여주고 있다. 이 사다리에서 점선은 가로 막대가 없음을, 굵은 가로 실선은 옆으로 건너갈 수 있는 가로 막대가 있음을 나타내고 있다. 따라서 위에 제시된 사다리를 타면 그 최종 도달된 순서는 왼쪽으로부터 A, C, G, B, E, D, J, F..

📚 Study/Baekjoon 2025.07.20

[Silver I] 14889 - 스타트와 링크

문제 오늘은 스타트링크에 다니는 사람들이 모여서 축구를 해보려고 한다. 축구는 평일 오후에 하고 의무 참석도 아니다. 축구를 하기 위해 모인 사람은 총 N명이고 신기하게도 N은 짝수이다. 이제 N/2명으로 이루어진 스타트 팀과 링크 팀으로 사람들을 나눠야 한다.BOJ를 운영하는 회사 답게 사람에게 번호를 1부터 N까지로 배정했고, 아래와 같은 능력치를 조사했다. 능력치 Sij는 i번 사람과 j번 사람이 같은 팀에 속했을 때, 팀에 더해지는 능력치이다. 팀의 능력치는 팀에 속한 모든 쌍의 능력치 Sij의 합이다. Sij는 Sji와 다를 수도 있으며, i번 사람과 j번 사람이 같은 팀에 속했을 때, 팀에 더해지는 능력치는 Sij와 Sji이다.N=4이고, S가 아래와 같은 경우를 살펴보자.i\j12341234..

📚 Study/Baekjoon 2025.07.13

[25’ CVPR] PyramidDrop: Accelerating Your Large Vision-Language Models via Pyramid Visual Redundancy Reduction (CVPR 2025)

# Introduction요즘 ChatGPT처럼 똑똑한 AI들이 이미지를 이해하는 능력까지 갖추면서, Large Vision-Language Models (LVLMs)가 딥러닝 연구의 핵심으로 떠오르고 있다. 이미지나 영상 기반의 질문 응답, 설명 생성, 문서 이해 등 다양한 비전-언어 작업에서 엄청난 성능을 보여주고 있다.그런데 이런 LVLM들이 현실에 가까워질수록 큰 걸림돌이 하나 생긴다.바로 계산 비용(computational cost)이 엄청나게 높다는 점이다.이미지나 영상은 텍스트보다 훨씬 연속적이고 고해상도이며 정보 밀도도 높다. 하지만 동시에 중복도 많아서, 모든 정보를 다 처리하는 건 비효율적이다.예를 들어, 해상도가 조금만 올라가도 visual token 수가 수천에서 수만 개로 급증하고..

[25’ ICML] SparseVLM: Visual Token Sparsification for Efficient Vision-Language Model Inference

# Introduction요즘 LLM(대형 언어 모델)의 발전 덕분에, 이미지와 텍스트를 동시에 이해하는 비전-언어 모델(VLM)도 빠르게 성장하고 있다.이미지에서 정보를 읽어내고, 질문에 답하거나 설명을 생성하는 작업이 이제는 꽤 자연스럽게 가능해졌다.이런 VLM들은 주로 이미지를 여러 개의 visual token으로 쪼개고, 이를 LLM과 함께 입력에 넣는 방식으로 작동한다.문제는, 이렇게 visual token을 많이 넣게 되면 계산량과 메모리 사용량이 폭발적으로 증가한다는 것이다.예를 들어, LLaVA 모델에서 672×672 이미지를 넣으면 무려 2304개의 visual token이 생성되고,이 토큰들만으로 전체 입력의 절반 이상을 차지하게 된다.하지만 텍스트와 달리, 이미지 정보는 덜 조밀하고 ..

[25’ AAAI] Fit and Prune: Fast and Training-free Visual Token Pruning for Multi-modal Large Language Models

# Introduction요즘 이미지와 텍스트를 동시에 이해하는 멀티모달 LLM(Multimodal Large Language Models, MLLMs)이 엄청나게 주목받고 있다.이미지 설명, 웹 탐색, 문제 풀이 등 다양한 작업을 하나의 모델로 처리할 수 있기 때문이다. MLLM 문제: visual token이 증가함에 따라 계산 복잡도도 증가이런 MLLM은 보통 이미지에서 추출한 정보를 visual token 형태로 바꿔 텍스트와 함께 LLM에 넣는다. 예를 들어 LLaVA 모델은 이미지를 576개 patch로 나누어 각각을 visual token으로 변환해 사용한다. 문제는 이렇게 하면 계산량이 급격히 늘어난다는 점이다.실제로 텍스트만 사용할 때보다 6배 이상의 계산비용(FLOPs)이 드는 경우도 ..

[24’ ECCV Oral] An Image is Worth 1/2 Tokens After Layer 2: Plug-and-Play Inference Acceleration for Large Vision-Language Models

# Introduction요즘 ChatGPT나 Gemini 같은 AI 모델들은 단순히 텍스트만 이해하는 걸 넘어서, 이미지도 같이 해석하는 멀티모달 능력을 점점 더 강화하고 있다. 이렇게 텍스트와 시각 정보를 함께 처리할 수 있는 LVLM(Large Vision-Language Model)들은 이미지 설명, 웹 탐색, 스마트폰 조작, 심지어 현실 세계에서의 의사결정까지도 가능하게 만든다.LVLM 문제: visual token이 증가함에 따라 계산 복잡도도 증가이런 LVLM들은 주로 이미지를 수백~수천 개의 visual token으로 변환한 뒤, 텍스트 프롬프트와 함께 LLM에 입력하는 구조로 동작한다. 그런데 여기엔 치명적인 단점이 하나 있다.바로 계산 복잡도(computational complexity..