디시인사이드 갤러리

마이너 갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

[정보] MoD: 트랜스포머 기반 언어 모델 최적화를 위한 접근법

ㅇㅇ(182.230) 2024.04.07 21:59:03
조회 1222 추천 20 댓글 8
														
https://arxiv.org/abs/2404.02258


Jamba 4나 Qwen1.5-MoE 4, 또는 DBRX 3 등과 같이 여러 '전문가' 블록들 중 하나 이상을 선택하여 입력 token의 처리를 진행하는 MoE(Mixture-of-Experts) 방법이 최근들어 많이 사용되고 있습니다. 이러한 MoE 방식은 방대한 LLM 중 일부를 동적으로 조절하여 연산 자원을 효율적으로 할당하면서 더 나은 성능을 보이고 있습니다.

이렇게 MoE가 여러 전문가들 중 일부를 선택하는 방식으로 '모델의 폭(width)'을 동적으로 조절했다면, 이번에 소개하는 MoD(Mixture-of-Depth)는 '모델의 깊이(depth)'를 동적으로 조절하는 접근 방식을 취하고 있습니다. 즉, 특정 토큰에 대해서 모델의 전체 레이어에 대해서 연산을 하지 않고, 일부 레이어들을 건너뛰는 방식으로 동적으로 연산을 하는 것입니다.


MoD(Mixture-of-Depths): Transformer 기반 언어 모델 연산 최적화를 위한 접근법

소개
전통적으로, 트랜스포머 모델은 입력 시퀀스의 모든 부분에 동일한 계산 자원을 할당합니다. 하지만 이번에 소개하는 MoD(Mixture-of-Depth) Transformer 논문은 Trnasformer의 특정 시퀀스 위치에 컴퓨트 자원을 동적으로 할당하고, 다른 레이어를 통해 할당을 변화시키는 시도를 합니다. 이러한 Mixture-of-Depths(MoD) 전략을 사용하기 위해 저자들은 어떤 토큰을 처리할지 결정하기 위해 top-k 라우팅 메커니즘을 사용하여 전체 연산량을 관리합니다. 이 기술은 기존 모델의 성능에 필적하거나 뛰어나면서도, 훨씬 적은 FLOPs를 요구하며, 학습 후 샘플링 동안 최대 50%의 속도 향상을 제공합니다.

74bf8271b7d76bfe68e686e21781223c6fb9014ebe6cac47a88b12bbb7bbbdcd5aa7512c323f8288a30463aee45f10dc52703be71c6993b5


Attention is All You Need 논문에 소개된 Transformer 구조


최근의 트랜스포머 모델과 LLM(Large Language Model)은 그 규모와 복잡성이 지속적으로 증가하고 있습니다. 이러한 모델들은 인간 수준의 언어 이해와 생성 능력에 접근하기 위해 수십억 개의 파라미터를 활용하며, 그 결과로 놀라운 성능을 보여주고 있습니다. 그러나, 이러한 발전에는 상당한 계산 비용과 에너지 소비가 수반되며, 모델 규모의 증가는 학습과 추론 시간을 급격히 증가시킵니다.


이는 Transformer가 입력 시퀀스의 모든 토큰에 대해서 동일한 양의 연산을 수행하고 있기 때문입니다. 하지만, 어떤 토큰은 문맥 이해에 있어 핵심적인 역할을 하지만 어떤 토큰은 상대적으로 덜 중요하는 등, 모든 토큰들이 동등한 양의 정보를 제공하지 않을 수 있다는 아이디어에서 출발을 합니다.


MoD Transformer는 각 토큰에 대해 동적으로 계산을 할당함으로써, 모델이 필요한 곳에 자원을 집중시킬 수 있게 합니다. 이는 모델의 전체적인 연산 비용을 줄이는 동시에, 중요한 토큰에 더 많은 주의를 기울임으로써 정보 처리의 효율성을 높일 수 있게 됩니다. 특히, LLM과 같은 대규모 모델에서 MoD의 접근 방식은 학습과 추론 과정에서의 시간과 자원을 절약할 수 있는 중요한 방법이 될 수 있습니다.


MoD(Mixture-of-Depths) 기법 소개
MoD 기법은 트랜스포머 레이어의 각각에서 어떤 토큰을 처리할지 동적으로 선택하는 top-k 라우팅 메커니즘을 통합합니다. 이를 통해 선택된 일부 토큰들만 전체 연산 과정을 거치며, 다른 토큰들은 레이어(들)을 건너뛰게 됩니다.

7bbed327e4d16ba33aed85e34084223c95d3a5c6601b682215016824c8a7e1031922a7463dd0d0f440336b28441e80d894e10a4e60d88a


그림1 / 좌측: MoD(Mixture-of-Depths) Transformer 개요: MoE(Mixture-of-Experts) 구조와 유사하게 라우터를 통해 연산 경로를 선택합니다. 이 때, MoE와는 다르게 표준 블럭(Self-Attention 및 MLP)을 연산할지 말지를 결정하게 됩니다. 이 때 입력 토큰이 라우터의 결정에 따라 전체 연산을 활성화하지 않는 경우, 해당 레이어의 연산을 거치지 않게 됩니다.
그림 1 / 우측: 64개 토큰으로 축소된 짧은 시퀀스에 대한 라우팅 결정 결과입니다. (X축: 시퀀스, Y축: 레이어) 보라색은 해당 레이어의 연산을 모두 진행하였으며, 주황색은 해당 레이어의 연산을 건너뛴 것입니다.

위 그림의 설명과 같이, MoD는 트랜스포머 아키텍처 내에 예측 라우터를 구현하여 각 토큰마다 레이어 연산의 진행 여부를 결정합니다. 이를 통해 연산 자원을 상대적으로 "중요한" 토큰에 집중할 수 있습니다.

MoD Transformer의 학습
MoD 트랜스포머의 학습 과정은 기본적으로 표준 트랜스포머와 유사합니다. 입력 시퀀스는 모델에 공급되고, 각 레이어를 통해 전달되면서 필요한 계산이 수행됩니다. 그러나 MoD 트랜스포머는 라우터를 통해 각 토큰이 어떤 계산 경로를 따를지 결정하는 추가적인 단계를 포함합니다.

1. 라우터 가중치 계산: 라우터는 모델의 각 레이어에서 각 토큰에 대한 가중치를 계산합니다. 이 가중치는 해당 토큰이 받아야 할 계산의 양을 나타내며, 토큰의 중요성에 기반합니다.

2. 상위 ? 토큰 선택: 라우터는 계산된 가중치를 기반으로, 각 레이어에 대해 상위 ?개의 토큰을 선택합니다. 이 토큰들은 전체 계산을 수행하는 경로로 안내됩니다.

3. 연산 경로 할당: 선택된 토큰은 표준 계산(Self-Attention 및 MLP)을 수행하는 경로로 할당됩니다. 나머지 토큰은 잔여 연결을 통해 전달되어, 추가 계산 없이 다음 레이어로 넘어갑니다.

4. 손실 계산 및 역전파: 모델의 출력이 최종 손실 함수를 통해 평가되고, 그래디언트가 모델을 통해 역전파되어 가중치를 업데이트합니다. 이 과정에서 라우터도 학습되어, 시간이 지남에 따라 더 효율적인 라우팅 결정을 내릴 수 있습니다.

MoD Transformer의 라우팅 .방식 (Routing Schemes)


2fe98075b08b3ef268e984e243d72764701a943a0f9f0ca643372932f88587c8c6cacaf22936656e79e3d9fc6dcc27fac55af45271c852


라우팅 구현은 MoD Transformer의 핵심적인 부분입니다. 저자들은 3가지 라우팅 .방식을 비교하여 Expert-Choice MoD 방식의 토큰 라우팅이 가장 나은 성능을 보이는 것을 확인하였습니다. 소개된 다른 라우팅 .방식들과의 비교를 해보겠습니다:


토큰 선택(Token-choice) 라우팅

토큰 선택 라우팅에서는 각 토큰이 자신이 거칠 경로를 스스로 선택합니다. 모델은 각 토큰에 대해 다양한 계산 경로(예: 다른 레이어 또는 처리 블록)에 대한 확률 분포를 생성하고, 이 분포에 따라 토큰을 해당 경로로 전달합니다.


토큰 선택 라우팅은 각 토큰이 가장 적합한 계산 경로를 선택할 수 있어, 매우 유연한 라우팅이 가능합니다. 또한, 모델이 각 토큰의 중요도나 문맥을 더 정밀하게 고려할 수 있어, 개별 토큰에 최적화가 가능합니다.


전문가 선택(Expert-choice) 라우팅

전문가 선택 라우팅에서는 모델이 각 경로(또는 "전문가")가 처리할 토큰을 직접 선택합니다. 이는 각 토큰의 라우터 가중치를 기반으로 상위 ?개의 토큰을 선별하는 top-? 메커니즘을 사용하여 이루어집니다.


이렇게 전문가 선택 라우팅을 하게 되면 토큰이 각 경로에 균등하게 분배될 수 있어, 연산 부하가 균형있게 분산되므로 모델의 연산 자원을 보다 효율적으로 활용할 수 있습니다. 또한, 상위 ?개의 토큰이 명확하게 결정되므로, 모델의 예측 가능성과 안정성이 향상됩니다.


전문가 선택 MoD(Expert-choice MoD)

전문가 선택 MoD는 전문가 선택 라우팅의 개념을 MoD 트랜스포머의 구조에 적용한 것입니다. 이 방식에서는 모델이 각 레이어 또는 처리 단계에 대해 상위 ?개의 토큰을 선택하고, 선택된 토큰만이 계산을 수행하는 경로를 따라 처리됩니다. 나머지 토큰은 잔여 연결을 통해 비용이 적게 드는 경로를 따릅니다.


이러한 방식은 선택된 토큰만이 계산을 수행하므로, 전체 모델의 FLOP 사용량이 크게 감소합니다. 또한, 중요한 토큰에 대해서는 전체 레이어에 대한 연산을 보장하면서도, 불필요한 연산은 최소화하여 모델의 성능을 유지하거나 향상시킬 수 있습니다. 마지막으로 라우터를 통한 동적 라우팅을 통해 모델이 입력 시퀀스의 특성에 따라 계산 자원을 유동적으로 할당할 수 있는 장점이 있습니다.


라우팅 구현 방식

라우팅의 구현은 다음 3가지 주요 단게를 통해 가능합니다:


1. 토큰 임베딩과 라우터 가중치 결정: 모델의 각 레이어에 대해, 주어진 시퀀스의 토큰 임베딩 집합이 있습니다. 각 토큰 임베딩에 대해서, 라우터는 선형 변환을 통해 해당 토큰이 연산에 참여할 가능성을 나타내는 스칼라 가중치를 계산합니다.


2. 상위 ? 가중치 결정: 토큰의 라우터 가중치 집합 R에서 β번째 가중치의 백분위 확률 Pβ을 찾습니다. 이 때 β는 모델이 각 레이어에서 처리할 토큰의 비율을 결정합니다. 따라서 라우터 가중치가 Pβ보다 큰 토큰이 연산에 참여하게 됩니다.


3. 연산 경로 선택: 각 토큰은 라우터 가중치 r과 비교하여 Pβ보다 크거나 같으면 해당 레이어의 연산을 처리하며, 작으면 다음 레이어로 직접 전달됩니다. 이를 통해 선택된 토큰에 대해서만 계산을 수행하고, 나머지 토큰은 계산 비용을 발생시키지 않는 경로를 따라 처리할 수 있게 됩니다.


이러한 라우팅 구현 시 다음과 같은 내용을 핵심적으로 고려해야 합니다:


🌑 가중치에 기반한 동적 결정: 라우팅 과정은 각 토큰의 가중치를 기반으로 동적으로 결정되며, 이는 토큰의 중요도를 반영합니다. 중요한 토큰은 더 많은 계산을 받아 모델의 성능을 최적화하는 반면, 덜 중요한 토큰은 잔여 경로를 통해 비용을 절감합니다.


🌑 계산 효율성과 성능 최적화: 이러한 라우팅 메커니즘을 통해 MoD 트랜스포머는 계산 자원을 효율적으로 사용하면서도, 모델의 성능을 유지하거나 향상시킬 수 있습니다. 특히, 계산 비용이 높은 레이어에서 중요한 토큰만을 처리함으로써 전체적인 FLOP 사용량을 줄일 수 있습니다.


🌑 구현의 단순성과 효율성: 라우팅은 선형 변환과 백분위수 계산을 통해 구현되므로, 상대적으로 단순하며 효율적입니다. 이는 모델 학습과 추론 과정에서 계산 부담을 추가하지 않으면서도, 계산 자원의 동적 할당을 가능하게 합니다.


MoD Transformer의 동작 예시

지금까지 살펴본 내용에 따라 MoD Transformer의 동작을 예시를 통해 설명하겠습니다.


예를 들어, 입력 시퀀스에 100개의 토큰이 있고, 라우터가 ?를 10으로 설정했다고 가정해 봅시다. 이 경우, 각 레이어에서 라우터는 가장 중요한 10개의 토큰을 선택하고, 이 토큰들만이 표준 계산 경로를 따라 처리됩니다.


나머지 90개의 토큰은 계산을 건너뛰고, 잔여 연결을 통해 다음 레이어로 직접 전달됩니다. 이 과정을 통해, MoD 트랜스포머는 전체 FLOP 사용량을 줄이면서도 중요한 토큰에 대해 필요한 계산을 보장합니다.


MoD Transformer의 성능 비교


학습 성능


79e4d27fbcd13ca038efd5e44e8227380c29bdf9c34c3a61b36479d2146f69de7c0b9978c75ab5dfa9f0bbc6352e43a07bcd3c3a79fb07d4


하이퍼파라미터 최적화: 12.5% 용량 라우팅 블록을 전체 주의(attention) 블록과 교차하여 배치한 MoD 트랜스포머 변형을 학습시키는 실험을 통해, 최적의 하이퍼파라미터 설정을 찾았습니다. 이 설정은 isoFLOP 분석에서 최적 기준선보다 더 나은 성능을 제공했습니다.


7de98420b3803dfe3fbdd2e14280273b42056008a6a120caaf965bd2de5609396040d478d23b69eb7cba056fbc25d87a69644df9c81f3833


계산 효율성: 특정 MoD 변형은 기존 모델 대비 더 적은 FLOP으로 동일한 성능을 달성하면서, 66% 더 빠른 처리 속도를 보였습니다.


라우팅 분석


7de98774e3806fa439ef86e04784226b745efb48c54e74e3eff6dceddcf70c5b4ba2a23b2185935dc46a075573489f943608d3194b30e4


라우팅 결정의 희소성: 12.5% 용량(capacity) 라우팅을 사용함으로써, 대부분의 토큰은 블록을 우회하고 소수의 중요한 토큰만이 블록을 통과했습니다. 이는 라우터 가중치 분포에서도 확인할 수 있으며, 네트워크는 깊이에 따라 특정 토큰을 선호하여 라우팅하기도 했습니다.


추론 성능


7ab88223b7873ba36bec85b115842764e17e044f83ac5a11d02bfcf7366f911581370b9604e3ecf5a476c0996f2f74205f576133b81efd81


자동 회귀 추론: 학습 시 비인과적(non-causal) top-? 라우팅 스킴에서 추론 시 인과적(causal) 예측 기반 접근법으로 전환하였을 때, 성능 저하가 거의 없었습니다. 이는 해당 예측 문제의 학습이 쉽고, 학습 초기부터 97% 이상의 정확도를 달성했기 때문으로 보입니다.


Mixture-of-Depths-and-Experts(MoDE) = MoD + MoE


29ed8970b58a61a53ebcd2ec138927397a3f7702814de7bf715514730b1bea885e02d42913377f90a37c58d3a1a38cf21aeed1ae4ba5f796


MoDE(Mixture-of-Depths-and-Experts)는 MoD(Mixture-of-Depths) 기법과 MoE(Mixture of Experts) 기법의 통합을 의미합니다. 이 방식은 두 가지 접근 방식의 장점을 결합하여, 트랜스포머 모델의 계산 효율성과 성능을 동시에 최적화하는 데 목적이 있습니다. MoD 방식이 각 토큰에 대해 더 깊이 또는 덜 깊이 계산을 수행하도록 선택하는 반면, MoE 방식은 다양한 "전문가" 중에서 가장 적합한 전문가를 통해 토큰을 처리합니다. MoDE는 이 두 가지 접근 방식을 통합하여, 토큰이 특정 블록을 건너뛰거나 선택적으로 더 깊은 계산을 수행할 수 있게 함과 동시에, 다양한 전문가 중에서 최적의 처리 방식을 선택할 수 있도록 합니다.


MoDE의 구현 방식

MoDE는 두 가지 주요 구현 방식을 가집니다: 단계적(Staged) MoDE통합된(Integrated) MoDE.


1. Staged MoDE(단계적 MoDE): 단계적 MoDE는 먼저 MoD 기법을 적용하여 각 토큰의 계산 경로를 결정하고, 그 다음에 MoE 기법을 적용하여 선택된 경로에서 처리될 토큰을 각각의 전문가 블록으로 라우팅합니다. 이렇게 하면, 모델은 먼저 계산의 깊이를 조절한 후, 각 단계에서 최적의 전문가를 선택할 수 있습니다.


2. Integrated MoDE(통합된 MoDE): 통합된 MoDE는 MoD와 MoE 기법을 하나의 라우팅 단계에서 통합하여 구현합니다. 즉, 토큰을 라우팅할 때 한 번의 결정으로 계산 경로의 깊이와 처리할 전문가를 동시에 선택합니다. 이 방식은 구현이 더 단순하고 효율적일 수 있으며, 토큰마다 가장 적합한 계산 경로와 전문가를 동시에 결정할 수 있는 장점이 있습니다.


MoDE의 장점


🌑 계산 효율성: MoDE는 토큰마다 필요한 계산의 양과 처리할 전문가를 동적으로 결정함으로써, 모델의 전체적인 계산 비용을 효과적으로 관리합니다.


🌑 성능 최적화: 각 토큰을 가장 적합한 계산 경로와 전문가에 할당함으로써, MoDE는 모델의 성능을 최대화합니다. 이는 특히 복잡한 문제를 해결하거나 다양한 종류의 데이터를 처리할 때 유용할 수 있습니다.


🌑 유연성과 확장성: MoDE는 다양한 모델 구조와 태스크에 적용될 수 있는 유연성을 제공하며, 모델의 계산 효율성과 성능을 동시에 향상시킬 수 있는 확장 가능한 프레임워크를 제공합니다.


MoDE는 트랜스포머 모델의 미래 발전 방향을 제시하며, 계산 비용을 최소화하면서도 모델의 성능을 극대화하는 방법을 탐색하는 연구에 중요한 기여를 합니다.

자동등록방지

추천 비추천

20

고정닉 10

댓글 영역

전체 댓글 0
등록순정렬 기준선택
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 말머리 제목 글쓴이 작성일 조회 추천
2861 설문 어떤 상황이 닥쳐도 지갑 절대 안 열 것 같은 스타는? 운영자 24/05/20 - -
412470 공지 레이 커즈와일 신간 6월 25일 발매 [29] 모브갤로그로 이동합니다. 24.01.24 7145 32
242613 공지 특갤 통합 공지 / 댓글 신고,문의 / 차단 해제 요청 [2970] 특갤용갤로그로 이동합니다. 23.08.06 38319 43
433260 공지 웬만하면 신문고에 문의 해주시면 차단 풀어드립니다 [1] 부패하는유전자!!!갤로그로 이동합니다. 24.03.06 2302 2
363220 공지 선형글 삭제 기준 [6] 특갤용갤로그로 이동합니다. 23.10.14 6963 24
375493 공지 필독) 유입 특붕이를 위한 AI 정보글 모음 (01/23) [40] ㅇㅇ(182.230) 23.11.11 12952 122
373402 공지 직업 비하, 조롱 글 30일 차단됩니다. [51] 특갤용갤로그로 이동합니다. 23.11.07 8682 79
385147 공지 구글의 AGI 분류 체계 [17] ㅇㅇ갤로그로 이동합니다. 23.11.22 8038 31
332612 공지 음모론 삭제 기준을 안내드립니다. [23] 특갤용갤로그로 이동합니다. 23.08.25 8903 30
259237 공지 특갤 용어 모음집 [6] 특갤용갤로그로 이동합니다. 23.08.09 22410 33
479353 일반 난 이제와서 Ai활용이나 영어공부? 다 의미없다고 봄 [1] ㅇㅇ(221.155) 19:35 15 0
479352 일반 어 멎더 오늘 마소 발표잖아 ㅇㅇ갤로그로 이동합니다. 19:34 12 0
479351 일반 이번 마소 존나 큰거옴 [1] ㅇㅇ(223.62) 19:32 37 0
479350 일반 4o 코딩 게이새끼 이거 ㅇㅇ(61.73) 19:32 21 0
479349 일반 ㅋㅋ 특이점 전까지 인생은 그냥 악몽이네 [1] ㅇㅇ갤로그로 이동합니다. 19:31 43 0
479348 일반 공부로 성공할 수 있는 문이 갈수록 줄어들고있음 [2] 테이리갤로그로 이동합니다. 19:30 49 3
479347 일반 내가 정치인들을 못 믿는 이유 l'k;'l;'l;'l;'l(121.178) 19:30 11 0
479346 일반 역설적으로 AI시대라서 독서가 더 중요해진거같음. [2] ㅇㅇ(61.97) 19:28 37 0
479345 일반 오늘 큰거온다 갤러리 ㄱㄴ? [1] ㅇㅇ(119.196) 19:27 39 0
479344 일반 그냥 저음의 떨림있는 알트만 목소리로 하면 안되나? [2] ㅇㅇ(218.147) 19:27 47 0
479343 일반 상업적으로 성공한 소설쓰려면 agi 와야함? [8] ㅇㅇ(114.199) 19:26 35 0
479342 일반 우리가 OpenAI를 밀어주는덴 이유가 있음 [2] ㅇㅇ(118.36) 19:26 43 3
479341 일반 ms copilot은 gpt-4o 오디오 모델 맞는듯? ㅇㅇ갤로그로 이동합니다. 19:25 28 0
479340 일반 지금 자본주의는 솔직히 고장난듯 [5] ㅇㅇ(112.147) 19:21 107 0
479339 일반 ai로 지적수준 평준화되면 학벌은 더 중요해짐 [3] ㅇㅇ(211.184) 19:18 94 1
479337 일반 gpt로........ 자비스 비서 만들어봄 [1] ㅇㅇ(121.159) 19:14 99 1
479336 일반 요즘 뭐만 하면 권위에 호소하는 오류 들먹이던데 [10] ㅇㅇ(211.184) 19:13 109 0
479335 일반 빨리 특이점 와서 병신 같은 정치인들 좀 그만 보고 싶다 [6] TS망상갤로그로 이동합니다. 19:08 140 6
479333 일반 지금 gpt무료가 4o임? [8] ㅇㅇ(110.15) 19:00 134 0
479332 일반 공대는 반도체, 베터리쪽이 오래남아있지 않을까 [2] ㅇㅇ(121.159) 19:00 68 0
479331 정보 이리나 리쉬의 베팅 [4] 선갤러(125.191) 18:59 140 0
479330 일반 새벽에큰거오지않냐 [3] ㅇㅇ(14.53) 18:58 101 0
479329 일반 워터마크 강제로 달아도 어도비 툴로 쓱 그으면 없어짐 [2] ㅇㅇ(221.155) 18:58 114 0
479328 일반 사만다 쓰려고 오픈컴2 샀다 ㅇㅇ(117.111) 18:57 48 0
479327 일반 지듣노 [2] ㅇㅇ(118.235) 18:57 26 0
479326 일반 그냥 미국한테 다 미드오픈 하면 안되나 [6] ㅇㅇ(211.197) 18:57 110 0
479325 일반 레커가 죽는게 빠를까 특이점 오는게 빠를까 [3] ㅇㅇ(121.159) 18:56 54 0
479324 일반 요염슨 목소리 사용한거 오히려 이득인데? [4] 123123갤로그로 이동합니다. 18:55 151 2
479323 일반 ㅋㅋㅋ 오픈ai 스칼렛요한슨 목소리썼다가 고소먹었네 [3] ㅏㅓ(106.102) 18:52 148 0
479321 일반 얘들은 내가 누구다 이걸 여과없이 믿어버리네ㅋㅋㅋㅋ [6] ㅇㅇ(118.235) 18:48 185 2
479320 일반 이번에 3.5도 많이 업데이트 된듯 ㅇㅇ(211.226) 18:43 91 0
479319 일반 근데 gpt4o 음성 출시연기된거임? [1] ㅇㅇ(223.39) 18:41 91 0
479318 일반 워터마크 반드시 달아야지 [1] ㅇㅇ(119.201) 18:41 96 0
479317 일반 백인들한테 암내가 그렇게 난다더라 [8] ㅇㅇ(117.20) 18:40 186 1
479316 일반 gpt4o 한테 내 커다란 육봉사진 학슥시키는중 [3] ㅇㅇ(211.197) 18:39 201 0
479315 일반 이 특붕이 말이 맞는듯 [5] 테이리갤로그로 이동합니다. 18:37 223 1
479314 일반 지피티한테 파킨슨병 치료확률 물어봤는데 [14] ㅇㅇ(58.126) 18:35 163 0
479313 일반 gpt2도 한만두는 모르네 [1] ㅇㅇ(121.159) 18:33 112 0
479312 일반 디시 좀 끊고싶다 [7] ㅇㅇ(118.235) 18:31 111 0
479311 일반 지금 코딩용도로는 뭐가 더 좋음? [1] ㅇㅇ(122.153) 18:29 54 0
479310 일반 특이점 오면 다들 백인으로 바뀔듯 [6] ㅇㅇ(220.65) 18:27 148 0
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

뉴스

디시미디어

디시이슈

1/2