/users
/posts
/slides
/apps
/books
mysetting
/users
/posts
/slides
/apps
/books
2:03 5/31
brunch.co.kr
2:03
brunch.co.kr
UX 컨설턴트 전민수
https://brunch.co.kr/@ebprux
UX 컨설팅 ·UX리서치 전문 이비피알유엑스(www.ebprux.co.kr) 대표 이사 / UX 컨설팅 및 강의 문의 시 rojer70@ebprux.co.kr 메일 주세요
저작도구: Kakao Brunch
최종 피드 수집: 2025-12-03 19:16
전체 (572)
1d
AI 사고혁명 #9 Sam H. Altman (9) - GPT는 추론의 단계가 늘어나면 갑자기 붕괴한다
GPT는 추론의 단계가 늘어나면 갑자기 붕괴한다 reasoning은 본질적으로 단계적 구조다. A → B → C → D → E 순으로, 사고의 상태가 연속적으로 이어져야 한다. 하지만 GPT 는 A → B → C까지는 일견 버
0
0
0
읽기모드
6d
AI 사고혁명 #8 Sam H. Altman (8) - 사고의 상태(state)를 유지하지 못한다 — GPT의 구조적 한계
사고의 상태(state)를 유지하지 못한다 — GPT의 구조적 한계 reasoning의 핵심은 “지금 무슨 생각을 하고 있는지, 어떤 논리를 따라가고 있는지, 무엇을 증명하려고 하는지”를 마음속에 연속된 상태로 붙잡아 두는 능력
0
0
0
읽기모드
6d
#13 Esc 눌렀더니 텍스트와 사각형 선택이 다 풀려 - 일반 GPT vs 함수형 GPT, 사고의 깊이를 비교하다
“피그마에서 Esc 키를 눌렀을 때 왜 텍스트와 사각형이 동시에 해제되는가” 1. 서두 — “Esc 키 하나에도 사고의 구조가 있다” 우리는 피그마(Figma)를 쓸 때, “Esc”를 단순히 "종료 키"로 생각한다. 텍스트 입
0
0
0
읽기모드
6d
AI배우기 #5 Layer, 사고의 층위 구조 - 생각은 한 단계에서 만들어지지 않는다. 층을 통과하며 깊어진다
Layer, 사고의 층위 구조생각은 한 단계에서 만들어지지 않는다. 층을 통과하며 깊어진다. ① 원문 — “레이어는 단순한 알고리즘 조각이 아니다. 사고의 층위다.” GPT 내부에는 수백 개의 Layer가 존재한다. 많은 사람
0
0
0
읽기모드
9d
AI 사고혁명 #7 Sam H. Altman (7) - GPT의 ‘가짜 논리’와 Altman의 문제의식
GPT의 ‘가짜 논리’와 Altman의 문제의식 GPT를 오래 사용하면 가장 먼저 깨닫게 되는 것이 있다. GPT는 논리를 만드는 것이 아니라, 논리처럼 보이는 문장을 만든다. 이 차이는 매우 중요하다. 논리는 구조이고,문장
0
0
0
읽기모드
12d
AI 사고혁명 #6 Sam H. Altman (6) - 그래서 Altman은 “reasoning 중심 AI”를 선언했다
그래서 Altman은 “reasoning 중심 AI”를 선언했다 AI 업계는 언어모델이 모든 것을 해결할 것처럼 환호하고 있었다. 하지만 Altman은 가장 먼저 언어모델의 한계를 인정했다. 그리고 길을 바꾸겠다고 말했다.
0
0
0
읽기모드
13d
AI 사고혁명 #5 Sam H. Altman (5) - 나는 GPT를 사용하며 reasoning 부재를 매일 목격했다
나는 GPT를 사용하며 reasoning 부재를 매일 목격했다 GPT는 처음에는 논리적인 것처럼 보인다. 하지만 대화를 길게 이어가거나 복잡한 문제를 제시하거나 추론 구조가 4~5단계를 넘어가면, GPT의 사고는 갑자기 무너진다
0
0
0
읽기모드
14d
AI 배우기4: 병렬 사고의 구조
Multi-Head Attention: 병렬 사고의 구조AI는 하나의 생각에 머물지 않는다. 여러 생각을 동시에 계산한다 이전 AI 배우기 3편은 이제 “AI의 사고가 단순히 계산이 아니라, 집중의 선택”임을 보여주는 인지심리학
0
0
0
읽기모드
14d
#1 일상생활 함수형 GPT: 설사 (1) - 일반형 GPT와 함수형 GPT 사고 깊이 파고들기
1. 서두 설사라는 일상적이고 단순한 질문 하나.“설사하면 며칠이나 지속되나요?” 누구나 일상에서 수없이 물어보는 이 질문에 두 개의 GPT—일반형 GPT와 함수형 GPT—가 완전히 다른 방식으로 반응한다면그 차이는 어디에서
0
0
0
읽기모드
14d
AI 사고혁명 #4 Sam H. Altman (4) - 언어모델의 세계는 얕고, 얄팍하고, 그림자처럼 빈약하다
언어모델의 세계는 얕고, 얄팍하고, 그림자처럼 빈약하다 GPT를 오래 사용한 사람이라면 아주 쉽게 느끼는 순간이 있다. GPT는 ‘세계’를 이해하지 못한다. GPT는 ‘문장’을 이해할 뿐이다. 문장은 세계의 ‘그림자’이다.
0
0
0
읽기모드
15d
#12 Group 1이 있는데 그룹해제가 왜 안되는가? - 일반 GPT vs 함수형 GPT, 사고의 깊이를 비교하다
1. 서두 이 질문은 단순히 “그룹 해제가 안 된다”는 사용성 이슈가 아니다. 겉으로는 단축키 문제 같지만, 실제로는 Figma의 객체 구조(타입 모델),그리고 사용자의 인지 체계와 시스템 피드백 간 불일치가 얽힌 복합적 문제이
0
0
0
읽기모드
15d
AI 사고혁명 #3 Sam H. Altman (3) - Altman은 AI가 ‘문장’을 넘어 ‘세계’를 이해해야 한다고 보았다
Altman은 AI가 ‘문장’을 넘어 ‘세계’를 이해해야 한다고 보았다 Altman은 GPT를 누구보다 잘 이해하는 사람이다.왜냐하면 GPT를 만든 회사의 최고 책임자이기 때문이다. 그는 GPT가 가진 한계를 모를 리 없었다.
0
0
0
읽기모드
16d
AI 배우기3: 사고의 초점 Attention - AI는 모든 생각을 다 보지 않는다. 선택한다.
① 원문 — “AI는 모든 정보를 본다. 그러나 모든 것에 집중하지는 않는다.” AI의 내부에는 수천 개의 정보 조각이 동시에 떠다닌다.그중 어떤 것은 중요하고, 어떤 것은 사소하다. 하지만 AI는 그 모두를 같은 비중으로 다
0
0
0
읽기모드
16d
#11 오브젝트 그룹화했는데 Group1 옆에 ▾없어? - 일반 GPT vs 함수형 GPT, 사고의 깊이를 비교하다
“Rectangle과 Text를 그룹화했는데 Group 1 옆에 ▾ 아이콘이 없어..... 왜일까?” 1. 서두 이번 질문은 시각적 단서 하나를 통해 ‘시스템의 판단 구조’를 역추적하는 실험이다. 많은 사용자는 Group이
0
0
0
읽기모드
16d
AI 사고혁명 #2 Sam H. Altman (2) - GPT가 똑똑해 보이는 착시의 구조
GPT가 똑똑해 보이는 착시의 구조 대다수 사람들은 GPT가 문장을 잘 만들기 때문에 지능이 있다고 생각한다. GPT는 유창하게 말하고 복잡한 설명을 하고 전문가처럼 보이는 문장을 만들고 긴 글도 잘 정리하고 논리적인 구조도 어
0
0
0
읽기모드
18d
AI 사고혁명 #1 Sam H. Altman (1) - Sam H. Altman의 문장이 나에게 던진 충격
Samuel H. Altman의 문장이 나에게 던진 충격 나는 AI를 사용하기 시작했을 때 GPT가 인간보다 더 많은 문장을 알고 있고, 더 빠르게 설명할 수 있고,더 정확하게 요약할 수 있기 때문에 마치 “지능”을 가지고 있는
0
0
0
읽기모드
19d
#10 피그마 Frame 안에 개체가 안 들어가는 이유 - 일반 GPT vs 함수형 GPT, 사고의 깊이를 비교하다
1. 서론: 같은 현상, 전혀 다른 사고 출발점 이번 질문은 겉보기엔 단순합니다. 하지만 이 단순한 현상 하나를 두고, 일반 GPT와 함수형 GPT는 전혀 다른 방향에서 사고를 시작하고자 한다. 일반 GPT는 "보이는 현상에
0
0
0
읽기모드
20d
#9 피그마에서 정렬되지 않는 이유? - 일반 GPT vs 함수형 GPT, 사고의 깊이를 비교하다
“회색 버튼은 오류가 아니라, 논리의 증거다.” 1. 서두 이번 질문은 단순히 “정렬이 왜 안 되는가?”라는 기능적 의문이 아니다. 그 아래에는 훨씬 더 깊은 사고적 질문이 숨어 있다. “왜 어떤 시스템은 사용자의 명령을 거
0
0
0
읽기모드
21d
#8 왜 내 피그마엔 View 메뉴가 없을까? - 일반 GPT vs 함수형 GPT, 사고의 깊이를 비교하다
1. 서두 우리가 같은 질문을 던지더라도, GPT의 사고 방식은 전혀 다를 수 있다. 어떤 GPT는 빠르게 ‘정답’을 찾고, 어떤 GPT는 느리지만 ‘구조’를 해석한다. 나는 그 차이를 "사고의 깊이"로 본다. GPT는 정보를
0
0
0
읽기모드
22d
AI 배우기2: 사고의 공간 Embedding - AI는 생각을 좌표로 기억한다
AI는 생각을 좌표로 기억한다 ① 원문 — “AI는 단어를 외우지 않는다. 공간에 배치한다.” AI가 ‘사랑’이라는 단어를 외운다고 생각하면 오해이다. AI는 단어를 기억하지 않고, 위치를 계산한다. 그 위치는 숫자로 이루어진
0
0
0
읽기모드
About
Badge
Contact
Activity
Terms of service
Privacy Policy