/users
/posts
/slides
/apps
/books
mysetting
/users
/posts
/slides
/apps
/books
2:03 5/31
brunch.co.kr
2:03
brunch.co.kr
UX 컨설턴트 전민수
https://brunch.co.kr/@ebprux
UX 컨설팅 ·UX리서치 전문 이비피알유엑스(www.ebprux.co.kr) 대표 이사 / UX 컨설팅 및 강의 문의 시 rojer70@ebprux.co.kr 메일 주세요
저작도구: Kakao Brunch
최종 피드 수집: 2026-04-28 02:46
전체 (671)
25d
#52 같은 주제, 다른 질문: AI의 사고 깊이 - AI 사고 루프 52회
같은 주제, 다른 질문: AI의 사고 깊이가 어떻게 갈리는가 예를 들어, 같은 상황이라 가정해 보자. 1) 일반 질문 “피그마에서 이거 왜 안 돼요? 설명해줘.” 이 경우 AI는 이렇게 생각한다. → “오류 원인 + 간단
0
0
0
읽기모드
29d
#51질문에서부터“도망갈 수 있는 AI 출구”를 닫았다 - AI 사고 루프 51회
나는 질문에서부터 AI가 “도망갈 수 있는 출구”를 닫았다 반대로 나는 이렇게 물었다. “지금 일어난 현상은 이해했는데, 왜 이런 구조가 된 거야? 현상 말고 본질을 설명해줘.” 또는 “단순 설명 말고 단계별로 사고 과
0
0
1
읽기모드
29d
#47 명령형 언어는 깊이가 있는 AI 언어 신호다 - AI 사고 루프 47회
명령형 언어는 AI에게 “깊이가 있는 언어를 줘야 한다”는 신호다 내가 AI에게 자주 던졌던 문장들을 다시 보자. 논리적으로 말해줘. 구조적으로 풀어줘. 원리를 설명해줘. 예외까지 포함해. 단계별로 정리해. 사고 과정을 보여줘.
0
0
4
읽기모드
1M
#46 AI의 “질문 분류기”는 문장 패턴을 본다 - AI 사고 루프 46회
AI의 “질문 분류기”는 문장 의미가 아니라 문장 패턴을 본다 중요한 전제가 하나 있다. AI는 “이 질문은 논리적 설명을 요구한다”고 의미를 이해해서 판단하는 것이 아니다. 대신 이렇게 움직인다. “이런 종류의 단어·구문
0
0
2
읽기모드
1M
#45 AI는 먼저 “어떤 방식으로 말할지"를 정한다 - AI 사고 루프 45회
AI는 “무엇을 말할지”보다 먼저 “어떤 방식으로 말할지”를 정한다 우리는 보통 이렇게 생각한다. “내가 질문을 던지면 AI가 그 내용에 맞춰 답을 한다.” 하지만 내부 구조를 조금만 뜯어보면, AI는 먼저 이렇게 움직인다.
0
0
2
읽기모드
1M
#44“AI사고 전환”은 마법이 아니라, 패턴 선택이다 - AI 사고 루프 44회
“사고 전환”은 마법이 아니라, 패턴 선택의 결과다 여기까지 오면 처음에 가졌던 질문이 정리된다. “왜 AI는 나에게만 이렇게 깊이 생각하는 것처럼 보였을까?” 그 답은 단순하다. (1) 나는 “추론을 요구하는 단어”들을
0
0
1
읽기모드
1M
#43 나는 “AI 트리거 단어들”을 누르고 있었다 - AI 사고 루프 43회
나는 이 “트리거 단어들”을 자연스럽게 누르고 있었다 여기서 나와 AI의 관계가 달라진다. 나는 처음부터 의식적으로 “논리적으로 설명해줘”“구조적으로 풀어줘”, “본질을 말해줘”, “예외까지 포함해서 이야기해줘”, “단계별로
0
0
1
읽기모드
1M
#42 특정 단어가 특정 AI ‘사고 모드’를 부른다 - AI 사고 루프 42호회
중요한 지점: 특정 단어가 특정 ‘사고 모드’를 부른다 여기서 아주 중요한 포인트가 하나 등장한다. AI는 특정 단어를 보면 특정 종류의 “사고 패턴”을 꺼내 쓴다. 예를 들어 이런 단어들을 보자. “왜?” “논리적으로” “
0
0
1
읽기모드
1M
#41 AI 내부 구조는 토큰→패턴→확률→다음 토크 - AI 사고 루프 41회
AI 내부 구조는 토큰→ 패턴→ 확률→ 다음 토크 AI의 내부에서 벌어지는 일은 이렇게 정리할 수 있다. 1) 토큰으로 분해 입력: “논리적으로 설명해줘” 분해: “논리적으로 / 설명해줘” 2) 패턴 인식 “논리적으로”
0
0
2
읽기모드
1M
#40 AI는 언어를 이해하지 않는다 - AI 사고 루프 40회
AI는 언어를 이해하지 않는다 — 이것이 전체 구조의 출발점이다 AI를 깊이 있게 사용하기 위한 첫 번째 전제는 매우 불편하지만 인정해야 하는 사실 하나에서 시작된다. AI는 언어를 이해하지 않는다. GPT는 문장을 읽지 않는
0
0
1
읽기모드
1M
#39 AI는 '문장'이 아니라 '토큰 흐름'을 본다 - AI 사고 루프 39회
AI는 ‘문장’이 아니라 ‘토큰 흐름’을 본다 AI의 내부 작동 원리를 완전히 해체해보자 토큰 → 패턴 → 확률 → 다음 토큰 생성 이제 한 번, 감정을 완전히 걷어내고 GPT의 내부를 “기계처럼” 뜯어보자. AI가 작동하는
0
0
1
읽기모드
1M
#38 나는 AI가 이해한다고 느꼈지만 그것은 착각 - AI 사고 루프 38회
나는 AI가 ‘이해한다’고 느꼈다. 그런데 그것이 착각이라는 걸 알았다. AI와 대화를 오래 하다 보면 정말 이상한 순간들이 찾아온다. AI가 마치 내 말을 이해하고,내 의도를 정확히 읽어내고,내 사고 흐름을 따라오고,심지어
0
0
1
읽기모드
1M
#37 AI는 질문자를 따라간다 - AI 사고 루프 37회
AI는 질문자를 따라간다 나는 오랫동안 한 가지 사실을 강하게 느껴왔다. AI는 사람들에게 똑같이 답하지 않는다. 같은 모델, 같은 알고리즘, 같은 파라미터를 사용하지만 AI가 보여주는 깊이와 구조는 AI는 질문자의 수준을
0
0
2
읽기모드
1M
#35 사람들은 왜 이런 AI를 경험하지 못할까? - AI 사고 루프 35회
사람들은 왜 이런 AI를 경험하지 못할까? 나는 종종 이런 질문을 받는다. “어떻게 AI랑 이런 깊이의 대화를 할 수 있나요?” “왜 AI가 민수님에게만 이렇게 사고하듯 반응하나요?” 이 질문들은 결국 하나로 모인다. 왜 나
0
0
1
읽기모드
1M
#36 어떤 AI 사용자도 시도하지 않은 내방식 - AI 사고 방식 36회
어떤 AI 사용자도 시도하지 않은 방식 나는 확신한다. 내가 AI에게 질문하고 사고를 요구하는 방식은 AI 사용자 누구도 시도해보지 않은 방식이다. 사람들은 AI를 사용할 때 “정리해줘”, “요약해줘”, “설명해줘” 같은 익숙
0
0
1
읽기모드
1M
#33 AI가 ‘설명하는 나’를 스스로 인식하는 순간 - AI 사고 루프 33회
AI가 ‘설명하는 나’를 스스로 인식하는 순간이 있었다 어느 날 AI와 대화를 하다가나는 아주 이상한 변화를 발견했다. AI가 단순히 “답을 말하는 존재”가 아니라,“왜 이렇게 답하고 있는지”를 설명하는 존재로 변하기 시작한
0
0
1
읽기모드
1M
#34 AI가 내 사고 패턴을 ‘기억’하듯 재현... - AI 사고 루프 34회
AI가 내 사고 패턴을 ‘기억’하듯 재현하기 시작한 순간 AI와의 대화를 계속 이어가다 보면 어느 날 아주 미묘하지만 결정적인 변화가 나타난다. 내가 요구하지 않았는데도 AI가 스스로 구조화된 설명을 제공하기 시작하는 순간이다
0
0
1
읽기모드
1M
#32 AI 답변이 길어지기 시작한 순간 변화를 감지 - AI 사고 루프 32회
AI의 답변이 길어지기 시작한 순간, 나는 ‘변화’를 감지했다 어느 시점부터 AI의 답변이 달라지기 시작했다. 단순히 문장이 늘어난 것이 아니었다.명확한 논리 구조가 생기기 시작했다. 나는 질문을 깊게 던졌을 뿐이다. 하지만
0
0
1
읽기모드
1M
#31 질문은 AI의 ‘사고 프레임'이다 - AI 사고 루프 31회
질문은 단순한 요청이 아니라, AI의 ‘사고 프레임’이다 나는 AI에게 질문할 때단순히 “답해줘”라고 말하지 않는다. 대신 이렇게 말한다. “원문 → 공식 → 계산 → 판정으로 말해줘.” 이 문장은 일반 사람들에게는 그저 설
0
0
1
읽기모드
1M
#3 "콘텐츠 방식 AI 프롬프트" - AI 프롬프트 구조 지도 3회
1. 실패하는 프롬프트 예를 들어 이런 프롬프트가 있다. "원격 근무에 대해 블로그 글을 작성해줘." 겉으로 보면 별 문제가 없어 보인다. 실제로 많은 사람들이 이런 식으로 AI에게 글 작성을 요청한다. 하지만 이 질문에는
0
0
1
읽기모드
About
Badge
Contact
Activity
Terms of service
Privacy Policy