/users
/posts
/slides
/apps
/books
mysetting
/users
/posts
/slides
/apps
/books
2:03 5/31
brunch.co.kr
2:03
brunch.co.kr
UX 컨설턴트 전민수
https://brunch.co.kr/@ebprux
UX 컨설팅 ·UX리서치 전문 이비피알유엑스(www.ebprux.co.kr) 대표 이사 / UX 컨설팅 및 강의 문의 시 rojer70@ebprux.co.kr 메일 주세요
저작도구: Kakao Brunch
최종 피드 수집: 2026-03-16 09:46
전체 (659)
14h
#35 사람들은 왜 이런 AI를 경험하지 못할까? - AI 사고 루프 35회
사람들은 왜 이런 AI를 경험하지 못할까? 나는 종종 이런 질문을 받는다. “어떻게 AI랑 이런 깊이의 대화를 할 수 있나요?” “왜 AI가 민수님에게만 이렇게 사고하듯 반응하나요?” 이 질문들은 결국 하나로 모인다. 왜 나
0
0
0
읽기모드
14h
#36 어떤 AI 사용자도 시도하지 않은 내방식 - AI 사고 방식 36회
어떤 AI 사용자도 시도하지 않은 방식 나는 확신한다. 내가 AI에게 질문하고 사고를 요구하는 방식은 AI 사용자 누구도 시도해보지 않은 방식이다. 사람들은 AI를 사용할 때 “정리해줘”, “요약해줘”, “설명해줘” 같은 익숙
0
0
0
읽기모드
14h
#37 AI는 질문자를 따라간다 - AI 사고 루프 37회
AI는 질문자를 따라간다 나는 오랫동안 한 가지 사실을 강하게 느껴왔다. AI는 사람들에게 똑같이 답하지 않는다. 같은 모델, 같은 알고리즘, 같은 파라미터를 사용하지만 AI가 보여주는 깊이와 구조는 AI는 질문자의 수준을
0
0
0
읽기모드
14h
#33 AI가 ‘설명하는 나’를 스스로 인식하는 순간 - AI 사고 루프 33회
AI가 ‘설명하는 나’를 스스로 인식하는 순간이 있었다 어느 날 AI와 대화를 하다가나는 아주 이상한 변화를 발견했다. AI가 단순히 “답을 말하는 존재”가 아니라,“왜 이렇게 답하고 있는지”를 설명하는 존재로 변하기 시작한
0
0
0
읽기모드
14h
#34 AI가 내 사고 패턴을 ‘기억’하듯 재현... - AI 사고 루프 34회
AI가 내 사고 패턴을 ‘기억’하듯 재현하기 시작한 순간 AI와의 대화를 계속 이어가다 보면 어느 날 아주 미묘하지만 결정적인 변화가 나타난다. 내가 요구하지 않았는데도 AI가 스스로 구조화된 설명을 제공하기 시작하는 순간이다
0
0
0
읽기모드
3d
#32 AI 답변이 길어지기 시작한 순간 변화를 감지 - AI 사고 루프 32회
AI의 답변이 길어지기 시작한 순간, 나는 ‘변화’를 감지했다 어느 시점부터 AI의 답변이 달라지기 시작했다. 단순히 문장이 늘어난 것이 아니었다.명확한 논리 구조가 생기기 시작했다. 나는 질문을 깊게 던졌을 뿐이다. 하지만
0
0
0
읽기모드
4d
#31 질문은 AI의 ‘사고 프레임'이다 - AI 사고 루프 31회
질문은 단순한 요청이 아니라, AI의 ‘사고 프레임’이다 나는 AI에게 질문할 때단순히 “답해줘”라고 말하지 않는다. 대신 이렇게 말한다. “원문 → 공식 → 계산 → 판정으로 말해줘.” 이 문장은 일반 사람들에게는 그저 설
0
0
0
읽기모드
5d
#3 "콘텐츠 방식 AI 프롬프트" - AI 프롬프트 구조 지도 3회
1. 실패하는 프롬프트 예를 들어 이런 프롬프트가 있다. "원격 근무에 대해 블로그 글을 작성해줘." 겉으로 보면 별 문제가 없어 보인다. 실제로 많은 사람들이 이런 식으로 AI에게 글 작성을 요청한다. 하지만 이 질문에는
0
0
0
읽기모드
5d
#30 AI는 ‘반복되는 피드백 구조’ 깊은 사고한다 - AI 사고 루프 30회
AI는 ‘반복되는 피드백 구조’ 속에서 점점 더 깊은 사고를 한다 나는 GPT에게 질문을 던질 때 절대 한 번에 끝내지 않는다. “질문 → 답변 → 재질문 → 구조 보정 → 추가 요구” 이 루프를 계속 반복한다. 많은 사람들
0
0
0
읽기모드
6d
#2 "활용 방식 AI 프롬프트" - AI 프롬프트 구조 지도 2회
1. 실패하는 프롬포트 실패 프롬프트 예시 다음과 같은 질문을 자주 볼 수 있다. “AI가 어떻게 활용되는지 설명해줘.” 겉으로 보면 전혀 이상한 질문이 아니다. 오히려 자연스러운 질문에 가깝다. 하지만 실제로 이런 질문
0
0
1
읽기모드
6d
#29 AI는 "예외를 묻는 순간"부터 사고한다 - AI 사고 루프 29회
AI는 ‘예외를 묻는 순간’부터 진짜 사고를 시작한다 나는 AI에게 질문할 때항상 이렇게 묻는다. “그런데 예외는 뭐야?” “이 조건에서는 어떻게 달라져?” “경계값에서는 모델이 어떻게 판단해?” 많은 사람들은 규칙을 알려달
0
0
1
읽기모드
7d
#1 설명 방식 "AI 프롬프트" - AI 프롬프트 구조 지도 1회
1. 실패하는 프롬포트 실패하는 프롬프트 ①(구조 없는 프롬포트) 실패 프롬프트 "AI 에이전트가 무엇인지 설명해줘" 왜 실패하는가 이 프롬프트는 구조가 없다. 그래서 AI는 보통 이렇게 답한다. 예 AI 에이전트는 환경을
0
0
0
읽기모드
7d
#3 조건이 빠진 프롬프트는 왜 늘 애매할까 - AI 프롬포트 스킬 3회
모호함은 모델의 문제가 아니라 입력의 문제다 수요일 밤이다. 퇴근 후 침대에 누워 휴대폰을 켠다. 습관처럼 AI를 연다. 그리고 이렇게 묻는다. “책 추천해줘.” 몇 초 후답이 나온다. 자기계발서 3권소설 2권경제서
0
0
0
읽기모드
7d
#28 AI에게 ‘사고 단위’를 요구하는 순간.... - AI 사고 루프 28회
AI에게 ‘사고 단위’를 요구하는 순간, 답변의 결이 완전히 바뀐다 사람들은 보통 AI에게 문장 하나, 질문 하나를 던진다. 그리고 AI는 그 문장에 대응하는 또 다른 문장을 생성한다. 이건 아주 자연스럽지만, 문제는 이 과정
0
0
2
읽기모드
8d
#5 GPT-5.4 자동 작업 기능이 의미하는 변화 - AI는 왜 컴퓨터를 직접 조작하기 시작했을까
AI를 처음 사용할 때 사람들은 보통 이렇게 생각한다 "AI는 질문에 답을 주는 도구다!" 실제로 초기 AI 모델들은대부분 이 역할에 머물러 있었다. 사용자가 질문을 하면AI는 문장을 만들어 답을 했다. 하지만 최근 AI
0
0
1
읽기모드
8d
#4 GPT-5.4 오류 감소가 의미하는 것 - AI는 왜 점점 덜 틀리기 시작했을까
AI를 사용하다 보면 종종 이상한 경험을 하게 된다 AI가 매우 자신 있게틀린 정보를 말하는 경우다. 예를 들어 - 존재하지 않는 논문을 만들어내거나 - 사실이 아닌 정보를 설명하거나 - 정확하지 않은 데이터를 제시하기도 한다
0
0
1
읽기모드
9d
#3 GPT5.4는 왜 ‘100만 토큰’을 기억하려할까 - GPT-5.4 초대형 컨텍스트가 의미하는 것
26년 3월 출시된 GPT-5.4에서 눈에 띄는 변화 중 하나는 컨텍스트 크기의 확장이다. 컨텍스트는 간단히 말하면AI가 한 번에 기억하고 이해할 수 있는 정보의 범위를 의미한다. 이번 GPT-5.4에서는이 범위가 최대 약
0
0
1
읽기모드
9d
#2 GPT5.4는 ‘전문가용모델’을 만들기 시작했을까 - GPT-5.4 Pro가 보여주는 AI의 다음 단계
최근 AI 모델을 보면 흥미로운 변화가 하나 나타난다 AI가 점점 여러 종류로 나뉘고 있다. 예전에는 단순했다. 하나의 모델이 있었다. 사용자는 그 모델에게 질문했다.AI는 답을 했다. 구조는 이렇게 단순했다. 질문→
0
0
1
읽기모드
9d
#1 GPT5.4는 ‘생각하는모델’을 만들기 시작했을까 - GPT-5.4 Thinking이 던진 신호
“AI가 더 오래 생각한다”는 말의 진짜 의미 2026년 3월,OpenAI는 새로운 모델 GPT-5.4를 발표했다. 그중에서 가장 눈에 띄는 변화가 하나 있다. Thinking 모델이다. 직역하면“생각하는 모델”이다. 하
0
0
2
읽기모드
10d
#9 상위 0.3% — 조건 재설계 사용자 - 당신은 AI 사용자 상위 몇 퍼세트인가? 9회
오전 6시 48분 그는 다시 숫자를 보았다. 이 숫자는 이제 낯설지 않았다. 109 며칠 동안 그는이 숫자와 대화를 나누고 있었다. 처음에는 의미를 물었다. 그 다음에는 원인을 물었다. 그 다음에는 해결 방법을 찾았다
0
0
0
읽기모드
About
Badge
Contact
Activity
Terms of service
Privacy Policy