
AI 도구를 하나씩 따로 켜서 써야 한다는 생각이 틀렸다면 믿으시겠습니까? 저도 한동안은 챗GPT로 글 쓰고, 검색창에서 자료 찾고, 캘린더에 직접 일정 박고, 메일은 또 따로 확인하는 식으로 살았습니다. AI가 좋긴 한데 막상 쓰려면 한 번 더 마음먹어야 했고, 그러다 보니 결국 익숙한 방식으로 돌아가곤 했습니다. 그런데 제미나이를 제대로 써보고 나서 생각이 완전히 바뀌었습니다. 제 경험상 AI를 잘 쓴다는 건 가장 똑똑한 모델을 아는 게 아니라, 흐름이 끊기지 않는 환경을 만드는 거였습니다.
따로 노는 AI는 결국 안 쓰게 된다
처음 AI를 접했을 때 저는 챗GPT 하나면 충분하다고 생각했습니다. 실제로 답변 품질도 좋았고, 초안 작성에도 큰 도움이 됐습니다. 그런데 문제는 그다음이었습니다. 자료를 찾으려면 다시 검색창을 열어야 했고, 일정을 잡으려면 구글 캘린더로 넘어가야 했고, 메일 확인은 또 별개였습니다. AI가 아무리 똑똑해도 제 작업 환경과 붙어 있지 않으니 결국 "가끔 쓰는 편리한 도구" 수준에 머물렀습니다.
여기서 말하는 작업 환경이란 제가 실제로 시간을 보내는 공간, 즉 메일함·문서 작성 툴·캘린더·검색 기록 같은 것들을 의미합니다. 쉽게 말해 내가 하루 종일 왔다 갔다 하는 앱들이 AI와 자연스럽게 연결되지 않으면, AI는 그냥 따로 놀게 됩니다. 저도 한동안 AI를 "필요할 때만 켜는 별도 앱"처럼 썼고, 그러다 보니 점점 손이 안 가더군요. 생각해 보면 사람은 한 번 흐름이 끊기면 다시 집중하는 데 시간을 씁니다. AI가 진짜 가치를 발휘하려면 그 흐름 안에 자연스럽게 녹아들어야 합니다.
제미나이의 가장 큰 강점은 바로 구글 생태계와의 연동입니다. 독스(Docs), Gmail, 캘린더, 유튜브, 지도까지 제가 이미 쓰고 있던 도구들이 제미나이 채팅창 안에서 한 번에 움직입니다. 예를 들어 저는 최근 유튜브 콘텐츠를 준비하면서 제미나이에게 "지난주에 작성한 독스 파일에서 결론 부분만 복사해 줘"라고 요청했습니다. 그랬더니 제미나이가 직접 파일을 찾아서 해당 부분만 추출해 줬습니다(출처: Google Workspace). 앱을 왔다 갔다 할 필요가 전혀 없었습니다. 이런 경험을 하고 나니 AI를 쓴다는 게 숙제가 아니라 자연스러운 작업 흐름의 일부로 느껴지기 시작했습니다.
딥 리서치는 검색이 아니라 분석이다
저는 콘텐츠를 기획할 때 항상 자료 수집 단계에서 시간을 많이 썼습니다. 검색 결과는 넘쳐나는데 정작 무엇이 핵심인지, 최신 흐름이 무엇인지 정리하는 데 에너지가 다 빠졌습니다. 그래서 자료는 많이 모았지만 기획은 급하게 마무리하는 경우가 잦았습니다. 제미나이의 딥 리서치(Deep Research) 모드를 처음 써봤을 때 이 문제가 크게 줄었습니다.
딥 리서치란 단순히 검색 결과를 긁어오는 게 아니라, AI가 여러 출처를 교차 검증하고 체계적으로 분석해서 보고서 형태로 정리해 주는 기능입니다. 쉽게 말해 인터넷을 대충 훑는 게 아니라, 제대로 연구해서 핵심만 추려 준다는 뜻입니다. 저는 40~50대를 위한 AI 활용법이라는 주제로 영상을 준비하면서 "40대, 50대 남성들이 AI를 사용하며 가장 어려워하는 현실적인 문제점 세 가지와 그들이 가장 원하는 AI 활용 분야를 최신 뉴스 및 커뮤니티 데이터를 기반으로 심층 분석하고, 각 활용 분야별로 주목받는 AI 툴을 2025년 기준으로 세 개씩 추천해 줘"라고 요청했습니다.
결과는 예상보다 훨씬 날카로웠습니다. 단순히 "AI가 어렵다"는 뻔한 답이 아니라, 구체적으로 어떤 지점에서 막히는지, 어떤 분야에 관심이 쏠리는지, 어떤 도구가 실제로 쓰이고 있는지까지 정리돼 있었습니다. 이 정도면 기획의 절반은 끝난 셈이었습니다. 예전에는 자료를 찾는 데 시간을 썼다면, 지금은 정리된 정보를 보고 어떤 방향으로 가져갈지 판단하는 데 에너지를 쓸 수 있게 됐습니다. 이 차이가 생각보다 컸습니다. 자료 수집 자체가 덜 지치니까 창의적인 판단에 집중할 여유가 생긴 거죠.
리서치 결과를 텍스트로만 받으면 영상 자료로 쓰기엔 딱딱합니다. 제미나이는 이 부분도 해결해 줍니다. 리서치 결과 위에 있는 "만들기" 버튼을 클릭하면 인포그래픽, 웹페이지, 오디오 오버뷰 같은 형식으로 자동 변환됩니다. 저는 인포그래픽을 선택했고, 빽빽한 텍스트 리포트가 한눈에 들어오는 시각 자료로 바뀌었습니다. 이런 식으로 정보를 소비하기 쉬운 형태로 빠르게 가공할 수 있다는 점이 실무에서 꽤 유용했습니다.
작업 흐름 안에서 모든 앱이 움직인다
제미나이의 진짜 차별점은 구글 워크스페이스(Google Workspace) 연동입니다. 워크스페이스란 구글이 제공하는 생산성 도구 묶음으로, 독스·시트·Gmail·캘린더·드라이브 등이 포함됩니다(출처: Google Cloud). 쉽게 말해 제가 이미 쓰고 있던 문서 작성·메일·일정 관리 도구들이 제미나이와 바로 연결된다는 뜻입니다.
예를 들어 저는 제미나이 채팅창에서 "독스를 켜고 지난번에 썼던 AI 시트카 설계도 파일을 찾아서 결론 부분만 복사해 줘"라고 요청했습니다. 그랬더니 제미나이가 직접 파일을 찾아서 해당 부분만 추출해 줬습니다. 앱을 따로 열 필요가 없었습니다. Gmail도 마찬가지입니다. "최근에 유튜브에서 온 메일을 찾아서 그 내용을 한국어로 번역하고 유튜브 초보자인 내가 이해하기 쉽게 설명해 줘"라고 했더니, 메일 내용을 번역하고 핵심을 정리한 설명까지 바로 나왔습니다.
일정 관리도 비슷합니다. 저는 "유튜브 영상 촬영 일정을 이번 주 금요일 오후 3시로 잡아 줘"라고 요청했고, 제미나이가 구글 캘린더를 직접 열어서 일정을 예약했습니다. 이 모든 게 채팅창 안에서 명령어 한 줄로 끝났습니다. 제 경험상 이런 식으로 작업 흐름이 끊기지 않으면 AI를 쓰는 게 숙제가 아니라 자연스러운 습관이 됩니다. 예전에는 자료 찾고, 문서 열고, 메일 확인하고, 일정 잡는 게 각각 따로 느껴졌다면, 지금은 하나의 흐름 안에서 다 처리됩니다.
유튜브와 구글 지도도 연결됩니다. 저는 경쟁 채널 영상 링크를 주고 "타임라인별로 핵심 내용을 요약하고 시청자들이 가장 많이 언급한 키워드가 뭔지 댓글까지 분석해 줘"라고 요청했습니다. 그랬더니 영상 구조와 반응까지 한 번에 정리됐습니다. 지도는 "강남역에서 15분 안에 갈 수 있는 평점 4.5 이상의 냉면 맛집 세 곳만 추천해 줘. 주차 가능한 곳으로"라고 했더니, 조건에 맞는 식당을 바로 찾아줬습니다. 이런 식으로 제가 이미 쓰고 있던 도구들이 AI와 자연스럽게 연결되니까, AI를 쓴다는 게 별도의 행동이 아니라 원래 하던 일의 연장선으로 느껴졌습니다.
모바일과 카메라로 일상까지 연결된다
PC에서만 쓸 수 있는 AI라면 반쪽짜리입니다. 제미나이는 모바일 앱과 음성 지원까지 되기 때문에, 언제 어디서나 자연스럽게 쓸 수 있습니다. 특히 구글 어시스턴트(Google Assistant)의 두뇌가 제미나이로 바뀌면서, "헤이 구글"이라고 부르는 것만으로도 복잡한 작업을 처리할 수 있게 됐습니다. 어시스턴트란 구글이 제공하는 음성 기반 AI 비서로, 스마트폰이나 스마트 스피커에서 명령을 받아 작업을 수행합니다. 쉽게 말해 말만 해도 알아서 움직이는 비서 같은 존재입니다.
저는 최근 PDF 파일을 열어야 했는데, 내용이 너무 길어서 읽기가 부담스러웠습니다. 그래서 "헤이 구글, 링크 파일을 열어서 내용을 세 가지로 요약해 줘"라고 말했습니다. 그랬더니 파일을 직접 열고 핵심만 추려서 알려줬습니다. 앱을 넘나드는 복잡한 작업을 음성 명령 한 번으로 처리한 겁니다. 심지어 지금 제가 보고 있는 화면까지 이해합니다. 예를 들어 화면에 문서가 떠 있는 상태에서 "이 내용 요약해 줘"라고 하면, 제미나이가 화면을 읽고 바로 답변합니다.
구글 렌즈(Google Lens)와 결합한 비주얼 검색 기능도 인상적입니다. 렌즈란 카메라로 사물을 비추면 그 정보를 알려주는 시각 검색 도구입니다. 쉽게 말해 눈으로 보는 모든 것이 검색 대상이 됩니다. 여기서 한 단계 더 나아간 게 라이브 채팅(Live Chat) 기능입니다. 단순히 사진을 찍고 정보를 얻는 게 아니라, 실시간으로 화면을 보면서 대화를 통해 문제를 해결합니다. 저는 새로 산 스피커를 TV에 연결해야 했는데 단자가 너무 많아서 헷갈렸습니다. 그래서 제미나이를 켜고 카메라로 TV 뒷면을 비추면서 "이 스피커를 저 TV에 연결해야 하는데 화면에 보이는 케이블 중에 뭘 어디에 꽂아야 하는지 실시간으로 알려줘"라고 말했습니다. 제미나이가 화면을 실시간으로 보면서 일대일 과외 선생님처럼 단계별로 알려줬습니다.
해외에서 메뉴판을 비추면서 "이 메뉴판에서 가장 인기 있는 메뉴 세 가지 추천해 줘"라고 하거나, 아이가 가져온 수학 문제를 비추고 "이 문제 단계별 풀이 좀 설명해 줘"라고 하는 것도 순식간에 가능합니다. 제 경험상 이런 식으로 카메라와 음성이 AI와 자연스럽게 연결되면, AI가 특별한 도구가 아니라 일상의 일부로 느껴집니다. 예전에는 AI를 쓰려면 앱을 열고 타이핑을 해야 했다면, 지금은 그냥 말하거나 비추기만 하면 됩니다. 이 차이가 생각보다 큽니다. 손이 자주 가는 도구가 결국 오래 쓰는 도구니 까요.
저는 처음 AI를 접했을 때 가장 똑똑한 모델을 찾는 게 중요하다고 생각했습니다. 그런데 실제로 써보니 더 중요한 건 "이 일을 할 때 어떤 AI를 먼저 꺼내야 할지"가 머릿속에 정리돼 있는 상태였습니다. 그리고 그 AI가 제가 이미 쓰고 있는 도구들과 자연스럽게 연결돼 있느냐가 결정적이었습니다. 제미나이는 그 지점에서 꽤 설득력 있는 선택지입니다. 구글 생태계를 이미 쓰고 있다면, AI를 따로 마음먹고 켜야 하는 도구가 아니라 원래 하던 일의 연장선으로 만들 수 있습니다. 완벽하지는 않지만, 흐름이 끊기지 않는다는 점에서 분명히 가치가 있습니다.