2025年2月2日に、OpenAIが情報収集に役立つ新しい生成AIツールを発表しました。
その名も、Deep Research。
オンラインソースを活用して大量の情報をレポートとしてまとめてくれるようですが、実際にはどのようなレポートが得られるのでしょうか?
本記事では、実際に使用してみてその特徴に迫りたいと思います。
※Deep Researchという名前のサービスはGoogleやPerplexityなども提供していますが、本記事ではOpenAIのDeep Researchを扱います。
目次
- 目次
- Deep Researchの特徴
- 使用可能なユーザー(2025年3月現在)
- 使い方
- 実際のやりとり
- プロンプト
- 出力
- プロンプト
- 出力
- 出力されたレポート
- 出力に対する評価
- OpenAIのDeep Research とどう向き合っていくか
Deep Researchの特徴
Deep Researchは、オンライン上の情報を収集、分析し、長文のレポートにまとめる生成AI機能です。もともと、金融、科学、政策、エンジニアリングなどの知的分野の労働者の情報収集をサポートするために開発されました。その特徴としては、次のようなものがあります。
- 人間が数時間かける調査を5分~30分程度で行い、レポートにまとめる
- OpenAI o3モデルを用いており、インターネット上の大量のテキスト、画像、PDF情報を分析する
- 引用元の情報も示すため、ユーザーが情報源をたどることができる
- 通常のChatGPTのやりとりと比べて計算資源を大量に使っており、使用回数に制限を設ける(例:Proの利用者がレポートを作成できるのは1カ月あたり120回まで)
(参考文献:https://openai.com/index/introducing-deep-research/)
使用可能なユーザー(2025年3月現在)
- ChatGPT Pro(120回/1か月)
- ChatGPT Plus、Team、Edu、Enterprise(10回/1か月)
使い方
ChatGPTを開き、「詳細なリサーチ」のボタンを押します。後は他のモデルと同様にプロンプトを入力するだけです。
実際のやりとり
プロンプト
2022年11月から現在までの、日本の教育界における生成AIの動向を調べてください
出力
日本の教育界における生成AIの動向について、以下の点を確認させてください。
- 具体的に知りたい内容: 例えば、政策、学校での導入状況、研究事例、教材開発、倫理的な議論など、特に重点を置きたい分野はありますか?
- 情報の深さ: 概要レベルの動向でよいか、それとも具体的な事例やデータを含めた詳細な情報を希望されますか?
- 特定の機関や団体: 文部科学省、大学、民間企業など、特に注目している組織はありますか?
- 出典の種類: 公式報告書、ニュース記事、学術論文など、どのようなソースを優先しますか?
ご希望に応じて調査を進めますので、お知らせください。
プロンプト
-分野は網羅的にお願いします-具体的な事例やデータを含めた詳細な情報をお願いします
-関心のある観点は「文部科学省や政府の政策・ガイドライン」と「学校や大学での導入・活用事例」なので、文部科学省、学校などの組織に注目してください
-政府の公式資料、学術論文を情報源として優先してください
-時系列での変遷をわかりやすくまとめてください
出力
了解しました。日本の教育界における生成AIの動向について、2022年11月から現在までの政策・ガイドラインの変遷、および学校や大学での導入・活用事例を網羅的に調査します。
調査では、文部科学省や政府の公式資料、および学術論文を優先的に参照し、具体的な事例やデータを含めた詳細な情報を提供します。
結果は時系列で整理し、わかりやすくまとめますので、しばらくお待ちください。
出力されたレポート
まとめ終わると、レポートとともにレポート提供までにかかった時間と、情報源の数を示してくれます。今回は7分間で26件の情報源をもとにまとめてくれました。以下は実際の出力物です。
政府・文部科学省の政策・ガイドラインの変遷
2022年末~2023年初頭: 2022年11月に対話型AI「ChatGPT」が公開され、世界的に急速な普及が始まりました 。日本でも教育関係者の間で関心が高まり、2023年4月頃には文部科学省が学校での生成AI活用に関する指針の検討を開始します。当時、生成AIが「瞬時に作文」を作成できることへの懸念(生徒の学習への悪影響)が報じられ 、これを受けて文科省内でガイドライン策定の動きが本格化しました。
2023年5月: 文部科学省は5月19日付で各教育委員会宛に「ChatGPT等の生成AIの学校現場の利用に向けた今後の対応について」とする通知を発出しました 。これは各学校現場が混乱しないよう、生成AIへの基本的な向き合い方や留意事項を周知するもので、正式なガイドライン公表に先立つ暫定的対応でした。また6月13日には東京都教育委員会が都立学校に対し、夏休みの宿題で生成AIの回答をそのまま写して提出しないよう注意喚起する通知を出しています 。具体的には日記・読書感想文・探究レポート等で、生徒がAIの生成文をコピーしないよう指導するよう求めました 。このように自治体レベルでも早期に生成AI利用上の倫理・不正防止に関する対応が取られ始めました。
2023年7月: 文部科学省は7月4日、「初等中等教育段階における生成AIの利用に関する暫定的なガイドライン」を公表しました。このガイドラインでは、生成AIを教育に取り入れる基本方針として「利便性とリスクのバランスを図り、限定的な利用から段階的に始めること」が示され、まず教師のAIリテラシー向上を図りつつ慎重に導入する考え方が示されています 。併せて、適切な活用例と不適切な活用例が明示されました。適切な活用例として「アイデア出しに新たな視点を得る」「英会話の練習相手にする」「自分で書いた文章の校正に使う」等が挙げられ、一方で不適切な例として「生成AIが作った文章をそのまま提出作品として使う」「定期テストや入試の解答にAIを使う」ことなどが示されています 。これらは「学習効果を高めるかどうか」という基準で判断されており、生成AIをそのまま安易に答案代行に使うことは許されないことが明確にされました 。さらにガイドラインには、生成AI利用に伴う個人情報漏えい・著作権侵害などのリスクへの対策も盛り込まれ、教師・生徒双方が安全に使うための留意点が具体的に記載されています。この暫定ガイドライン公表と同時に、文科省は**「生成AIパイロット校」**制度を開始し、2023年度に全国52校を指定して授業や校務でのAI活用実証研究を進める方針も打ち出しました (2024年度は66校を指定)。生成AIパイロット校では教材作成や業務効率化の効果検証が行われ、例えばテスト問題や学校行事計画のたたき台作成、研修資料作成など教師の校務負担軽減策としてAI活用の実証が行われました 。
大学教育に関する対応: 初等中等教育より早い段階で、各大学も独自にポリシー策定を進めました。文科省は7月13日に「大学・高専における生成AIの教学面の取扱いについて」として、全国の大学が参考にできるガイド資料を提供しています。この中では既に複数の大学で策定された生成AI利用指針や有識者の見解をまとめ、教育場面ごとの活用例や留意点を提示しました 。文科省は「各大学・高専はそれぞれの実情に応じて主体的に対応することが重要」と強調しており、ガイド資料はあくまで参考として、各校でポリシーをアップデートしていくことが推奨されています。
2024年の動き: 暫定ガイドライン公表後も生成AI技術は飛躍的に進化し、社会全体のルール整備も進展しました。そこで文科省は2024年7月に有識者による「生成AIの利活用の在り方に関する検討会議」を設置し、ガイドラインの改訂検討を開始 。半年間の議論を経て2024年12月26日、ガイドラインの改訂版(Ver.2.0)が公表されています 。この最新版では2023年版暫定指針を基にしつつ、現時点での知見に基づくより具体的な指針が示されました 。例えば生成AIの概要説明や基本的考え方を整理し直し、教育現場で押さえるべきポイントを利用場面・主体ごとに具体例付きで提示するなど、内容の充実が図られています。政府全体でも生成AI活用と規制の両面で動きがあり、例えば東京都は行政業務へのChatGPT活用実験を進める一方、教育現場では前述のように不正防止の注意喚起を行うなど、国・自治体レベルでガイドライン整備と実証が並行して進んだ形です 。また大阪市など一部自治体では独自に先進的な試みも見られ、同市は2023年度に文科省委託のパイロット校4校での実践を行い、2024年度には市の主導でさらに4校で授業への生成AI活用実践を進める計画を立てています 。このように2022年末から現在まで、政府・文科省の方針は「闇雲に禁止」から「ガイドラインに沿った利活用促進」へと時系列的にシフトしてきています。
学校や大学での導入・活用事例
大学における初動: ChatGPT公開直後の2023年初頭から、大学では学生のレポート不正や研究データ流出への懸念から対応が始まりました。例えば東京外国語大学は早くも2023年3月22日に教員向けガイドラインを示し 、上智大学は3月27日付けで「ChatGPT等の生成AIへの対応方針」を発表して、成績評価での利用基準を定めています 。上智大の方針では「レポートや論文の執筆において生成AIを一律には禁止しないが、学問的誠実性(アカデミック・インテグリティ)を損なう利用は認めない」ことなどが示され、その後学内検討を経て10月に具体的ガイドラインを公開しています 。東京大学も4月3日に副学長から全学向けメッセージを出し 、続いて4月28日付で授業におけるAIツール利用の方針を示し 、5月26日付で学生向け注意事項を公表するといった具合に、各大学で新学期開始に合わせた対応が相次ぎました。内容は「授業課題への利用は担当教員の許可がある場合を除き原則禁止」「参考にした場合は出典や利用を明記する」といったものが多く、生成AIの利点を認めつつ不正防止に重点を置く傾向がありました 。実際、2023年4月には「東大や上智大学がChatGPTの論文利用を制限」といった報道が出ており、大学側が早期に対策を講じた様子が窺えます 。
初等・中等教育における活用開始: 小中高校では、当初は明確な指針がない中で戸惑いも見られましたが、一部の先進的な教師は2023年春頃から授業への試行的導入を始めました。例えば山形県のある小学校教諭は2023年2月にChatGPTを試し、「使わざるを得ない時代にどう使うかが課題だ」と感じて道徳の授業で活用を模索しました 。この教師はChatGPTを「教室のもう一人のメンバー」と見立て、AIが提示する意見を題材に子供たちが考えを深める授業に取り組んでいます 。具体的には「みんなが自由にAIを使えるとしたら、頼る人と頼らない人どちらになる?」といった問いかけで議論させる場面を設定し、生徒がAIとの向き合い方を主体的に考える機会としました。このように生成AIそのものを教材化して情報モラル教育に活かす実践も出現しています。
授業での具体的活用例: 暫定ガイドライン発表後は、全国のパイロット校を中心に授業での生成AI活用事例が数多く報告されました。小学校では、ChatGPTにアイデア出しの相手をさせて発想を広げたり、物語の続きの提案をさせて児童が批評するなど、「壁打ち相手」や「たたき台」として使う実践が目立ちます 。一方、中学校・高校では、生徒それぞれの質問にAIが答える形で個別学習のチューター的に用いる事例が多く見られました 。例えば英語の授業でAIに英文添削や対話練習をさせたり、プログラミングの授業でコードのヒントを得る、といった形です。また、茨城県つくば市のみどりの学園義務教育学校では2018年開校時からのICT先進校という強みを活かし、2023年には全学年(小学1年~中学3年)で生成AI活用の研究授業を展開しました。同校では市の支援も受けつつ、各教科で試験的にAIを導入し、低学年では調べ学習のお助けツール、高学年では作文の添削・要約への活用など、発達段階に応じた使い分けを実践しています(中村恵美教頭談)。このような事例は文科省の公式サイトにも蓄積されており、2023年度パイロット校52校の実践事例は合計266件にも上っています 。そこには授業での活用だけでなく、「生成AIの使い方指導」など事前教育の工夫も含まれ、各校が試行錯誤している状況がうかがえます 。
校務への活用: 教員の業務効率化の面でも生成AIは導入が始まっています。前述のパイロット校では、授業準備や校務でのAI活用も検証され、試験問題やプリントの原案作成、通知文書や学校通信の文章案生成、学習評価の講評文作成などにChatGPTを試す例が報告されました 。文科省もガイドライン④で「一部学校で校務での実証活用を行う」方針を示し、個人情報に配慮しつつ準備のできた学校からAIを試験導入して教員の働き方改革に資するよう促しています 。現場の教師からは「雑務の下書きをAIがしてくれることで本来の授業研究に時間を割ける」といった前向きな声もある一方、AIの出力を過信して誤った情報を保護者配布資料に載せてしまうリスクなど課題も指摘されています。いずれにせよ、授業支援・業務支援の両面で2023年度から全国の学校で生成AIの試行的な導入が始まり、その成果と課題が蓄積されつつあります 。
大学での活用事例: 大学では当初、不正防止や指針整備が主眼でしたが、徐々に授業での積極的な活用例も見られます。例えば授業内でChatGPTに議論のたたき台となる文章を作らせ、学生がそれを批評・添削することでリテラシーを養う試みや、情報系の講義でChatGPTの仕組み自体を教材として教えるケースも報告されています 。理工系ではプログラミング演習でコード生成AIを使い開発効率を学ぶ、副専攻レベルで「生成AI活用論」の科目を新設する大学も出始めました。また、大学図書館やライティングセンターでAI文章校正サービスを提供し、学生がレポートを書く際にAIを補助輪として使うことを指導する動きもあります。ただし大学側は「安易にAI任せにせず、あくまで思考の補助として使うように」と指導しており、各授業のシラバスや方針で利用許可の範囲を明示する運用が一般的です 。2024年時点では、多くの大学が**「生成AI利用ポリシー」**を公式ウェブサイト等で公開し、学生・教員に対しガイドライン遵守を求めています。前述の文科省まとめ資料にも全国の大学の対応事例が一覧化されており、利用を一律禁止した大学はほとんどなく、「授業の目的に応じて教員が判断し、不明点は確認すること」「参考にした場合は出典を明記すること」といった共通認識が広がっています 。このように学校種別ごとにアプローチの差はあるものの、2023年度を通じて教育現場への生成AI導入は着実に進み、試行段階から本格的利活用へと移行しつつあります。
研究事例・学術論文の動向
技術の教育応用に関する初期研究: 生成AIの教育利用を巡る研究も、ChatGPT公開直後から活発になりました。2023年前半には早くも教育工学や言語教育の分野で論考が発表されています。例えば、日本教育工学会の研究会では2023年2月に「ChatGPTとの共存を考える」というテーマで授業実践報告があり、情報科の授業で生成AIを題材に問題解決学習を行った事例が紹介されています。また言語教育では「日本語教育における生成AIの活用可能性と懸念」に関する論文がまとめられ、ChatGPTが作文添削や対話練習に有用である一方、誤用や不正確さへの注意が必要と指摘されました。これら初期研究は、生成AIを教育素材として捉える視点や、学生のアウトプット支援ツールとしての可能性とリスク評価など、基礎的な論点を提示しました。
教育現場での活用状況分析: 生成AIの学校現場への受容状況を体系的に分析した研究も登場しています。千葉大学の藤川大祐氏は2023年10月までの国内動向を調査し、初等中等教育における生成AI活用情報を35件収集して報告しています。この分析によれば、2023年4月~7月中旬に情報発信が集中しており(文科省ガイドライン発表前後で報道・事例が急増)、それ以降は発信が限定的だったことが明らかになりました 。また内容面では、小学校では前述のようにアイデア出しの相手や下書き生成としての活用、中学校以上では個別指導の補助としての活用が多い傾向が整理されています 。校務では計画書や資料の作成、テスト問題作成、教材開発、業務相談など幅広い目的で活用が提案されていたことも報告されました。このような研究は、現場の取組みを客観的に俯瞰し、効果的な活用法や注意点を分析することで、後続の実践や政策立案に資する知見を提供しています。
大規模調査研究: 生成AIに対する教員・学生の意識や利用実態を数量的に把握する調査研究も行われました。仙台大学のAI教育研究チームは2024年7月に全国の高校生・大学生および教職員約9,000名を対象とした大規模アンケート結果を公表しています 。この調査によると、生成AIを「使ったことがある」学生は全体で約60%(高校生60.1%、大学・院生65.9%)にのぼり 、生成AIの出力を課題レポートにコピーして提出した経験がある学生も全体の27.8%(高校生28.1%、大学生25.8%)に達することが明らかになりました 。一方、教員で生成AIを使ったことがある人は19.3%に留まり、学生より約11ポイント低い利用率でした 。利用頻度は「週に1回未満」という回答が6割以上で、教員・学生ともにChatGPT(無料版3.5)への依存が突出して高い状況も報告されています 。意識面では、「生成AI利用に伴う不正行為に注意が必要」と感じている人が教員・学生とも8割弱に上り、「AIに過度に依存してしまう不安」も約6割が共有していました 。特に「学生がカンニングに使うのでは」と懸念する割合は教員の方が高く、大学では実際にAI利用が疑われる不正提出が発生していることが主要な問題として挙げられています 。また教員の約7割が「学校や大学で生成AIに関するガイドラインが必要」と感じているという結果も出ており 、現場のニーズが政策対応に現れていることが裏付けられました。これらの統計的知見は、日本の教育界における生成AI浸透度や課題を定量的に示すもので、今後の施策や研究の方向性を考える上で貴重なデータとなっています。
プロジェクトと論文の展開: 個別の研究プロジェクトも次々と立ち上がりました。東京大学大学院の教育関連組織では2023年に**「生成系AIと教育環境研究プロジェクト(GENEE)」が発足し、産学連携で生成AIが教育に与える影響を総合的に研究しています また人工知能学会(JSAI)や情報処理学会などでも2023~2024年にかけて教育×AI**の特別セッションや論文発表が相次ぎました 。例えば人工知能学会全国大会(2024年6月)では「生成AIが教育へ与える影響の分析」や「大規模言語モデルと学習指導」に関する論文が発表され 、教育システム情報学会でも生成AIの活用事例や課題を議論するワークショップが開催されています。文部科学省の有識者会議メンバーにも大学研究者が数多く参加しており(東大の吉田塁准教授等)、最新の研究知見が政策にフィードバックされる体制も整いつつあります。総じて、生成AIの教育利用に関する学術研究は2023年に急増し、理論検討・実践報告・実証データ収集と多角的に進展しています。その成果はガイドライン改訂や現場の研修資料にも活かされ、教育界全体でエビデンスに基づく生成AI活用が模索されています。
その他の動向(社会的議論・倫理的課題など)
生成AI登場当初の論調: ChatGPTの登場は教育界に賛否両論を巻き起こしました。当初、一部では「これは教育の終焉ではないか」という極端な危機感すら語られました 。生徒が課題の問いをそのままAIに投げれば自動で答案が出てきてしまう――そんな状況で従来型の宿題や小論文指導が成り立たなくなるのではという懸念です 。実際、米国ニューヨーク市では2023年1月に公立学校でのChatGPT使用を禁止する措置が取られましたが、その後わずか数ヶ月で方針転換し、5月には「新技術の探究を奨励する」として禁止を撤回しています 。この動きは「頭ごなしに禁止するより、子供たちにAIを正しく使わせる教育が必要だ」との考え方への転換を象徴しています。一方で、生成AIを積極活用しようとする教育関係者からは「ChatGPTは新時代の計算機になり得る」との声も早期から上がっていました 。つまり、かつて電卓が登場した時に似たような議論があったように、ChatGPTも使い方次第で思考を補助し創造性を高めるツールになり得るという主張です 。このように当初の社会的議論は「禁止か活用か」で揺れ動きましたが、徐々に「いかにリスクを抑えつつ利活用するか」という現実的な方向に収束していきました。
倫理・安全面の課題: 生成AIの教育利用に伴う代表的な倫理的課題として、(1)学習者による不正行為(盗用・カンニング)、(2)誤情報の拡散、(3)プライバシーや著作権侵害、(4)人間の思考力低下への懸念が指摘されています。ガイドラインではこれらに対応する形で、例えば情報モラル教育の強化が打ち出されています 。文科省は生成AI時代を見据え、「子供たちを誤情報や不適切情報から守るため、ファクトチェックの重要性など情報リテラシー教育を一層充実させる」必要性を明記しました 。実際、学校では学級活動や情報の授業でAIの仕組みや限界について学ぶ機会を設ける動きが広がっています。また、生徒・学生による丸写しレポートの防止策として、多くの大学が「AIを利用した場合は申告させる」「不自然な答案には口頭試問を課す」といった運用を始めています。技術的な対策としては、AIが書いた文章を検出するツールの研究・導入も進められていますが、完全な見分けは難しく、根本的には学問的誠実さの涵養が重要だという認識で一致しています 。そのため大学・高校ではレポート課題の際に「生成AI使用可の場合でも、参考にしたAI名やプロンプトを明記する」「AIの助けを借りた部分と自分の考えを区別する」指導がなされています。さらに個人情報保護の観点では、教師が誤って試験前の問題や生徒名簿など機密情報をAIに入力しないよう注意喚起されています 。特に海外製のAIサービスでは入力データが学習に使われる可能性があるため、公的資料や生徒の個人情報は厳禁とするルールが各校で徹底されています。
世論と意見の変化: 教育界における生成AIへの見方は、2023年を通じて次第に成熟してきました。初期には「使わせない方がよい」という慎重論が強かったものの、各種ガイドライン整備や成功事例の共有を経て、「使いこなす力を育てるべき」との合意が広がりつつあります。保護者や社会からも、「将来AIは避けて通れないのだから学校で教えてほしい」という意見と、「人間の基礎学力低下が心配」という意見の双方が聞かれます。しかし文科省が情報活用能力の育成を学習指導要領の柱に据えていることもあり、情報教育の一環として生成AIリテラシーを育む方向で議論は落ち着きつつあります 。国際的にもUNESCO(国連教育科学文化機関)が2023年6月に「各国は迅速に学校での生成AI活用に関する規範を整備すべき」と警鐘を鳴らし、日本の取り組みはその流れの中に位置付けられます。
今後の展望: 生成AIは日々進歩しており、教育現場での活用範囲も拡大すると予想されます。2024年度には各地の実践結果が集約され、優れた活用モデルが共有され始めています。例えば、教師の負担軽減に成功したケースや、生徒の探究意欲を高めた授業実践などは研修会や論文で報告され 、こうした知見が今後の指導法に組み込まれていくでしょう。一方で引き続き、生成AIの出力精度や偏り、著作権処理など技術的・制度的課題も残ります。教育界では「人間にしかできない学びとAIに任せられる学びをどう仕分けるか」という本質的な問いにも直面しており、これについては継続的な議論が求められています。総じて、2022年末から現在に至るまで、日本の教育界における生成AIの受け止め方は急速に変遷しましたが、現在はガイドラインに沿って恩恵を活かしつつリスクに備える現実的アプローチへと落ち着きつつあります。今後も政策・現場・研究コミュニティが連携し、生成AI時代にふさわしい教育の在り方を模索していくことが重要だと考えられています。
参考文献・情報源: 文部科学省公式資料 (生成AIの利用について:文部科学省) (大学・高専における生成AIの教学面の取扱いについて:文部科学省) (文部科学省の生成AIガイドラインとは?要点をわかりやすく解説 - AI総研|AIの企画・開発・運用を一気通貫で支援)、各種大学の公表指針 (教育における生成AIの利用ガイドライン案_(公開版) )、教育現場の実践報告 、および関連する調査研究 (学生と教員に対する生成AIの教育利用状況と意識に関する調査) (学生と教員に対する生成AIの教育利用状況と意識に関する調査)などを時系列に沿って参照しました。これらを総合して、日本の教育界における生成AIの動向を概観すると上記のようになります。
出力に対する評価
7分間でこのような長文のレポートをまとめてくれるのには驚きました。その7分間の調査状況は、「アクティビティ」として見ることもでき、調査状況を把握できるのも面白いと感じました。出力物の内容については、指示通り時系列順に紹介してくれているのでわかりやすかったです。参考文献に関してもPDF資料情報まである程度読み込めており、学術論文も参考にできていました。調べ作業に手間をかけることなく、日本における教育分野での生成AIの動向を網羅的に知ることができました。
参考文献は、文章の途中に挿入されたリンクから参照できます
アクティビティは、確認中のところ(左下の赤枠内)を押すと右側にサイドバーとして現れます
ただし、注意すべき点もあります。情報源として提示されたリンクを押しても、ページに飛べないものがいくつかあり、出力時には飛べたものの時間を置くと飛べなくなったリンクもありました。また、情報の真偽性についても懸念されます。レポートの第1章【政府・文部科学省の政策・ガイドラインの変遷】最終文で、「政府・文科省の方針は「闇雲に禁止」から「ガイドラインに沿った利活用促進」へと時系列的にシフトしてきています。」とありました。しかし、政府の方針が当初「闇雲に禁止」していたと言い切るのは誤りではないでしょうか。さらに、情報源が提示されていても正しく読み込めていない場合があります。本記事の出力で例を挙げると、【研究事例・学術論文の動向ー大規模調査研究】の章の「生成AIを「使ったことがある」学生は全体で約60%(高校生60.1%、大学・院生65.9%)にのぼり」という記述が、情報元の数字と異なっていました。情報の正確性には注意が必要で、その情報が正しいかどうかは、出典の記述を自分の目で確認する必要がありそうです。
OpenAIのDeep Research とどう向き合っていくか
短時間で大量の資料を読み込み、情報提供してくれるDeep Research。o3の推論力を活かしインターネット上の膨大な情報を分かりやすくまとめてくれる一方で、リンクや総括の文章などにおける情報など、真偽性には注意が必要です。
このような特徴から、Deep Researchはある分野についてまずざっくりと情報収集したい時に一役買ってくれるモデルだと感じました。その中から調査の幅を絞ったり、参考文献を活用しつつ必要な情報源の検討をつけたりできそうです。最終的な情報収集は、正確性の問題があるためやはり人間が担うべき部分だと考えます。