京都での生態学会ERシンポでは、英語での発表ということもあり、準備段階で右往左往しました。しかし結果として、自分の言葉で伝えたい熱量を落とすことなく発表できたとは思います。

それを支えてくれたのが、Geminiとの「壁打ち」です。AIを使って英語のプレゼンを準備しようかなー、と思って、最初に思いついたのは「日本語原稿の翻訳ツール」としての使い方でした。しかし、結果的に最も効果を感じ、今後の役に立つと思ったのは「スライド作成以降のプロセス」でした。
自分の読み上げ音声をAIに聞かせて客観的な解析をさせ、自分の口に馴染むまで徐々に原稿とスライドをチューニングしていく。この一連の作業手順を、今後の備忘録として、また同じように英語プレゼンに挑む方々の参考として公開します。
AIを活用した英語プレゼンテーション完成までの実践手順
まずはAIに頼らず、自分自身の頭でプレゼンテーションの骨格を作る。
- 作業内容:伝えたいメッセージ、論理展開、図表や写真を配置し、日本語で完成形のスライドを作成する。
- ポイント:ここで「誰に」「何を」伝えるかの芯を固めておくことが、後のAIとの連携でブレない原稿を作るための最大の土台となる。
作成したスライド構成や日本語の意図をAIに伝え、英語の原稿を作成させる。
- 作業内容:スライドのPDFや、要旨をAIに入力し、英語化を指示する。
- ポイント:単なる直訳ではなく、「聴衆に分かりやすい表現で」「専門用語を正確に使って」といった、発表のトーンやスタイルを明確に指定する。
出来上がった英語原稿(初稿)を見ながら、実際に声に出して読む。
- 作業内容:スライドをめくるタイミングを意識しながら、原稿を最後まで読み通す。
- ポイント:この段階では上手く読めなくて当然。「どこで息継ぎが苦しいか」「どの単語が口に馴染まないか」を体感することが目的となる。
自分の読み上げ音声を録音し、その音声ファイルをAIに解析させる。
- 作業内容:練習音声を、パソコンのマイクを使って、MacならQuicktimeなどでデスクトップに保存するのが、一連の作業が楽。スマートフォンなどで録音しても良いかも。音声ファイル(.m4aなど)をAIにアップロードしても解析を依頼する。
- ポイント:音声データから「発音やアクセントに迷っている単語」「リズムが悪く言い直している箇所」「原稿と違う言葉を話してしまっている箇所」を特定させ、優先的に練習すべきリストを抽出させる。
- 最初の一回は、「自分の英語力」をAIに理解してもらうのが良い。
解析結果をもとに、スライドと原稿のズレをなくし、完成度を高めていく。
- 作業内容:口に馴染まない表現を言いやすい単語に変更したり、スライドの文字を微調整する。
- ポイント:原稿に息継ぎのタイミングを示すスラッシュ( / )を入れさせたり、発音のコツ(カタカナでの強調ポイントなど)を添えさせる。修正した原稿で再度録音・解析を繰り返し、近い自然なリズムになるまでブラッシュアップする。
完全にフィックスした原稿を、本番用のツールにセットする。
- 作業内容:息継ぎのスラッシュ( / )が入った最終完成版の英語スクリプトを、KeynoteやPowerPointの各スライドの「発表者ノート」欄にコピー&ペーストする。
- ポイント:スライドの切り替えタイミングと原稿の区切りを完全に一致させておくことで、本番での迷いをなくす。
準備を信じて、本番のステージに上がる。
- 心構え:あとは、普段の講演どおり。
- リスクヘッジ:緊張したり、英語の構文に自信が持てない箇所は、無理にアドリブを入れず、手元の「発表者ノート」を堂々と読み上げる。事前にチューニングしているので、ただ読むだけでも自分の言葉になっている(はず)。
僕は、実際の講演では、準備した原稿をほとんど読めなかったし、発表者ノートを読み上げる時にもだいぶカミカミでした。そもそも、そんなに練習に時間をかけられませんでした。ただ、もともと日本語でも「原稿を読み上げる」というのがとてもニガテなので、読み上げではなく「自分の言葉で伝える」という、いつもの姿勢での発表になったかな、とは思います。
正確性を追求して十分に自分が理解できていないまま話すよりも、自分の言葉に落とし込んだ原稿を作れたのが良かったです。結果的には中学校レベルの英語だったかもしれませんが、「正しい文章の英訳」ではなく、「自分の発表」にできたのが、この手順の成果でした。
英語での学会発表(口頭)は、ウプサラ以来でした。他の方は発表も質疑応答もペラペラ。みんなすごいなぁ。
