
昨日の基調講演で残念なのは、Appleがこれほど多くの新機能を「後日公開」としてリストアップしたことはかつてなかったということです。これにはApple Intelligenceの新機能もすべて含まれています。
もう 1 つの悪いニュースは、AI 機能が当初は米国英語に限定されるということですが、Apple の文言からは、他の国に住んでいる人も引き続き試すことができることが示唆されています...
Appleは次のように述べている(強調は筆者による):
Apple Intelligenceはユーザーに無料で提供され、iOS 18、iPadOS 18、macOS Sequoiaの一部として今秋、米国英語でベータ版が提供される予定です[…]
Apple Intelligence は iPhone 15 Pro、iPhone 15 Pro Max、M1 以降を搭載した iPad および Mac で利用でき、Siri とデバイスの言語は米国英語に設定されます。
つまり、言語を変えても構わないのであれば、世界中のどこからでも挑戦できるということです。私はライティングに関しては既に中部大西洋岸で生活しているので、その点は問題なく耐えられます。
では、Apple Intelligence のどの機能に最も試してみたいのでしょうか?
まったく新しいSiri
これは私にとってこれまでで最大のものです。Siriにサードパーティ製アプリへのアクセスを許可するよう求める機能リクエストを書いてからほぼ10年が経ちましたが、ついに私の願いが叶うのです!
Siriの初期の開発者たちは、当時はまだアプリだったこの製品に非常に壮大な野望を抱いていましたが、そのビジョンの実現には未だほとんど進展が見られません。しかし、今、少しずつではありますが、状況は変わりつつあります。
画面認識機能の搭載により、Siriは今後さらに多くのアプリでユーザーのコンテンツを理解し、それに応じたアクションをとれるようになります。例えば、友人がメッセージアプリで新しい住所をユーザーに送信した場合、受信者は「この住所を彼の連絡先カードに追加して」と話しかけることができます。
Apple Intelligenceにより、SiriはApple製アプリ内およびサードパーティ製アプリ間で数百もの新しいアクションを実行できるようになります。例えば、ユーザーが「リーディングリストからセミに関する記事を開いて」とか「土曜日のバーベキューの写真をマリアに送って」と言えば、Siriが全てをこなしてくれます。
Siriは、ユーザーとデバイス上の情報に合わせてカスタマイズされた情報を提供できるようになります。例えば、ユーザーが「ジェイミーが勧めてくれたポッドキャストを再生して」と言えば、Siriはそのエピソードを探し出して再生します。テキストメッセージかメールか覚えておく必要はありません。また、「お母さんの飛行機の着陸時間は?」と尋ねると、Siriはフライトの詳細を検索し、リアルタイムのフライト追跡情報と照合して到着時刻を教えてくれます。
Apple のインテリジェント アシスタントは、ついに知能を活用して現実のタスクを支援できるようになります。
統合されたChatGPT
ChatGPTは信頼性に欠けており、AppleはSiriに質問したときにChatGPTが回答する際には特に警告を出すという賢明な判断を下しました。しかし、ChatGPTには確かに用途があるので、OSに深く統合されているのは確かに便利です。
校正と要約
文章を書く仕事をしている人なら誰でも、校正の大切さを知っているでしょう。特に自分の文章の間違いを見つけるのは難しいものです。なぜなら、私たちは自分が何を言おうとしているのかを既に頭の中でイメージしているので、タイプミスがすぐには気づかないからです。
Grammarlyのような既存の校正アプリは大いに役立ちますが、もちろん全てを拾ってくれるわけではありません。Apple版がどう違うのか、興味深いところです。Vision Proを常にApple Vision Proと呼ぶなど、誰も使っていないApple公式用語について、衒学的に批判的な発言をしてくるのではないかと覚悟しています。
しかし、私が最も興奮するのは要約機能です。
Summarize を使用すると、ユーザーはテキストを選択し、わかりやすい段落、箇条書きの要点、表、またはリストの形式で要約することができます。
これは特に電子メールで役立つ可能性があり、Apple は「タップするだけで関連の詳細を表示できる」と約束しています。
録音と転写
MacWhisperアプリの大ファンになりました。インタビュー、プレゼンテーション、ビデオを録音して、正確な文字起こしをすぐに作成できるのが本当に便利です。昨日は基調講演の録音と文字起こしに使いました。
以前、iPhoneの音声文字変換がユニバーサル機能として実現することを理想と述べていました。まだ実現には至っていませんが、少なくともAppleは良いスタートを切らせてくれました。
メモアプリと電話アプリで、音声の録音、文字起こし、要約ができるようになりました。通話中に録音が開始されると、参加者に自動的に通知され、通話が終了するとApple Intelligenceが要約を作成し、重要なポイントを思い出すのに役立ちます。
フォトでの自然言語検索
これは巨大なものになるかもしれません。
自然言語を使って、「タイダイのシャツを着てスケートボードをするマヤ」や「顔にステッカーを貼ったケイティ」など、特定の写真を検索できます。動画内の検索もさらに強力になり、クリップ内の特定の瞬間を見つけることができるため、ユーザーは関連するセグメントに直接移動できます。
このビデオクリップ部分は、うまく機能すれば素晴らしいものになるでしょう。
興味のないこと(間違っているかもしれないが)
他にも、私にとって興味をそそるものでも、興奮するものでもない Apple Intelligence 機能がありました。
デバイスがメールやその他のメッセージを書き換えることには興味がありません。通知ダイエットでは通知の概要は必要ありません。Image Playground を使うことは想像できません。Genmoji は Memoji と同じように、私には似合いません。
でも、こういうものをすぐに無視してはいけないと学びました。例えば絵文字は、私が原則として使わないものだったのですが、今では返信の便利なショートカットになっています。どうなるか楽しみです!
Apple Intelligence のどの機能があなたにとって魅力的ですか?
Apple Intelligence のどの機能が一番気に入っていますか?ぜひコメント欄で教えてください。
画像: Apple
ciniw.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。