B-style の BLOG

元塾講師 / 25才 / 2019年10月〜ベトナム住 / プログラミングと英語を実践中 / 将来の夢は発展途上国で学校運営

<37days>CNN語彙力&読解力UP「過去10年間でもたらしたAIのハイライト6つ<part1>」

こんにちは、B-styleです。

 

さて、今回の記事はこちらです。

edition.cnn.com

 

「過去10年でAIがどのように私たちの生活を支配するようになったか」という内容です。今となっては、AI=「artificial intelligence」は当たり前に言われていますが、どんなふう変わってきたのかを考察する上で、次の未来予測の好材料になるかと。

 

それでは、みていきましょう。

How AI came to rule our lives over the last decade

 

人工知能というだけでもう響きがカッコ良すぎて・・・

人工知能というだけでもう響きがカッコ良すぎて・・・

In 2010, artificial intelligence was more likely to pop up in dystopian science-fiction movies than in everyday life. And it certainly wasn't something people worried might take over their jobs in the near future.

A lot has changed since then. AI is now used for everything from helping you take better smartphone photos and analyzing your personality in job interviews to letting you buy a sandwich without paying a cashier. It's also becoming increasingly common — and controversial — when used for surveillance, such as facial-recognition software, and for spreading misinformation, as with deepfake videos that purport to show a person doing or saying something they didn't.

dystopian 極めて悪い / 邪悪な

pop up 突然現れる

controversial 議論の

surveillance 監視 / 見張り / 監督

as with ~ ~と同様に

purport 意味 / 趣旨 

「2010に、人工知能は日常よりも悪質なサイエンスフィクションに出現することをいとわなくなった。そして、その当時は人々が近い将来仕事を奪われるかも、という心配は確実になかった。その時から多くが変わってしまった。AIはスマートフォンで写真を撮影することに役立ち、レジでの会計がなくてもあなたにサンドイッチを買わせようとするジョブインタビューの中であなたの個性を分析することから全てにおいて今は使用される。」また、ますますAIは常識になりつつある。-そして議論の的でもある。-顔認識のような監視に使用した時、そして誤った情報が拡散した時、deepfake videosと同じように、人にその行動や言ってないこと見せるための目的となる。」

 

How did AI come to invade so many different parts of our lives over the last decade? The answer lies in technological advancements in the field, combined with cheaper, easier access to more powerful computers.
Much of the AI you encounter on a regular basis uses a technique known as machine learning, which is when a computer teaches itself by poring over data. More specifically, major developments over the last decade focused on a type of machine learning, called deep learning, that's modeled after the way neurons work in the brain. With deep learning, a computer might be tasked with looking at thousands of videos of cats, for instance, to learn to identify what a cat looks like (and, in fact, it was a big deal when Google figured out how to do this reliably in 2012).

pori 熟考する

More specifically すなわち、

reliably 信頼 / 頼りになる

「過去10年間でどのようにしてAIは私たちの生活のとても多くの異なる部分を侵略するようになったのか?その答えはその業界の技術的な進歩と、より強力なコンピュータに簡単にアクセスし一部を複合したことに尽きる。定期的にあなたがみるAIのほとんどは、機械学習として知られるテクニックを基本ベースで使用する。これは、コンピュータがデータを熟考することで、自分自身に教えることです。すなわち、過去10年以上の主要な開発は機械学習タイプが集中的であった。-:ディープラーニングと呼ばれる脳内のニューロンの働きがモデルとなったもの。ディープラーニングで、例えば、何の猫の見た目かを特定することを学ぶために、コンピュータは数千もの猫の動画を見ることを課せられるかもしれない。(実際、2012年にgoogleがこの信頼の作り方を発見した時、大きな問題となった。)」 

 

"Ten years ago, deep learning was not on anybody's radar, and now it's in everything," said Pedro Domingos, a computer science professor at the University of Washington.
AI is still quite simplistic. A machine-learning algorithm, for instance, typically does just one thing and often requires mountains of data to learn how to do it well. A lot of work in the field of AI focuses on making machine learning systems better at generalizing and learning from fewer examples, Domingos said.

 

「"10年以上前、ディープラーニングは誰もの目にも及ばなかったが、今は全てに組み込まれている。"とワシントン大学コンピュータサイエンス教授Pedro Domingosは語った。AIはまだ非常に単純化な状態だ。例えば、機械学習のアリゴリズムは典型的に一つのことだけを行うし、それをうまく実行するために大量のデータを必要とする。AI業界での多くの仕事は、より少ない例から学習と一般化においてより良い機械学習システムを構築することに注力している、とDomingosは語った。」 

 

"We've come a thousand miles, but there's a million miles still to go," he said.
With a nod to those thousand miles already in the technological rear-view mirror, CNN Business took a look back at the last 10 years of AI's journey, highlighting six of the many ways it has impacted our lives.

 

 「"私たちは1000マイル地点まできたが、まだ100万マイルもある"と語った。すでに技術的なバックミラーのなかで1000マイルにあることに頷いて(肯定して)、CNN Businessは、過去10年間のAI紀行を振り返り、私たちの生活に衝撃を与えた多くから6つのハイライトを届けよう。」

 

Smartphones

These days, artificial intelligence is all over smartphones, from facial-recognition software for unlocking the handset to popular apps like Google Maps. Increasingly, companies like Apple and Google are trying to run AI directly on handsets (with chips specifically meant to help with AI-driven capabilities), so activities like speech recognition can be performed on the phone rather than on a remote computer — the kind of thing that can make it even faster to do things like translate words from one language to another and preserve data privacy.

スマートフォン。最近、人工知能指紋認証で解除出来ない用の顔認識機能からgoogleMapのような人気のアプリまで全てのスマートフォンに内蔵されている。ますますAppleGoogleのような企業はAIを手の中で直接的に動かそうとしている(AI主導の機能を支援するための具体的なチップの搭載),だから音声認識のようなアクティビティは、リモートコンピュータよりも電話で行われることができる。-一つの言語から他の言語へ変換するようなことやプライバシーデータを保存することでさえより早く処理することができるものの一種。」

 

One deceptively simple-sounding example of this popped up in October, when Google introduced a transcription app called Recorder. It can record and transcribe, in real time. It knows what you're saying and identifies various sounds like music and applause; the recordings can later be searched by individual words. The app can run entirely on Google Pixel smartphones. Google said this was difficult to accomplish because it requires several pieces of AI that must work without killing the phone's battery life or taking up too much of its main processor. If consumers take a shine to the app, it could lead to yet more AI being squeezed onto our smartphones.

deceptively 見かけによらず

entirely 完全に

take up 取り上げる

processor 演算システム

aqueeze 絞る

applause 拍手

googleがRecorderと呼ばれる翻訳アプリを紹介した時、一見見かけによらないこの単純な例が10月に発表された。それはリアルタイムで翻訳記述と記録ができる。それは、あなたがいうことがわかり、様々な音楽や拍手も特定する:その記録はのちに個別のワードで検索できる。そのアプリはgoogle Pixelスマートフォンで完全に機能している。googleは、これは達成することがとても難しかった。理由は、それは、スマートフォンのバッテリーを殺すことなく、あるいは多すぎる主要な計算システムを容量としてとることがないAIの様々な部品が必要だったからだ。と語った。もし顧客がそのアプリに光を見出せたなら、それはさらにより多くのAIが私たちのスマートフォンに絞られているということにつながる可能性がある。」

 

 まとめ

いかがだったでしょうか。

AIの歴史について一つ紹介できました。

思っていたより、前置きが長かったのでいったんここでストップしておきます。笑

 

続きは明日ですね。

それでは、また。