はてなキーワード: Mitとは
https://anond.hatelabo.jp/20250129194915
昨今DeepSeekショックというかDeepSeekでショックを受けた顧客から色々言われるのでものを申したい。
Azure経由でChatGPT使う
GCP経由でGemini使う
AWS経由でSonnet使う
あまりにも正し過ぎる。
もうこれだけでいい。
何ならこの後は読まなくていい。補足情報を述べるだけなので。
前提として、現時点で企業利用の生成AIはその大半がLLMである。
加えて10万そこらで買えるRTX4070があればそこそこ動く画像生成AIと異なり、たとえMITライセンスでモデルが公開されていようと、実用性能のLLMを自前で安価にホストする手段は2025年1月現在まだ存在しない。
クラウドでGPUインスタンスを使って小さめのモデルで60万そこら、大きいモデルで月100万そこらを払うか、H100をたくさん搭載しているサーバーの実機に1000万とか2000万払うかのいずれかになる。
ということで、トークン量課金で使用できるLLMのAPIを使うというのがコスト的な問題で現実的な落としどころとなり、各クラウドベンダーのAPIが使われている。
そうなるとテキストデータをAPI提供元に送信しなければならない。
提供元の会社各位はそのデータの取り扱いについてかなり気を遣ったポリシーを定めていて、それを大々的に宣伝しつつ絶対守ると約束し、顧客はその会社がポリシーを守ることを信じ、その信用の下にAPIに対して機微な社内情報を含むテキストを投げ込んで社内ChatGPTだのRAGだのAgentだのいろんな取り組みをしている。
蒸留されていないDeepSeekをホストするのに必要なGPUコストは7桁円コースだし、LlamaとかQwenと組み合わせて蒸留したモデルであっても月当たり数十万が下限となる。社内すべての需要を賄うなら月当たり8桁円に行ってもおかしくない。
APIの安さを知った今、下手するとその何千倍何万倍のお金払えます?
予算が厳しくてもDeepSeekを使いたいならDeepSeek開発元が提供しているAPIを使うわけだが、中国企業に社内の機微情報を含むデータを送ることになる or 送るリスクを抱えることになる。
中国企業に対し、昨今の国際情勢および我が国の立場を踏まえた上で機微情報を送信できる程度に信用できます?
ということで現場の生成AI感度が高い人がどれだけDeepSeekを気にしたところで予算だの国際情勢だの現地法だの、ひとくくりにすれば「政治的な事情」で各社にDeepSeekを利用するという選択肢は与えられない。
それよりもまず目の前にある生成AIを使ったアプリケーションの実装や運用に集中して欲しい。
DeepSeekショックと騒ぎになっているが、これについても懐疑的である。「どうせ何も変わらない」と上述の理由で思っていることに加えて、過去の経験上深層学習の研究においてはリソース量の潤沢さこそが正義であり、リソース量で劣る者は勝る者に絶対に勝てない。
本当に絶対に勝てない。無理だ。どれだけ技巧をこらしたモデルを作っても、どれだけトリッキーな手法を考案しても、リソース量の暴力の前には倒れるのみである。というかそういう技巧とかトリッキーな手法を論文にした時点で、リソース量で勝る者はそれらを取り込みつつ追加で暴力的なリソースをモデルに注ぎ込むので勝てるわけがない。
DeepSeekの成果が本物なら、ビッグテックは検証の後にDeepSeekの100倍のリソースを注ぎ込んでDeepSeekでは到達できないような水準のモデルを作るだけである。
リソース量で劣る者が工夫を以て勝る者を倒すストーリーが好きなのは分からんでもないが、まあ現実はおおむね無情だ。
コンバンハ、オイソギデスカ
DeepSeekみたいな話題が日経新聞に載るたびに新規事業になるんじゃ無いかとかプロトタイプをもってこいみたいなこと言われると災難ですよね。
何がどうなってて、何はできないんですよみたいなのまとめておいたから、俺の屍を越えてゆけ。
まず前提からな
ここまでは前提な。こっからが、まとめ。
外に出したく無いデータがあるから、AzureのAPIも使いたく無いんだよね、みたいな職場では朗報。
いまんところモデルそのものに変なものは仕掛けられていないし、QwenやLlamaよりもまあまあできる印象。
できなくは無いけど、まっさらな状態だと稟議通すの無理じゃ無いかな、という金額を載せざるを得ない。
すでにでけえGPUとかで生成AI用の環境を組んでるところなら、できるよね。
できなくは無いけど(以下略)
既にQwenやLlamaを使って自前でなんかやっているところなら、後追いで強化学習のみでいけるか追試するなんてのはできる。
(こういう設備が既にあるなら、特にDeepSeekが出たから新しく、というわけじゃ無いけどね)
無理ですね。そもそも強化学習で改善するのだってJTCなら部長決済で済まないでしょ。(外資ならワンチャンあるのか!?)
そもそものベースの生成AIモデルを作るの、特に強化学習オンリーじゃなくてTransformerベースのよくある作りで作ってあるみたいだし。
無理ですね。蒸留する(ベンチマーク用の性能改善)ならいざ知らず、自社向けの定義もデータも揃わないでしょ。
プロトタイプならあり。ビジネスに組み込むつもりなら、少なくともDeepSeekの蒸留モデルは(まだ)使えない。
QwenやLlama派生モデル扱いなんだったら、MITライセンスになるわけがないので、かなりグレー。
同様に、(流石に多分大丈夫だと思うけど)DeepSeekの改善前のベースの生成AIモデルが、適法じゃなかった時揉めそう。
なお、これは別にDeepSeekに限ったリスクではなくて、QwenやLlamaも同じなんで、基本全部同じリスクを抱えてると思った方が良い。
元になるベースの生成AIモデル作るところまでは、既存の作り方と同じなのでビックテック優位変わらず。
が、雑にベースの生成AIモデル作っても、わりあいお安く性能改善できるんで追いつけるね、というのは、多分正しそう。
なんで研究資料とかオープンにしてんの?というのは、多分2つくらい理由があって、その方が話題になって儲かるから、というのと、オープンにしておけば転職しても使えるから、というもの。
カントリーリスクは相変わらずあるので、Web版とかAPIで使うなら、趣味の大っぴらにしてるプログラミングの補助で使うとか、ゲーム用になんかするとか、じゃないかな。
ローカルで使うって言っても、余程のことがない限りAPI使ってお支払いした方が、パソコン新調するよりはお安いのではないでしょうか。
低性能なの使ってもあんま楽しくないし、思いつくユースケースは、趣味でコストをかけずにゲームに生成AI組み込みたいんで無限にローカルで試行錯誤したい、くらいじゃないかな。
オープンソースになったんだから、コモディティ化(?)して、生成AIは誰でも作れるようになる!みたいな言説はまだまだお花畑ですね。
設備投資もランニングコストも、日本のベンチャーとかじゃまともな勝負にはならんでしょ。
メモリ16GBのノートPCで動く1GiBサイズでChatGPT-4oレベルの超蒸留モデルが出てから出直してきてくださいというところ。
そんな超絶技巧のスモールサイズAIよりは、AGIの方が先にきそうだけど。
通常ビューの時は後で読むアイコンの左に
はてなから流用した検索アイコンが表示されるのでクリックするとバックグラウンドで記事とコメントページを開くUserScript
AIに作らせたんで好きに書き換えていいよ
// ==UserScript==
// @name はてブの記事とコメントを同時に開く
// @version 1.0.0
// @author m
// @namespace m
// @description 記事とブックマークコメントを同時にバックグラウンドで開きます
// @match https://b.hatena.ne.jp/*
// @grant GM_addStyle
// @grant GM_openInTab
// @license MIT
// ==/UserScript==
(function() {
'use strict';
const C = {
SELECTOR: {
ENTRY: '.entrylist-contents-main',
USERS: '.entrylist-contents-users',
ARTICLE_LINK: '.entrylist-contents-title a',
},
CLASS: {
BUTTON: 'ha-dual-open-button',
CONTAINER: 'ha-dual-open-container'
},
STYLE: `
.entrylist-contents-users {
right: 84px !important;
}
.ha-dual-open-container {
position: absolute;
right: 40px;
top: 18px;
}
.ha-dual-open-button {
display: inline-flex;
align-items: center;
justify-content: center;
background: transparent;
cursor: pointer;
background-image: url(/53ee00beae4914a7cb8011f3702169d6179d3ace/images/v4/public/search-icon.svg);
-webkit-appearance: none;
background-color: transparent;
background-position: center;
background-repeat: no-repeat;
border: none;
border-radius: 0;
height: 16px;
padding: 0;
width: 16px;
}
.style-headline:not(.search-url-nothing) .ha-dual-open-container, .style-list:not(.search-url-nothing) .ha-dual-open-container
{
top: 2px;
left: 20px !important;
line-height: 1;
right: inherit !important;
text-align: center;
text-transform: inherit;
top: 60px;
height: 16px;
padding: 0;
width: 16px;
}
.style-headline:not(.search-url-nothing) .entrylist-contents .ha-dual-open-container
{
top: 2px;
left: 20px !important;
line-height: 1;
right: inherit !important;
text-align: center;
text-transform: inherit;
top: 60px;
}
.ha-dual-open-button:hover {
color: #f33;
}
.ha-dual-open-button svg {
width: 14px;
height: 14px;
}
`
};
const Main = {
init() {
GM_addStyle(C.STYLE);
this.addOpenButtons();
const observer = new MutationObserver((mutations) => {
mutations.forEach((mutation) => {
if (mutation.addedNodes.length) {
this.addOpenButtons();
}
});
});
observer.observe(document.body, {
childList: true,
subtree: true
});
},
addOpenButtons() {
const entries = document.querySelectorAll(C.SELECTOR.ENTRY);
entries.forEach(entry => {
if (entry.querySelector('.' + C.CLASS.BUTTON)) return;
const usersSpan = entry.querySelector(C.SELECTOR.USERS);
if (!usersSpan) return;
const articleLink = entry.querySelector(C.SELECTOR.ARTICLE_LINK);
if (!articleLink) return;
const commentsLink = usersSpan.querySelector('a');
if (!commentsLink) return;
const container = document.createElement('div');
container.className = C.CLASS.CONTAINER;
const button = this.createButton(articleLink.href, commentsLink.href);
container.appendChild(button);
entry.appendChild(container);
});
},
createButton(articleUrl, commentsUrl) {
const button = document.createElement('button');
button.className = C.CLASS.BUTTON;
button.title = '記事とコメントを同時に開く';
button.onclick = (e) => {
e.preventDefault();
e.stopPropagation();
GM_openInTab(articleUrl, { active: false, insert: true });
GM_openInTab(commentsUrl, { active: false, insert: true });
};
return button;
}
};
if (document.readyState === 'loading') {
document.addEventListener('DOMContentLoaded', () => Main.init());
} else {
Main.init();
}
})();
2023年、生成AIを搭載した検索エンジンの登場は世界に衝撃を与えた。米国政府が国家戦略として掲げるAI開発競争は、技術的優位性の確保と経済的リターンの獲得という二重の課題に直面している。OpenAIのGPT-4が示した驚異的な言語理解能力は、軍事技術から医療診断まで幅広い応用可能性を予感させた。しかし、黎明期の熱狂が冷めつつある今、業界関係者の間で囁かれる疑問は「この技術は本当に金を生むのか」という現実的な問いへと移行している。
米国政府は2021年度AI研究開発予算を32億ドルに設定し、国防高等研究計画局(DARPA)主導で軍事転用可能なAI技術の開発を加速している。量子コンピューティングとの融合や、半導体製造技術の国内回帰(CHIPS法)など、ハードウェア面での基盤整備に注力する姿勢は鮮明だ。特にNVIDIAのGPU需要は国防契約と連動し、同社の株価は過去5年で1,200%超の上昇を記録している。
大手テック企業の動向は矛盾に満ちている。MicrosoftはOpenAIに130億ドルを投資しながら、実際のAzure AIサービス収益は予測の60%を下回る。GoogleのBard統合検索では広告収入モデルの再構築に苦慮し、AmazonのBedrockプラットフォームはAWS顧客の3%未満しか採用していない。生成AIのコスト構造が明らかになるにつれ、1クエリ当たり0.006ドルという処理費用が収益化の壁として立ちはだかっている。
ChatGPTの月間アクティブユーザー数が18億を突破する中、OpenAIの年間損失額は5.4億ドルに達する。主要収入源であるAPI利用では、企業顧客の80%がプロトタイプ段階で開発を中止している現実がある。Microsoft 365 Copilotの事例が示すように、生産性向上ツールとしての価値認知と実際の支払意思の間には深い溝が存在する。ある調査では、Copilotユーザーの67%が「月30ドル以上の価値を感じない」と回答している。
AIチップ需要の過熱が生んだ半導体バブルは特筆すべき現象だ。NVIDIAの時価総額が2023年に1兆ドルを突破した背景には、H100 GPUの価格が製造原価の800%を超える事実がある。TSMCの3nmプロセス需要の70%がAI関連に集中する異常事態は、半導体産業全体のリソース配分を歪めている。しかし、Cerebras Systemsの新型Wafer Scale Engineが示すように、ハードウェアの進化速度がソフトウェアの最適化を上回る逆転現象が発生しつつある。
中国のDeepseek-R1がGPT-4の性能を1/10のコストで実現した事実は、業界の常識を根本から覆した。同モデルが採用した「動的ニューロン活性化」アルゴリズムは、不要なパラメータ計算を85%削減する画期的な手法だ。これにより、従来1回の推論に要した0.2kWhの電力を0.03kWhまで圧縮することに成功している。Deepseekの事例が証明したのは、計算資源の多寡が必ずしも性能優位を保証しないという逆説である。
Llama 3やMistralの進化が加速する中、独自モデルを保持する企業の競争優位性は急速に失われつつある。Hugging Faceのプラットフォームでは、1週間ごとに新しいLLMアーキテクチャが発表され、ファインチューニングの自動化ツールが普及している。特に中国発のモデルがGitHubで急増する傾向は顕著で、2024年上半期だけで3,200件の新規リポジトリが登録された。この状況は、初期投資の回収を前提としたビジネスモデルの存続自体を危うくしている。
国際数学オリンピック(IMO)の過去10年間で、中国チームが9回の優勝を達成している事実は軽視できない。特に2023年の北京大会では、金メダル6個中5個を中国国籍の学生が独占した。米国チームの実態を見ると、参加者の62%が中国系移民の子弟で構成されており、本質的な人材育成力の差が浮き彫りになっている。DeepMindの元チーフサイエンティフが指摘するように、「Transformerアーキテクチャの革新には組合せ最適化の深い理解が不可欠」であり、この領域で中国の研究者が圧倒的な論文数を誇っている。
清華大学のAI特別クラスでは、学生が高校時代からGANsや強化学習の数学的基礎を学ぶカリキュラムを採用している。これに対し、MITのコンピューターサイエンス学部では、学部2年次まで微分方程式の必修科目が存在しない。教育省の統計によれば、中国のトップ30大学でAI関連専攻を選択する学生の数は、米国アイビーリーグの3倍に達する。人的資本の蓄積速度の差が、5年後の技術格差に直結する可能性が高い。
LLM市場が直面する最大のリスクは、電気自動車用バッテリーや太陽光パネルと同じ道を辿る可能性だ。BloombergNEFの予測によれば、2027年までにLLMの性能差が実用レベルで感知できなくなり、1トークン当たりのコストが現在の1/100にまで低下する。この状況下では、MicrosoftのCopilotのような高額サブスクリプション・モデルの持続性が疑問視される。逆に、LINEやWhatsAppのようなメッセージングアプリへの基本機能組み込みが主流となるシナリオが有力視されている。
AI技術の民主化が進むほど、国家間の競争はハードウェア規制やデータ主権を巡る争いに移行する。米商務省が2024年に発動したAIチップ輸出規制は、中東諸国向けのGPU販売を34%減少させた。一方、中国が推進する「東数西算」プロジェクトでは、内陸部に分散したデータセンター群が国家標準モデルの訓練基盤として機能し始めている。技術優位性よりも、地政学的な影響力が市場を支配する時代が到来しようとしている。
現状のAIバブルがはじけるトリガーは複数存在する。第一に、2025年をメドに予想される「生成AI特許訴訟の多発」が挙げられる。Getty ImagesがStability AIを提訴した事例のように、著作権問題が技術普及の足かせとなる可能性が高い。第二に、エネルギーコストの急騰だ。アイルランドのデータセンター群ですでに発生しているように、LLM運用に必要な電力需要が地域の送電網の容量を超えつつある。
最も深刻なシナリオは「技術進化の減速」である。Transformerアーキテクチャ以降、根本的なブレイクスルーが10年間発生していない事実は看過できない。物理学者の間では、現在のニューラルネットワークがチューリング完全性の限界に近づいているとの指摘もある。もし2020年代後半までに新しいパラダイムが登場しなければ、数千億ドル規模の投資が不良債権化する危機が現実のものとなる。
米国AI戦略の行方は、単なる経済競争を超えた文明史的挑戦と言える。Deepseekが示したように、技術優位性は絶対的なものではなく、常に相対的な優劣でしかない。重要なのは、AIが生み出す付加価値の本質を見極めることだ。仮に生成AIが期待通りの経済効果を生まなくとも、その研究過程で得られた副産物(分散学習アルゴリズムや省電力チップ設計技術など)が次の技術革命の種となる可能性がある。
最終的に問われるのは、短期的な株価維持ではなく、長期的な技術蓄積をいかに持続可能な形で進化させるかという課題である。中国の人的資本戦略と米国の投資戦略が衝突する中で、第三極としての欧州連合(AI法案)やインド(デジタル公共財戦略)の動向が新たな可能性を開くかもしれない。AI開発競争は、国家の命運をかけた「静かなる戦争」として、これからさらに激化していくであろう。
>広告代理店とか大手版元とか在京キー局とか総合商社とかコンサルとか総合デベとか外資とか
→ここら辺はそこまででもないでしょ。あんまり日本市場を重視してないから、国内のコネにはそこまで重き置いてない、もちろんあれば加点要素だけど。
俺が京大出身でBIG4やACで採用したことあるからひいき目かもしれんけど。東大京大も早慶も大して変わらんっていみではそうなのかもしんないね。 ハーバードとかスタンフォードとかMITって言われたら、おっ!?って思いますけどね
→ここらへんはもう完全にコネビジネスなんで、多少頭がいいとかよりコネ友達親族閨閥よ
数学オリンピック出場の京大生と、どっかの地方都市の地域財閥のボンボンの幼稚舎上がり、これが並んでたら即決で後者取る世界
そりゃ慶応(基本幼稚舎上がりね。大学からの奴は眼中にない)を取るよ
→上の両者の要素がある。両者の枠がある感じ
まー動かしてる金が巨大だから、頭いい奴・コネある奴両方取って、20年後開花すれば投資成功って考えが成り立つ業態だからなあ
今のところ某大学出身でまともな同僚やパートナー(弁護士含む)を見たことないのでしばらく継続される
・ DaiGo氏 (慶應義塾大学理工学部卒・慶應大学で特別講義)
→ホームレスや生活保護者よりも猫が大事
・ 古市憲寿 氏 (院は東大だが 慶應義塾大学環境情報学部卒、慶應義塾大学SFC研究所上席所員)
→ 日本学術振興会「育志賞」受賞する肩書きは社会学者
→ 民主党の時から自民の現在に至るまで内閣府の様々なメンバー、厚生労働省「雇用・女性支援プロジェクトチーム」メンバー
→ 高齢者に「十年早く死んでくれ」と言うわけじゃなくて、「最後 の一ヶ月間の延命治療はやめませんか?」と提案すればいい。
→ [小山田圭吾氏の障害者虐待について]
DaiGo氏「謝ればいいってもんじゃないと思うなら裁判でもすればいいだけの話よな」
古市憲寿氏「本当そうだよね。まあ民事の場合、裁判を起こすには頭とお金がいるから。。。」
→ [ホームレスと生活保護者に差別発言をしたDaiGo氏について]
「生活保護のあり方や理解が深まった」「(DaiGo氏は)メンタル弱いんですよ。いつも落ち込んでいて」
・ 新浪剛史氏 (MBAはハーバードでとってるが慶應義塾大学経済学部卒)
→サントリー社長で経済財政諮問会議の民間議員
関連増田:サントリーってやばい会社だな。45歳希望退職を募るではなく『45歳定年制』かぁ
https://anond.hatelabo.jp/20210910162301#
・伊藤穰一氏 (慶應義塾大学大学院政策博士、慶應義塾大学大学院メディアデザイン研究科 元非常勤講師)
→コーネリアス小山田氏の親戚でベンチャーキャピタリスト、 ジェフリー・エプスタインの件でMITや様々な役職をクビになったが、
なぜかデジタル庁の事務方トップ「デジタル監」に起用される予定だった、
そして最終的にはデジタル社会構想会議の有職者メンバーに落ち着く
・ 竹中平蔵氏 (慶應義塾大学名誉教授)
→パソナ会長で内閣日本経済再生本部産業競争力会議の民間議員で内閣府国家戦略特別区域諮問会議の有識者議員
・ 夏野剛 氏(慶應義塾大学大学院政策・メディア研究科特別招聘教授)
→ 株式会社KADOKAWA社長で(内閣府)規制改革推進会議議長でデジタル庁有識者メンバーでオリンピックでは組織委員会参与を勤めた
・ミスター慶應(わいせつ関連での逮捕6回、起訴なし)
・ 慶應義塾大学広告学研究会レイプ事件(起訴なし)
・慶應義塾大学医学部レイプ事件(起訴なし、退学後、琉大に入り直し医師免許を取得)
・明大駅付近で痴漢を行い線路に逃走、電車を止める
まず、自説については、さも客観的な言い方で、「全く無根拠なことではない」とか言っておく。
もちろん、そこにエビデンスは何一つなくても。
それから、相手の提示してきた客観的に正しいエビデンスに対しては、さも偏った研究結果からばかり引用してきたかのような言い方をして、「それに関しては、より広範な研究結果が求められるだろう」とか言っておく。
最後には、相手の提示したエビデンスも、「ちょっとは認めてやる」みたいな言い方をして、「自分は、反対論者のエビデンスを無根拠に否定する反科学主義者ではない」というスタンスを取りながら、結局、全否定された自説を変えることは頑迷に抵抗することだ。
なぜ言論の自由は前進と後退を繰り返すのか──『ソクラテスからSNS: 「言論の自由」全史』
https://huyukiitoichi.hatenadiary.jp/entry/2024/04/12/080000#fn-3a907ef9
フェイスブックやツイッターはアルゴリズムによるコンテンツモデレーションを行っているし、それはグローバルサービスが避けては通れない国家権力の圧力を受けてのものだ。
当然、そうした規制も無根拠なものではない。人種差別、扇動にプロパガンダ、あらゆる表現が世に溢れる。2018年のMITの調査によると、虚偽のニュースは正しいニュースよりも70%もリツイートされやすいという。ソーシャルメディアにおいては、虚偽やネガティブ、誇張され、感情をかきたてられる特徴を持つコンテンツは速く、広く拡散されるが、事実に即した話、理路整然とした話は拡散されない。
では、どうすべきなのか? 著者は、SNS上でのヘイトスピーチは想像以上に少なく(全体の0.1%から0.3%)、言論の抑制はヘイトスピーチを減らすよりもむしろ増幅する効果をもたらし得るとフェイクニュースも含めいくつかの研究を引きながら書いているが、ヘイトスピーチやフェイクニュースの反乱にたいしてどのように対抗していくべきかについては、より広範な研究が求められる部分だろう。
言論の自由に負の側面があることは間違いないが、同時にそれがどれほどの発展を促し、言論以外の自由の防塁として機能してしてきたのかを思えば、言論の自由を死守する意義が、本書を読めばよくわかるはずだ。
この文章の素晴らしい点は、言論の自由に負の側面があるどころか、ヘイトスピーチを減らすなど、好の影響しかなく、逆に規制は逆効果にしかならないことしか、エビデンスで証明されてないにも関わらず、「規制も無根拠なものではない」だの「言論の自由に負の側面があることは間違いない」だのと、のうのうと言ってのけている点だ。
自分たちが出している根拠は、MITの「虚偽のニュースは正しいニュースよりも70%もリツイートされやすい」という研究たった一つだけだが、これは、「言論規制は逆効果で、ヘイトスピーチを増やす」という不都合な真実を否定していない。
むしろ、言論を規制すればするほど、MITの研究通りに、虚偽のニュースがより拡散されやすくなるということが、この二つの研究結果から見えてくる。
これが、言論の自由ではなく、例えば自然保護などで、あらゆる結果から、逆効果にしかならないとわかっている政策などだったら、それが逆効果でしかないとエビデンスで証明されているにも関わらず、「広範な研究が待たれる。」だの「環境破壊は深刻で、このような措置も無根拠ではない。」だとか喚いて、逆効果な自然破壊行為を続けていたら、「環境破壊してる元凶はテメーなんじゃボケ」と、真っ当な突込みが飛んでくるだろう。
なお、こうした言論テクニックは、実際に林野庁などが、スギ植林を自己正当化して、日本人を花粉症で苦しめながら、日本の景観を破壊し続けていることに利用している。
ほかにも、同じ言論テクニックは、官僚たちの怪しい政策が、真っ当な科学的根拠によって否定されても、おそらく別の思惑によって、その逆効果な政策を続けようとする場合に、いくらでも見ることができるだろう。
そうした官僚の拙い杓子定規な使い方は、真っ当な人間に官僚不信を呼び起こすだけだが、昨今のネット叩きと、表現や言論の自由が憎くて憎くて仕方ない勢力の影響下にあるネットでは、同じ噴飯ものの反知性的言論テクニックが、拍手喝采で迎えられはしなくとも、されるべき突っ込みが起こらないというところに、最悪のポピュリズムが極まった感がある。
規制するほどヘイトスピーチが広まるのは、規制の網を掻い潜ることに長けたマスコミが、規制によって、有効な反論がされ難くなったことを良いことに暴走しているからとしか思えないが、そのマスコミが扇動すれば、こないだのイギリスのように、関東大震災朝鮮人虐殺事件を彷彿とさせるような暴動が、簡単に惹き起こされかねない状態になっているように思える。
「朝鮮人が井戸に毒を!」デマも、全ての火付け役は、マスコミだったことを忘れてはならない。
まとめブログ全盛期の頃の、悪質な大手サイトも、実際は、個人ではなく広告代理店が運営していたのだ。
マスコミの作った日本ファクトチェックセンターは、まさに「我々マスコミは事実を報道しようと努力しているので対象にしませーん」と平気でのたまって活動している連中だが、規制によってネットの一般人のファクトチェック機能が弱体化し、そうしたマスコミ製ファクトチェック機関しか残らなくなれば、また「朝鮮人が飲料水に毒を!」というデマをマスコミが拡散しても、それをファクトチェックする者はどこにも残ってはいないだろう。
マスコミが、まず在日外国人などを味方に付けるように、逆差別的な報道を繰り返すのも、明らかにこの思惑があるからだ。
「将来的には、衆愚を煽ってお前らを自由に虐殺できるように整えるけど、それまでは味方だと思わせて協力させたるわw馬鹿ネトウヨは、ただ扇動して殺し合いしてもらうだけのブタだけど、最終的には朝鮮人憎しで俺らの味方になるしなwww」
というわけだ。
実際にネトウヨが憎むべきは、逆差別的報道を繰り返したマスゴミで、朝鮮人ではないのだが、未だにマスゴミ工作員の扇動にまんまと乗せられている嫌韓ネトウヨを見ていると、彼らの工作はまんまと成功しているように見える。
パリピ孔明に「民草」という言葉が出てきて、 おそらく意味としては 「何の才能もなく平凡だが、毎日を一生懸命に生きてる人々」 みたいな意味なのだろうが、 最近、どうもこの言葉に嵌ってる。
http://blog.livedoor.jp/advantagehigai/archives/66112831.html
という記事を見つけたのだが、ここでは開成と麻布の対比として、 仮に両方とも、10の努力をすると100点をとれるとすると、 開成生は12の努力をして120点をとりにいこうとするが、 一方で麻布生は8の努力をして100点を狙う省エネ戦法で行くのかというと それどころか3の努力で80点を取りに行く精神性があると書いてある。 だから麻布生はトップ(国王)になれないのだ、ということだ。
これは中学受験にも問題があり、 麻布の入試は明確に、3の努力によって80点をとれる子を選抜している。 麻布の入試はよく、対策不能と言われるが、 そういう、ゴリゴリに努力したとてとれない問題を出すことによって、 超地頭キッズを選抜しているのだ。 偏差値では足りてたけど、落ちたという場合、 それはたぶん、地頭が足りなかったのだ。
麻布生はまさに「民草」とは真逆にある存在だ。 それ故に、おれは民草という言葉にハマってるのだと思う。 民草は、12の努力をしても30点しかとれない人たちのことだろう。 ガイジすぎて笑ってしまう。 まさに草だ。
さて、民草という言葉に最近おれが突然ハマり始めたもう1つの理由はおそらく、 最近になってようやく民草というものの存在に気づいてしまったからだと思う。 何を言ってるかというと、おれは民草の存在を最近まで感じたことがなかった。
おれが通った幼稚園は少し特殊で、その中でもよく遊んでいた子に TくんとNくんがいるが、ともに早稲田と慶応に進学したと聞く。
小学校は公立だが、今思い返すと、「あきらは特別だから」と先生に言われていて、 その時は何のことかわからなかったが、今思うとそういうことだったのだろう。
おれの親は早期教育に反対していて、3年生になるまでは家庭学習は一切しなかった。 そのため、学校の成績はそれほど良くはなく、この前たまたま押入れの中から当時の成績表を見たが、 それはまぁ、ひどいものだった。
3年になると家庭学習も多少やりはじめ、そうすると成績が一瞬でトップクラスになり、 秋には地元の最難関中学受験塾に合格してしまった。 ここの塾に入るための試験はかなり難しく、かなりの子が国立や私立の小学校か、 あるいは低学年向けの講座でゴリゴリに仕上げてきた子だった。 一方でおれは学校の勉強ではトップクラスだったものの 中学受験の勉強はしてなかったので不利だったが、 試験中にすべてその場のノリで解いた。 問題はパズルのようなものが多く、そもそも麻布栄光向きの子を 選抜するための試験だったので、それもおれには向いていたのだと思う。
入塾してからも一気に成績を伸ばし、 4年の秋には四谷大塚の組分けテストがあったが、 ここでも無事C会員に合格。 C会員の世界だと半分くらいは御三家に合格するから、 ざっくりいうとこの時点で麻布や栄光に行けることはほぼ確定した。 その後もそれなりに勉強はしたが、陸上部のキャプテンとして陸上大会に出場したり、 自らミニ四駆部を立ち上げたり、デジモンの転売業をやってボロ儲けしたり、 3以上の努力はしなかった。
結局、無事に麻布中学に進学し、超地頭キッズたちと楽しく6年間過ごした。 その後の大学受験は、高3の時に受けた鼻の手術がまずくエンプティノーズになったために残念ながら破綻したが、 あれがなければやっぱり3の努力で東工大に進学してたと思う。 おれは、東工大で一番になり、MITに交換留学することが夢だったのだ(英語だけはそれなりにやり準一級までとってたのはこのため)。 結局その後京大に行ったが、 やはり民草とは程遠い世界だった。
新卒で入った日立製作所も、周りには修士以上が応募条件なので、 やはりここでも民草には会えなかった。 実のところ、それ以降の職場でも、特殊な場合を除くと全員修士以上だった。
民草に出会ったのはようやく最近のことだ。 修士号もないやつがエンジニアリングをやるということが おれにはどういうことなのかさっぱりわからないのだが、 とにかく、民草学歴であっても、自分なりに創意工夫してエンジニアリングっぽいことをしてる 人たちがこの世には存在するということがようやくわかってきた。
まぁ、存在することはわかったとしても、 どうして彼らが自殺しないのかがよくわからないのだけど。 何が楽しくて生きてるの?
転職活動や4月からの新年度がようやく落ち着いてきたタイミングにおすすめなのがオンライン学習です。
ここでは、学びたい内容や目的に合わせて選べる20のオンライン学習サービスを紹介します。
幅広いジャンルのコースが豊富で、自己ペースで学べるのが特徴。プログラミング、デザイン、ビジネスなど多岐にわたります。
Coursera
大学や企業と提携し、質の高い講義を提供。修了証も取得でき、キャリアアップに役立ちます。
ハーバードやMITなどの名門大学が提供する無料コースが充実。深い学びを得たい人におすすめ。
Khan Academy
主に中学・高校生向けの無料教育リソース。数学や科学の基礎をしっかりと学べます。
LinkedIn Learning
ビジネススキルやソフトウェアの使い方に特化。LinkedInのアカウントと連携して学習履歴を管理できます。
https://www.linkedin.com/learning/
日本のオンライン学習プラットフォーム。ビジネススキルや趣味の講座が豊富です。
スタディチェーン
オンラインの進路相談サービス。個別指導や進路に関するアドバイスを提供。
OpenLearn
オープン大学が提供する無料コース。幅広いジャンルから選べます。
https://www.open.edu/openlearn/
以上です。
ぜひ学習してみてください。
Frankfurt Radio Symphony Live: John Storgårds & Martin Helmchen with Bach/Webern, Mozart & Bruckner
https://www.youtube.com/watch?v=w4L1FGyiFVQ
2024/05/25 に公開予定
Johann Sebastian Bach/Anton Webern:
Ricercar a 6
Klavierkonzert D-Dur KV 451
Anton Bruckner:
6. Sinfonie
hr-Sinfonieorchester – Frankfurt Radio Symphony
Martin Helmchen, Klavier
John Storgårds, Dirigent
Alte Oper Frankfurt, 24. Mai 2024
John Storgårds und Martin Helmchen zu Gast beim hr-Sinfonieorchester mit einer bekannten Bach-Bearbeitung Anton Weberns, einem eher wenig beachteten, mit feinsinnigen Überraschungen aufwartenden Mozart-Klavierkonzert und Bruckners ebenfalls nicht eben häufig zu hörender 6. Sinfonie.
____________________________
John Storgårds and Martin Helmchen are guests of the Frankfurt Radio Symphony with a well-known Bach arrangement by Anton Webern, a piano concerto by Mozart that has received little attention but offers subtle surprises, and Bruckner's Symphony No. 6, which is also not often heard.
こんにちは、皆さん。今日は少し物議を醸すかもしれないトピックについて語りたいと思います。
それは、「ソフトウェア技術の99.9%はインターネットから学べるのでググる力を身に着けましょう」という考え方です。
現代のソフトウェア開発者にとって、インターネットは最も重要な学習リソースの一つです。
オンライン上には無数のチュートリアル、ドキュメンテーション、フォーラム、ブログ記事、論文があり、それらは私たちが新しい技術を学び、問題を解決するのに役立ちます。
しかもこれらはソフトウェエア技術のほぼ全分野をほぼ網羅しており、見つからない情報はありません。MIT OCW, arxiv, github, kaggleなどなんでもあります。
「ググる力」とは、情報を効率的に検索し、適切な情報を見つけ出す能力のことを指します。
これは、適切なキーワードを使用したり、信頼性のある情報源を識別したり、関連性のある情報を抽出したりする能力を含みます。
ソフトウェア開発は常に進化しています。新しい技術やフレームワークが日々生まれ、既存のものも更新され続けています。
このような環境では、すべてを覚えることは不可能ですが、必要な情報を素早く見つけ出す能力があれば、それが可能になります。
私の主張は、すべてのソフトウェア開発者が自分自身で学ぶこと、そしてそのための最良のツールがインターネットであるということです。
そして、そのためには「ググる力」を身につけることが不可欠です。
https://www.youtube.com/watch?v=nZVHarfkes0
Frankfurt Radio Symphony Live: Alain Altinoglu with Shostakovich's Symphony No. 5
Dmitrij Schostakowitsch:
5. Sinfonie
hr-Sinfonieorchester – Frankfurt Radio Symphony
hr-Sendesaal Frankfurt, 10. April 2024
Chefdirigent Alain Altinoglu und das hr-Sinfonieorchester Frankfurt in einem exklusiven Livestream-Konzert aus dem hr-Sendesaal in Frankfurt mit der 5. Sinfonie von Dmitrij Schostakowitsch.
もうかなり前です。
留学した当時は,その大学はスポーツ推薦はありませんでした。それが誇りでもあったと聞いたことがありますが,さすがにコンファレンスでいい成績が出ない。僕が帰国してからだったと記憶しますが,スポーツ推薦を始めたようです。
ただし,その大学だけじゃなく,最近バスケットボールで留学した渡邊君も言ってましたが,学期ごとに成績がある基準を下がると試合には出られなくなります。
ですから,そうなりそうな学生は,同級生の中からチューターを雇用して(もちろんお金がかかります),夕食後に図書館などで深夜まで勉強を教えてもらっていました。スポーツができるだけでは卒業はできない仕組みです。
さて,講義レベルのことですが,まず米国の入試では,共通テスト (SAT) 等以外に筆記試験がありません。
つまり日本の一般入試というシステムではなく,日本のAO(今の総合型)入試が,米国入試を真似たシステムです。
そして,共通テストの内容は,日本人の高校3年生が受ければ,多分簡単です。中学校レベルに毛が生えたくらいだと言われることもあります。これは,米国の中等教育の
しかし,SAT の成績がいいから合格するってわけでもありません。MIT も昨年度までは,入試の合否で SAT などのスコアを使っていませんでした。つまり面接や応募書類の中身で合否判定をしていたわけです。
しかしとうとう,今年からだったか MIT も共通テストのスコアを参考にすることになったようです。
秋ごろの日本の全国紙に,ハーバード大学が調査した大学卒業率の記事がありました。
米国の全国大学平均で,卒業率は50%,つまり二人に一人は退学になって卒業できないんです。これが入試に筆記試験が無いからなのかどうかは,記事には書いてありませんでしたが,さすがにハーバード大などの研究型大学の卒業率はもちろん90%を超えます。当たり前です。
さて,そういう事情ですから,例えば米国の研究型大学1年生と,東大の1年生に,東大の理科 I 類の1年生の数学の中の線形代数の試験を受けさえると,東大生が80%は合格するのに対し,米国大学の学生は20%しか合格しないかもしれません。
僕は留学先で,試しに1・2年生を対象とした複素関数の講義の一回目に(ひやかしで)座ってみました。日本の大学の数学の講義よりも丁寧で,分かりやすいです。
ところが60分の講義が終わった途端にひとりの学生が挙手をして質問しました。「先生,この時間内でしょっちゅう出てくる i って何ですか?」です。
日本の大学生なら,文系の学生でもこの発言にはびっくりしますよね。
つまり虚数単位を知らない学生が,世界大学ランキングで東大よりも上位の大学の1年生に,少なくとも一人はいたわけです。
これが,米国の高校までの教育目標と日本のそれが異なることの一例ではないでしょうか。
ところが,例えば工学部3年生以上の講義科目の内容を日米で比較してみましょう。ほぼ同じです。実際僕は,その両方を履修していますから,これは本当のことです。
僕の知人が勤めている日本の旧帝大工学部のある学科は毎年のように優秀な学生で英語で不自由しない3年生を,1年間の交換留学させていて,米国で取得した専門科目の単位を持ち帰ること(読み替えること)が可能でした。
ところが,東大よりもランキング上位の大学に留学した旧帝大学生の成績があまりにも悪いということが数年続いてしまいました。
講義内容は,3年生なら日米ではそんなに違いがありませんが,quarter 制度のあの詰め込み講義と毎週の宿題と,応用問題が出される期末試験でいい成績をおさめられないってわけです。
卒論は,オプションです。やる学生は圧倒的に少ないと感じましたが,これについては統計も何も持っていません。
僕が勤めていた大学では,工学部3年生の応用数学や力学などの一部の講義をすべて英語で実施しています。
これは,交換留学の公式のプログラムに,欧米やアジアの成績がいい3年生が半年か1年留学受け入れがあり,その学生が,日本人に提供している講義を一部だけ全部英語で実施しているものです。
僕の英語があまりにも上手だからでしょうか,日本人の学生には不評な講義でしたが,日本人の学生も80%は70点以上をとります。80点前後にピークが来ます。70点あたり