Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
コンテンツにスキップ

利用者‐会話:Tarepan

ページのコンテンツが他言語でサポートされていません。

コンテンツ翻訳ツール

[編集]

信号処理ですが、もしかしてコンテンツ翻訳ツールを御使いでしょうか?「フレーム理論(線形代数)」の次の出典がおかしくなっています。御使いであれば利用者:McYata/コンテンツ翻訳についてを1度御覧下さい。特に、問題が修正されている新バージョンについては必読だと思います。--JapaneseA会話2018年12月21日 (金) 13:17 (UTC)[返信]

他の事は手を止めて頂いて、上記修正を御願いします。--JapaneseA会話2018年12月28日 (金) 13:35 (UTC)[返信]

ご指摘ありがとうございます。 「コンテンツ翻訳ツール」を利用した経験はありません。ご指摘の部分を修正して頂ければ有り難いです。--以上の署名のないコメントは、Yuho.K会話投稿記録)さんが 2018年12月29日 (土) 05:35 (UTC) に投稿したものです(JapaneseA会話)による付記)。[返信]

これは英語版からの翻訳でしょうか?それとも英語版の出典のみが必要なのでしょうか?いずにれせよ、このリンク[1]は貴方にしか修正できません。なお、発言の最後には署名と日時を御願いします(Wikipedia:署名に簡単に署名できる方法が記載されています)。--JapaneseA会話2018年12月29日 (土) 06:01 (UTC)[返信]
英語版wikipediaへのリンクが希望の動作です。リンク先に不必要なタグが入っていたようです、ご指摘ありがとうございます、修正しました。 --Yuho.K会話2018年12月31日 (月) 06:55 (UTC)[返信]
ありがとうございました。--JapaneseA会話2018年12月31日 (月) 07:40 (UTC)[返信]

プレビュー機能のお知らせ

[編集]
投稿時、中央のボタンを押すとプレビューできます。

こんにちは。ウィキペディアへのご寄稿ありがとうございます。

Tarepanさんが同じ記事に対して短時間に連続して投稿されているようでしたので、プレビュー機能のお知らせに参りました。投稿する前に「プレビューを表示」のボタンを押すと、編集結果を先に見ることができます。詳しくはHelp:プレビューを表示をお読みください。

これを使うことで

などをあらかじめチェックし、修正してから投稿していただくことにより、同じ記事への連続投稿を減らすことができます。この利点については、同じ記事への連続投稿を減らすの項目に説明がありますので、よろしければお読みください。また、ガイドブックにウィキペディア全体のことについて分かりやすく解説されていますので、あわせてお読みいただけると幸いです。ご理解とご協力をよろしくお願いします。なお、もしすでにご存じのことでしたら、悪しからずお願いいたします。 —-Semi-Brace (会話 / 投稿) 2020年8月9日 (日) 08:53 (UTC)[返信]

返信 丁寧に案内ありがとうございます。普段からプレビューを活用しております。「同じ記事への連続投稿」に関して質問です。同一記事内の関連が薄い2項目を編集する際に投稿を分割すべきか否か、に関するガイドラインは存在するでしょうか? ご指摘いただいた連続投稿ですが、ほぼすべて、異なる項目(例: あるソフトウェアの「機能」と「歴史」)を編集したために分割投稿をおこなっています。「投稿取り消し」や「編集内容の要約」の観点からすると1投稿1内容が妥当だと考え(c.f. プログラミングにおけるバージョン管理)連続投稿になるケースでも複数にわけた投稿をおこなっています。もしお時間ありましたらガイドライン等の案内をいただければ幸いです。--Tarepan会話2020年8月10日 (月) 01:59 (UTC)[返信]
1か月前の話なので今さらかもしれませんが、横から失礼いたします。Wikipedia:同じ記事への連続投稿を減らす自体方針・ガイドラインではなく、結局のところは常識を頼りに判断してください、としかいえません(Semi-Braceさんが示した定型文はプレビュー機能を知らない初心者向けのものです)。Tarepanの投稿記録ではJavaScriptの編集回数が多いように思えますが、1記事に数十回連続で編集しているとかでなければ大丈夫だと思います。参考までに、差分閲覧がしやすくなるよう「1節ごとに1編集」にする方や「できるだけ1記事ごとに1編集」にする方はウィキペディアで見かけたことがあります(私は後者です)。--ネイ会話2020年9月19日 (土) 16:12 (UTC)[返信]
返信 常識の範囲内で各々が各々のスタイルでやり方を決めている、ということですね。非常に助かりました、ありがとうございます。--Tarepan会話2020年9月20日 (日) 00:42 (UTC)[返信]

Matroskaの出典強化へのお礼と独自研究タグ除去について

[編集]

はじめまして。直蔵と申します。Matroskaでの出典強化の編集について、改めてこの場をお借りしてお礼申し上げます。どうもありがとうございました。その上でですが、Tarepanさんは自らの出典提示により独自研究タグは外しても構わないだろうとお考えになったと思いますが、ノートにて先にご説明申し上げたように、まだ出典の足りない部分がありますので、タグを外すのはご遠慮頂きたかったです。改めてタグを貼り直すとともに、その旨説明をノートに加筆しておきましたのでご承知おきください。編集された際に、同時にノートにおけるご報告も頂きたかったところです。--直蔵会話2021年8月15日 (日) 23:55 (UTC)[返信]

独自研究タグに関わる状況を把握しました。Matroska問題記述に関する具体的な指摘等、非常に参考になりました、ありがとうございます。
ノート:Matroskaにてより一層の改善方針について提言いたしました。直蔵さんの知識があればMatroskaの問題部分が読者へより明確に伝わるかと思いますので、ご確認・ご対応いただければと思います。--Tarepan会話2021年8月16日 (月) 01:36 (UTC)[返信]
遅くなりましたがノートにてご回答申し上げました。ご覧いただけるとありがたいです。--直蔵会話2021年8月21日 (土) 09:02 (UTC)[返信]

こんにちは、いつもご活動拝見しております。紅い目の女の子と申します。 一部の記述に要出典を付加させていただいたのですが、うまく意図が伝わっていなかったように思いましたので改めて会話ページで補足にまいりました。

例を挙げますと、「単純なCNNは順伝播型 (FFN)、すなわち浅い層から深い層へのみ結合をもつ。ただしCNNは2層間の結合様式を規定するクラスであり、大局的に回帰結合をもち層間では畳み込みをおこなう非FFN型モデルもCNNの一種である」という部分がありましたが、この内容自体は個人的には特に間違っていないのかなと思っております。ただ、出典は別途必要です。どういうことかというと、出典として挙げていただいていた「Liang, et al. (2015). Recurrent Convolutional Neural Network for Object Recognition.」にここまでの内容が書いてあるのかということです。斜め読みした程度ですので見落としがあったらご指摘いただきたいのですが、特に「CNNは2層間の結合様式を規定するクラスであり、大局的に回帰結合をもち層間では畳み込みをおこなう非FFN型モデルもCNNの一種である」といった広いことまでこの文献に書いてあるんでしょうか。私が見た限りではRCNN自体には言及しているとしても、ここまで一般的なことは書いていないように見受けられました。(なお、参考文献を挙げる際にはこういった検証に資するために、ページ数まで書いてあると非常に親切だと思います(WP:GENREFも参考にしてください)。参照した原文を書き写すことは著作権の問題もあるので避けたほうがよいです)

また、新たに加筆された「現在ではCNN以外のニューラルネットワークでもピクセル入力の画像処理が実現されており、畳み込み処理自体が特徴設計を不要にするキー技術であるとは言えないことがわかっている。」という部分も、実態として、畳み込みを使わないアルゴリズムでもある程度精度が出ていて、畳み込みだけが特徴抽出の方法ではないというのは正しいと思います。ただ、この部分もはっきりそう書いてある出典を提示しないと、Tarepanさんの独自研究として扱われてしまいます。(余談ですがWP:PSTSも踏まえると、このような総論的な話は個別の研究論文(Vision Transformer)を使うより、サーベイ論文などを使った方が望ましいです)

本当なら、このような出典を使ってこのように書くと独自研究にはならないですよ、というのをこの場で提示できればよいのですが、私自身本来の専門が画像処理でして若干ずれており、すぐにはご提示できませんでした。

以前からこのあたりの分野で多筆でいらっしゃることはよく拝見しておりまして純粋にすごいと感じていたのですが、内容を精査していると時折上で述べたような、出典が提示されていない独自研究に見えるもの、があるように感じましたので、この機会に指摘させていただきました。今後も気づいた折には修正させていただこうと思います。今後の執筆の際には十分ご留意いただければありがたいです。

今後ともどうぞよろしくお願いいたします。 --紅い目の女の子(会話/履歴) 2021年11月30日 (火) 08:28 (UTC)[返信]

@紅い目の女の子さん、丁寧にありがとうございます。
RCNN自体には言及しているとしても、ここまで一般的なことは書いていないように見受けられました。
ご指摘の通りです。この記述は直接RCNN論文に含まれておらず、理想的な参考文献足りえていません。
RCNN論文には "This work shows that it is possible to boost the performance of CNN by incorporating more facts of the brain." とあり、筆者らはRCNNはCNNの一種として扱っています。つまり回帰結合モジュールを足したCNN (nonFNN型CNN) の実例となっている論文です。「大局的に回帰…もCNNの一種である」に対する出典として追加しました。「CNNは2層間の結合様式を規定するクラス」に対する出典には(ご指摘の通り)なっていないです。
現在の1文を「(クラス部分)(要出典タグ)。一例として、大局的に…非FNN型CNNが提唱されている(RCNN参考文献)。」の二文とする修正がありえるかと思いますが、どうでしょうか?
「現在ではCNN以外のニューラルネットワークでもピクセル入力の画像処理が実現されており、畳み込み処理自体が特徴設計を不要にするキー技術であるとは言えないことがわかっている。」という部分も…はっきりそう書いてある出典を提示しないと、Tarepanさんの独自研究として扱われてしまいます
ご指摘の通りです。「実現されており」の部分にViT等の個別論文を参照し、「言えない」の部分に要出典タグされるのが妥当だと考えます。
出典が提示されていない独自研究に見えるもの、があるように感じましたので、この機会に指摘させていただきました。今後も気づいた折には修正させていただこうと思います。
ご指摘の通りでして「ここは研究者・実践者の認識として一般的だろうし、今回はちょっと参考文献甘めでも…」という部分が多々あるのは自覚しております。より留意していきます。
参考文献が怪しい部分に要出典がつくのは健全であり望ましく、紅い目の女の子さんのような方がレビュアーとしてタグ付け・指摘・加筆していただけることに非常に感謝しています。
今後ともご指摘いただければと思います。
その他:
参照した原文を書き写すことは著作権の問題もあるので避けたほうがよいです
「原文の書き写し」は引用であり、むしろ推奨すべきことと考えています。センテンス引用・ブロック引用は科学全般で広く利用され推奨される方法であり、著作権法上認められた方法です。--Tarepan会話2021年12月1日 (水) 01:01 (UTC)[返信]
速やかなご返答をいただきありがとうございます。
> 現在の1文を「(クラス部分)(要出典タグ)。一例として、大局的に…非FNN型CNNが提唱されている(RCNN参考文献)。」の二文とする修正がありえるかと思いますが、どうでしょうか?
確かにこの書き方はとてもよいと思います!既にTarepanさんも仰っておられるように、2文目も現行版ですと、RCNNの文献で使われているという用例1つだけで「CNNの一種である」と言い切ってしまっているのが少し違和感があったのですが、ご提案いただいた「提唱されている」という書き方ですと、あくまでも手法を提案した研究者自身がCNNであると表現しているという意図が伝わりそうです。
> 「原文の書き写し」は引用であり、むしろ推奨すべき
この点はTarepanさんの仰る通りです。説明が不足しておりました。日本語版Wikipediaの全体的な傾向としてそもそも著作権の取り扱いに厳しめな傾向があること(慣行上許されていても安全寄りに倒して判断されることがある)、WP:引用要件でもページ数まで記載することが推奨されていることが念頭にありました。Tarepanさんが引用部分を具体的に書いてくださっていて私も元の文章を探しやすかったのは確かでしたし、書き写しを避けるべきとするご説明は取り下げます。但し、ページ数については記載いただけますとありがたいです。
> 「(前略)今回はちょっと参考文献甘めでも…」という部分が多々あるのは自覚しております。より留意していきます。
Tarepanさんが既にご自覚なさっていたことであれば、このように個別の会話ページでご指摘するまでは蛇足であったかもしれないですね。独自研究を記載される方の中には本当に「独自の」研究を記載される方もいらっしゃるのですが、Tarepanさんのご説明を聞く限りではそういったことではなく、あくまでも一般的な認識であるだとか何らかの論文に記載されていたということを加筆されているということですよね?勿論理想的には出典を付けるべきなのですが、個人的にはそういった「たまたま出典が見つからないから独自研究になっているが、実際には何かしら出典はあるはず」といった記述であれば、まさに今回私が行ったように追加で調べるきっかけにもなりますし、ある程度は許容されると思っています。書くことで表に見えて、誰かが出典をつけてくれることもあるでしょうし。
一応私がそういった記述をする際の例として、出典が見つかるまではコメントアウトに留めておいて見つかった時点で解除して加筆する(参考:この差分の6行目の部分)とか、コメントアウトやノートページで独自研究になってしまっていることを予め補足しておく(参考:機械学習とは程遠い分野の例で恐縮ですが、魔女見習いをさがして#あらすじの末尾のコメント記載や、特別:差分/86680759でのノートページでの情報共有など)などしていることがあります。
何にせよTarepanさんのご返答を拝見して、懸念するようなことは何もなく、あくまでも百科事典に記載すべき内容を記載すべく取り組んでおられることが理解できました。えらそうなことも申し上げたと思いますが、好意的に受け止めていただいたことにこちらこそ感謝しております。
改めて、今後ともどうぞよろしくお願いいたします。 --紅い目の女の子(会話/履歴) 2021年12月1日 (水) 02:00 (UTC)[返信]
非FNN型の部分は上記の形で後ほど加筆・修正いたします。出典ページ明記承知しました。出典不足の対応例としてはコメントアウト・ノートを用いた一時保留・補足ということですね、参考になります。
建設的な議論になり感謝しております。今後ともよろしくお願いいたします。--Tarepan会話2021年12月1日 (水) 02:55 (UTC)[返信]

ユナイテッド・プロダクションズ・オブ・アメリカの出典補強お願い

[編集]

はじめまして。リトルスターと申します。この度は、リミテッド・アニメーションの加筆をしてくださり、誠にありがとうございました。これに関連しまして、ユナイテッド・プロダクションズ・オブ・アメリカの出典を補強していただけないでしょうか。--リトルスター会話2024年11月8日 (金) 23:42 (UTC)[返信]

UPA設立前からリミテッドアニメーション確立までの内容と出典を補強しました。--Tarepan会話2024年11月10日 (日) 04:18 (UTC)[返信]
お忙しい中ご対応くださり、ありがとうございました。(私ではちょっとやりにくいと思い、お願いした次第です。)内容を確認しまし、こちらの期待以上であると認識しました。今後もよろしくお願いいたします。--リトルスター会話2024年11月10日 (日) 09:27 (UTC)[返信]