question
dict
answers
list
id
stringlengths
2
5
accepted_answer_id
stringlengths
2
5
popular_answer_id
stringlengths
2
5
{ "accepted_answer_id": null, "answer_count": 1, "body": "HPEの物理サーバにUbuntu 22.04をインストールして、サーバはオフラインで運用しています。 \nオフライン環境のため、パッケージのインストールができず、事前に最新パッケージのdebファイルをtarで固めて置いておくことになっています。(以下のファイル全て)\n\n<https://packages.ubuntu.com/lunar/allpackages>\n\n上記のパッケージファイルを一個一個ダウンロードしていると気が遠くなる作業なので、効率よく全てのパッケージをダウンロードする方法はないでしょうか?\n\n考えたこととしてリポジトリサイトからwgetコマンドで持ってこようと思ったのですが、パッケージをダウンロードではなく「index.html」をダウンロードして上手くいかず。\n\n<https://mirrors.edge.kernel.org/ubuntu/>\n\n何か効率よい方法があればご教示いただけると助かります。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-29T05:44:00.797", "favorite_count": 0, "id": "93082", "last_activity_date": "2023-01-06T07:24:30.417", "last_edit_date": "2022-12-29T08:50:51.303", "last_editor_user_id": "3060", "owner_user_id": "56275", "post_type": "question", "score": 0, "tags": [ "ubuntu" ], "title": "Ubuntu で最新パッケージ全てをダウンロードしたい", "view_count": 474 }
[ { "body": "Ubuntu/Debian ではパッケージリポジトリをミラーリングする [apt-mirror](https://apt-\nmirror.github.io/) というコマンドが用意されています。\n\nローカルにパッケージをコピーした上で、HTTP (webサーバ)\n等でクライアントからアクセス可能な状態にします。すべてをダウンロードするにはそれなりのディスク容量が必要となります。\n\n> Ubuntuは、ローカルキャッシュを公式のUbuntuリポジトリと同期するための apt-mirror パッケージを提供します。ミラーは、 HTTP\n> または FTP サーバーを介して構成して共有できます。ローカルシステムクライアントを含むソフトウェアパッケージ。\n>\n> 完全なミラーキャッシュを実現するには、サーバーにローカルリポジトリ用に予約された少なくとも 120G の空き領域が必要です。\n\n**参考:** \n[UbuntuおよびDebianシステムで「apt-mirror」を使用してローカルリポジトリを設定する](https://ja.linux-\nconsole.net/?p=1392#gsc.tab=0) \n[How To Create A Local Debian/Ubuntu Mirror With apt-\nmirror](https://www.howtoforge.com/local_debian_ubuntu_mirror)", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-29T06:15:14.727", "id": "93083", "last_activity_date": "2022-12-29T06:15:14.727", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "3060", "parent_id": "93082", "post_type": "answer", "score": 3 } ]
93082
null
93083
{ "accepted_answer_id": null, "answer_count": 2, "body": "以下のサイトに記載のコードで、意味が分からない部分があります。 \nなぜ `$response` の `Forms[0]` を代入していますか?どういう意味があるのでしょうか?\n\n[Form posts with PowerShell](https://blog.csmac.nz/post/formpost-with-\npowershell/)\n\n>\n```\n\n> $form = $response.Forms[0]\n> \n```\n\nまた、以下のコードはエラーになります。なぜでしょうか?\n\n```\n\n $response = \"aaa\"\n $form = $response.Form[0]\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-29T08:14:51.563", "favorite_count": 0, "id": "93086", "last_activity_date": "2022-12-30T13:11:26.187", "last_edit_date": "2022-12-30T07:56:17.497", "last_editor_user_id": "3060", "owner_user_id": "56253", "post_type": "question", "score": 0, "tags": [ "powershell" ], "title": "PowerShellでInvoke-WebRequestの結果に対しForms[0]とは何ですか?", "view_count": 190 }
[ { "body": "$myUrlのセッションを保存する方法、フォームを投稿する方法としての$responseだからではないでしょうか。\n\nできるかどうかわかりませんが、SessionValueを渡してusernameにaaaを代入する。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-29T08:34:25.597", "id": "93087", "last_activity_date": "2022-12-30T13:11:26.187", "last_edit_date": "2022-12-30T13:11:26.187", "last_editor_user_id": "50767", "owner_user_id": "50767", "parent_id": "93086", "post_type": "answer", "score": 0 }, { "body": "直前のコードが重要です。\n\n```\n\n $response = Invoke-WebRequest -Uri $myUrl -Method GET -SessionVariable mySession\n \n $form = $response.Forms[0]\n \n```\n\nとあります。ここで [`Invoke-WebRequest`](https://learn.microsoft.com/ja-\njp/powershell/module/microsoft.powershell.utility/invoke-\nwebrequest?view=powershell-7.3)\nが何を出力するコマンドレットなのかが重要です。ドキュメントの[メモ](https://learn.microsoft.com/ja-\njp/powershell/module/microsoft.powershell.utility/invoke-\nwebrequest?view=powershell-7.3#notes)の項目には\n\n> PowerShell 6.0.0 Invoke-WebRequest 以降では、基本的な解析のみがサポートされています。\n\nとあるように、6.0以降と6.0未満とで挙動が異なります。それを踏まえて、[出力](https://learn.microsoft.com/ja-\njp/powershell/module/microsoft.powershell.utility/invoke-\nwebrequest?view=powershell-7.3#outputs)を参照すると\n\n> [`BasicHtmlWebResponseObject`](https://learn.microsoft.com/ja-\n> jp/dotnet/api/microsoft.powershell.commands.basichtmlwebresponseobject?view=powershellsdk-7.2.0)\n\nとあり、6.0未満である[5.1の出力](https://learn.microsoft.com/ja-\njp/powershell/module/microsoft.powershell.utility/invoke-\nwebrequest?view=powershell-5.1#outputs)を参照すると\n\n> [`HtmlWebResponseObject`](https://learn.microsoft.com/ja-\n> jp/dotnet/api/microsoft.powershell.commands.htmlwebresponseobject?view=powershellsdk-1.1.0)\n\nとメモの通り、出力内容に仕様変更があることがわかります。それぞれのリンク先をみるとわかりますが、5.1が出力する`HtmlWebResponseObject`には[`Forms`プロパティ](https://learn.microsoft.com/ja-\njp/dotnet/api/microsoft.powershell.commands.htmlwebresponseobject.forms?view=powershellsdk-1.1.0#microsoft-\npowershell-commands-htmlwebresponseobject-\nforms)が存在しますが、7.2が出力する`BasicHtmlWebResponseObject`には存在しません。\n\n質問者さんが参照されたドキュメントはPowerShell\n5.1を対象に記述されたものでしょう。実際、投稿日は2016/06/27となっていますが、PowerShell Core\n6.0.0のリリースは2018/01ですし。", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-29T08:46:17.907", "id": "93088", "last_activity_date": "2022-12-29T08:46:17.907", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "4236", "parent_id": "93086", "post_type": "answer", "score": 2 } ]
93086
null
93088
{ "accepted_answer_id": "93094", "answer_count": 1, "body": "### 質問内容\n\n以下のソースファイルでエラーが発生するのですがこのエラーコードの意味がわかりません。 \n`expected initializer before ‘Render’`日本語訳\n`「Render」の前に必要な初期化子`とは何をすればいいのでしょうか?\n\n### 知りたいこと\n\nRenderの前に必要な初期化子とは何か知りたい\n\n### 参考サイト\n\n<https://stackoverflow.com/questions/41968329/c-error-expected-initializer-\nbefore-variablename> \n<https://qiita.com/hmito/items/9d928322ca978319da59>\n\n### エラーコード\n\n```\n\n src/Render.hpp: At global scope:\n src/Render.hpp:73:36: error: expected initializer before ‘Render’\n 73 | T Render<T>::SpriteVertexAttribute Render<T>::spriteVertex[4] = Rendr::SpriteVertexAttribute{ {0,0,0},{0,0}}; //スプライト頂点属性\n | ^~~~~~\n make: *** [Makefile:25: obj/Render.o] エラー 1\n \n \n FrameWork Compile Error\n \n```\n\n### エラーコード (一番左側のTを消した時のエラー)\n\n```\n\n rc/Render.hpp: At global scope:\n src/Render.hpp:72:1: error: need ‘typename’ before ‘FrameWork::Render<T>::SpriteVertexAttribute’ because ‘FrameWork::Render<T>’ is a dependent scope\n 72 | Render<T>::SpriteVertexAttribute Render<T>::spriteVertex[4] = Render::SpriteVertexAttribute{ {0,0,0},{0,0}}; //スプライト頂点属性\n | ^~~~~~~~~\n | typename \n make: *** [Makefile:23: obj/Render.o] エラー 1\n \n \n```\n\n### ヘッダー部\n\n```\n\n #ifndef ___RENDER_HPP___\n #define ___RENDER_HPP___\n \n #include \"Component.hpp\"\n \n #include \"glm/gtc/matrix_transform.hpp\"\n #include \"glm/glm.hpp\"\n \n \n #include <glew/glew.h>\n #include <GL/gl.h>\n \n #include <memory>\n \n namespace FrameWork\n {\n class GameObject;\n class Material;\n \n template<typename T>\n class Render : public Component<T>\n {\n public:\n \n static void Init();\n \n Render()\n {\n \n glGenVertexArrays(1, &vao);\n \n glGenBuffers(1, &vbo);\n \n glBindVertexArray(vao);\n glBindBuffer(GL_ARRAY_BUFFER, vbo);\n \n glBufferData(GL_ARRAY_BUFFER, 4 * sizeof(SpriteVertexAttribute), spriteVertex, GL_DYNAMIC_DRAW);\n \n glBindVertexArray(0);\n glBindBuffer(GL_ARRAY_BUFFER, 0);\n \n }\n \n ~Render();\n \n static void SetSpriteAttribute(glm::ivec2 s);\n \n \n virtual void RenderBuffer(const glm::mat4 view) = 0;\n \n std::shared_ptr<Material> material; \n \n \n struct SpriteVertexAttribute\n {\n float position[3];\n float uv[2];\n };\n \n static SpriteVertexAttribute spriteVertex[4];\n \n protected:\n \n GLuint vao;\n GLuint vbo;\n \n \n private: \n };\n \n \n template<typename T>\n T Render<T>::SpriteVertexAttribute Render<T>::spriteVertex[4];\n \n //template<typename T>\n //Render<T>::SpriteVertexAttribute Render<T>::spriteVertex[4];\n }\n #endif\n \n```\n\n### ソース部\n\n```\n\n #include \"Render.hpp\"\n #include \"Material.hpp\"\n #include \"Window.hpp\"\n #include <iostream>\n \n /*####################################\n # 初期化\n ######################################*/\n template<typename T>\n void FrameWork::Render<T>::Init()\n {\n //UV座標\n spriteVertex[0].uv[0] = 0;\n spriteVertex[0].uv[1] = 0;\n \n spriteVertex[1].uv[0] = 0;\n spriteVertex[1].uv[1] = 1;\n \n spriteVertex[2].uv[0] = 1;\n spriteVertex[2].uv[1] = 0;\n \n spriteVertex[3].uv[0] = 1;\n spriteVertex[3].uv[1] = 1;\n \n \n // 頂点座標\n spriteVertex[0].position[0] = -0.5f;\n spriteVertex[0].position[1] = 0.5f;\n spriteVertex[0].position[2] = 0;\n \n spriteVertex[1].position[0] = -0.5f;\n spriteVertex[1].position[1] = -0.5f;\n spriteVertex[1].position[2] = 0;\n \n spriteVertex[2].position[0] = 0.5f;\n spriteVertex[2].position[1] = 0.5f;\n spriteVertex[2].position[2] = 0;\n \n spriteVertex[3].position[0] = 0.5f;\n spriteVertex[3].position[1] = -0.5f;\n spriteVertex[3].position[2] = 0;\n \n }\n \n \n /*####################################\n # スプライトの頂点属性をリセット \n ######################################*/\n template<typename T>\n void FrameWork::Render<T>::SetSpriteAttribute(glm::ivec2 s)\n {\n if( (s.x <= 0) || (s.y <= 0) )\n {\n std::cout<<\"Material Error: サイズが不正です。\"<< std::endl; \n }\n \n //UV座標\n spriteVertex[0].uv[0] = 0;\n spriteVertex[0].uv[1] = 0;\n \n spriteVertex[1].uv[0] = 0;\n spriteVertex[1].uv[1] = 1;\n \n spriteVertex[2].uv[0] = 1;\n spriteVertex[2].uv[1] = 0;\n \n spriteVertex[3].uv[0] = 1;\n spriteVertex[3].uv[1] = 1;\n \n \n glm::vec2 size;\n size.x = (1.0f / Window::context->getSize().x) * s.x;\n size.y = (1.0f / Window::context->getSize().y) * s.y;\n \n // 頂点座標\n spriteVertex[0].position[0] = -size.x;\n spriteVertex[0].position[1] = size.y;\n spriteVertex[0].position[2] = 0;\n \n spriteVertex[1].position[0] = -size.x;\n spriteVertex[1].position[1] = -size.y;\n spriteVertex[1].position[2] = 0;\n \n spriteVertex[2].position[0] = size.x;\n spriteVertex[2].position[1] = size.y;\n spriteVertex[2].position[2] = 0;\n \n spriteVertex[3].position[0] = size.x;\n spriteVertex[3].position[1] = -size.y;\n spriteVertex[3].position[2] = 0;\n \n }\n \n \n \n \n /*####################################\n # デストラクタ\n ######################################*/\n template<typename T>\n FrameWork::Render<T>::~Render()\n {\n \n }\n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-29T10:35:16.327", "favorite_count": 0, "id": "93089", "last_activity_date": "2022-12-30T03:31:52.193", "last_edit_date": "2022-12-30T03:31:52.193", "last_editor_user_id": "55177", "owner_user_id": "55177", "post_type": "question", "score": 0, "tags": [ "c++" ], "title": "コンパイルエラー [expected initializer before ‘Render’] の意味が知りたい", "view_count": 673 }
[ { "body": "やりたいことはクラス変数の初期化でしょうから、行頭の`T`は誤記(不要)ですね。\n\n```\n\n template<typename T>\n T Render<T>::SpriteVertexAttribute Render<T>::spriteVertex[4] = Render::SpriteVertexAttribute{ {0,0,0},{0,0}}; //スプライト頂点属性\n \n```\n\nコンパイラーは、以下のように変数名の後ろは初期化子を期待しているのに、その位置に初期化子ではない`Render<T>::spriteVertex[4]`が書かれているので、\"expected\ninitializer before ‘Render’\"だと言っているのでしょう。\n\n```\n\n 型 変数名 = 初期化子;\n \n```", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-29T13:14:27.653", "id": "93094", "last_activity_date": "2022-12-29T13:14:27.653", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "7291", "parent_id": "93089", "post_type": "answer", "score": 1 } ]
93089
93094
93094
{ "accepted_answer_id": "93091", "answer_count": 1, "body": "CoreDataはどのように使えばいいのでしょうか?\n\nまた、保存等はどのようにすればいいのでしょうか。\n\n調べてみたのですが、itemとは何でしょうか?", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-29T12:06:34.227", "favorite_count": 0, "id": "93090", "last_activity_date": "2022-12-29T12:24:33.293", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "39481", "post_type": "question", "score": 0, "tags": [ "swift" ], "title": "データ保存等 UserDefaultsをつかわない", "view_count": 40 }
[ { "body": "文脈によってitemは意味が変わります。\n\nCoreDataに関して、これだ!という解説の記事を知らないですが、いくつかの記事を見つつ実践して理解していくのがおすすめです。\n\n<https://zenn.dev/tomsan96/articles/e76a1088bcf78d>", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-29T12:24:33.293", "id": "93091", "last_activity_date": "2022-12-29T12:24:33.293", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "40856", "parent_id": "93090", "post_type": "answer", "score": 0 } ]
93090
93091
93091
{ "accepted_answer_id": null, "answer_count": 1, "body": "```\n\n extension AddViewController: UITableViewDelegate, UITableViewDataSource {\n func tableView(_ tableView: UITableView, numberOfRowsInSection section: Int) -> Int {\n let topicArray = us.array(forKey: topicArrayKey) as! [String]\n return topicArray.count\n }\n \n func tableView(_ tableView: UITableView, cellForRowAt indexPath: IndexPath) -> UITableViewCell {\n let cell = tableView.dequeueReusableCell(withIdentifier: \"Cell\", for: indexPath)\n let topicArray = us.array(forKey: topicArrayKey) as! [String]\n cell.textLabel!.text = topicArray[indexPath.row]\n return cell\n }\n \n func tableView(_ tableView: UITableView, commit editingStyle: UITableViewCell.EditingStyle, forRowAt indexPath: IndexPath) {\n if editingStyle == .delete {\n var topicArray = us.array(forKey: topicArrayKey) as! [String]\n topicArray.remove(at: indexPath.row)\n us.set(topicArray, forKey: topicArrayKey)\n tableView.deleteRows(at: [indexPath], with: .automatic)\n }\n }\n }\n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-29T12:43:25.103", "favorite_count": 0, "id": "93092", "last_activity_date": "2023-01-02T05:57:11.317", "last_edit_date": "2023-01-02T05:57:11.317", "last_editor_user_id": "3060", "owner_user_id": "56279", "post_type": "question", "score": 1, "tags": [ "swift" ], "title": "cellを左にスワイプさせ「delete」文字を「削除」文字に変更して表示させたい", "view_count": 77 }
[ { "body": "もしユーザーの言語設定に関係なく常に「削除」というテキストを表示したいのであれば、`tableView(_:titleForDeleteConfirmationButtonForRowAt:)`というデリゲートメソッドを実装して、表示したい文字列を返します。\n\n```\n\n override func tableView(_ tableView: UITableView, titleForDeleteConfirmationButtonForRowAt indexPath: IndexPath) -> String? {\n ...\n ...\n return \"削除\"\n }\n \n```\n\nただ、ユーザーの言語設定によって自動的にシステムが提供する翻訳テキストを表示したいのであれば、上記のデリゲートを実装する必要はなく、単にそのプロジェクトに日本語のローカライゼーションの設定を追加すればいいです。\n\n[![画像の説明をここに入力](https://i.stack.imgur.com/74yYo.png)](https://i.stack.imgur.com/74yYo.png)\n\n特にローカライズのテキストを用意する必要はなく、日本語のローカライズの設定があれば、ユーザーの使用言語が日本語の場合にはその部分は「削除」が表示されます。他の言語もサポートするのであれば必要な言語のローカライゼーションの設定を追加します。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-01T20:49:31.977", "id": "93142", "last_activity_date": "2023-01-01T20:49:31.977", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "5519", "parent_id": "93092", "post_type": "answer", "score": 1 } ]
93092
null
93142
{ "accepted_answer_id": null, "answer_count": 0, "body": "## 環境\n\nProductName: macOS \nProductVersion: 12.6.1 \nBuildVersion: 21G217 \nnode: v19.3.0 \nnpm: 9.2.0\n\n## 前提\n\n現在、reactの学習を始めたプログラミング初学者です。\n\n## 課題\n\n`create-react-app`で作成したreactのプロジェクトをgithubで管理していました。 \nこのプロジェクトをcloneしたのですが`npm start`を実行できません。\n\n## 試したこと\n\nおそらくnode_nomodulesがないことが原因でコマンドが実行できないのだと考えています。 \nそのため、`npm install`コマンドを行うことでnode_nomodulesディレクトリを作成したいのですが、`npm\ninstall`の実行時に下記のエラーが出てしまいます。\n\nこれはどのようなエラーを表しているのでしょうか?\n\n```\n\n npm WARN tar TAR_ENTRY_INVALID checksum failure\n npm WARN tar TAR_BAD_ARCHIVE: Unrecognized archive format\n npm ERR! code TAR_BAD_ARCHIVE\n npm ERR! TAR_BAD_ARCHIVE: Unrecognized archive format\n \n npm ERR! A complete log of this run can be found in:\n npm ERR! /Users/inoue.takuma/.npm/_logs/2022-12-29T14_19_18_535Z-debug-0.log\n \n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-29T14:33:36.383", "favorite_count": 0, "id": "93095", "last_activity_date": "2022-12-29T14:42:43.260", "last_edit_date": "2022-12-29T14:42:43.260", "last_editor_user_id": "46713", "owner_user_id": "46713", "post_type": "question", "score": 0, "tags": [ "reactjs", "github", "npm" ], "title": "githubからcloneしたreactプロジェクトでnpm startができない。", "view_count": 144 }
[]
93095
null
null
{ "accepted_answer_id": "93097", "answer_count": 1, "body": "```\n\n struct ContentView: View { \n @State var color = false\n var body: some View {\n List{…}.listBackground(color ? .white : .black)\n Toggle(\"テキスト\", isOn: $color)\n }\n }\n \n```\n\nとしても、色が変更されません。 \n書き方が違うのでしょうか。\n\nまた、`.listRowBackground(color ? .white : .black))`としても変更されません。 \n`scrollContentBackground`を`hide`にしても変わりません。\n\nセルの色は変えられないのでしょうか。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-29T15:58:07.577", "favorite_count": 0, "id": "93096", "last_activity_date": "2022-12-29T23:36:46.860", "last_edit_date": "2022-12-29T23:30:01.480", "last_editor_user_id": "18540", "owner_user_id": "39481", "post_type": "question", "score": 0, "tags": [ "swift", "swiftui" ], "title": "セルの背景色を変更したい", "view_count": 52 }
[ { "body": "`.listRowBackground()`は、`List`全体に対してではなく、セルになる`View`個々に対して、付けてください。\n\n```\n\n import SwiftUI\n \n struct ContentView: View {\n \n @State var isBasicColor = true\n \n var body: some View {\n List { \n Text(\"Blue\")\n .listRowBackground(isBasicColor ? Color.blue : .red)\n Text(\"Red\")\n .listRowBackground(isBasicColor ? Color.red : .white)\n Text(\"Yellow\")\n .listRowBackground(isBasicColor ? Color.yellow : .blue)\n }\n .padding()\n Toggle(\"Cell colors\", isOn: $isBasicColor)\n }\n }\n \n```\n\n[![Cell\nColor](https://i.stack.imgur.com/h4sAv.png)](https://i.stack.imgur.com/h4sAv.png)", "comment_count": 4, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-29T23:36:46.860", "id": "93097", "last_activity_date": "2022-12-29T23:36:46.860", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "18540", "parent_id": "93096", "post_type": "answer", "score": 1 } ]
93096
93097
93097
{ "accepted_answer_id": null, "answer_count": 0, "body": "### 解決したいこと\n\n・Djangoでブログアプリを作っています。 \n・記事に画像を登録できるようにし、開発環境では問題なく機能しています。 \n・sakuraのVPSにデプロイし、webサーバーはapache2で本番環境を構築しています。 \n・本番環境にて新規記事を投稿したところ、文字だけの記事は登録できたのですが、画像を登録しようとすると、ブラウザにエラー500が発生しました。 \nいろいろ試してみたのですが、状況が変わらず困っています。どなたかよい解決方法やアイデアございましたら、是非教えて下さい。\n\n### 発生している問題・エラー\n\n```\n\n 【ブラウザ】\n Server Error (500)\n \n \n```\n\n```\n\n 【apache error.log】\n root@ik1-413-38954:/Nippo/site/logs# cat error.log\n Exception ignored in: <function Local.__del__ at 0x7fbddb723d30>\n Traceback (most recent call last):\n File \"/Nippo/venv/lib/python3.8/site-packages/asgiref/local.py\", line 94, in __del__\n NameError: name 'TypeError' is not defined\n ...省略\n \n```\n\n### 該当するソースコード\n\n```\n\n ※apacheのconf\n \n (venv) root@ik1-413-38954:/etc/apache2/sites-available# cat Nippo.conf\n <VirtualHost *>\n # The ServerName directive sets the request scheme, hostname and port that\n # the server uses to identify itself. This is used when creating\n # redirection URLs. In the context of virtual hosts, the ServerName\n # specifies what hostname must appear in the request's Host: header to\n # match this virtual host. For the default virtual host (this file) this\n # value is not decisive as it is used as a last resort host regardless.\n # However, you must set it for any further virtual host explicitly.\n #ServerName www.example.com\n \n ServerAdmin [email protected]\n DocumentRoot /Nippo\n \n ErrorLog /Nippo/site/logs/error.log\n CustomLog /Nippo/site/logs/access.log combined\n \n alias /static /Nippo/site/public/static\n <Directory /Nippo/site/public/static/>\n Require all granted\n </Directory>\n \n alias /media /Nippo/site/public/media\n <Directory /Nippo/site/public/media/>\n Require all granted\n </Directory>\n \n <Directory /Nippo/src/main/>\n <Files wsgi.py>\n Require all granted\n </Files>\n </Directory>\n \n WSGIDaemonProcess nippoapp python-path=/Nippo/src python-home=/Nippo/venv\n WSGIProcessGroup nippoapp\n WSGIScriptAlias / /Nippo/src/main/wsgi.py\n \n # Available loglevels: trace8, ..., trace1, debug, info, notice, warn,\n # error, crit, alert, emerg.\n # It is also possible to configure the loglevel for particular\n # modules, e.g.\n #LogLevel info ssl:warn\n \n #ErrorLog ${APACHE_LOG_DIR}/error.log\n #CustomLog ${APACHE_LOG_DIR}/access.log combined\n \n # For most configuration files from conf-available/, which are\n # enabled or disabled at a global level, it is possible to\n # include a line for only one particular virtual host. For example the\n # following line enables the CGI configuration for this host only\n # after it has been globally disabled with \"a2disconf\".\n #Include conf-available/serve-cgi-bin.conf\n \n```\n\n```\n\n ※Djangoのsettings\n \n (venv) root@ik1-413-38954:/Nippo/src/main/settings# cat base.py\n \"\"\"\n Django settings for main project.\n \n Generated by 'django-admin startproject' using Django 4.1.3.\n \n For more information on this file, see\n https://docs.djangoproject.com/en/4.1/topics/settings/\n \n For the full list of settings and their values, see\n https://docs.djangoproject.com/en/4.1/ref/settings/\n \"\"\"\n \n from pathlib import Path\n from django.urls import reverse_lazy\n \n # Build paths inside the project like this: BASE_DIR / 'subdir'.\n BASE_DIR = Path(__file__).resolve().parent.parent.parent\n PARENT_DIR = Path(__file__).resolve().parent.parent.parent.parent\n \n \n # Quick-start development settings - unsuitable for production\n # See https://docs.djangoproject.com/en/4.1/howto/deployment/checklist/\n \n # SECURITY WARNING: keep the secret key used in production secret!\n \n # SECURITY WARNING: don't run with debug turned on in production!\n DEBUG = False\n \n ALLOWED_HOSTS = ['***','localhost']\n \n # Application definition\n \n INSTALLED_APPS = [\n 'django.contrib.admin',\n 'django.contrib.auth',\n 'django.contrib.contenttypes',\n 'django.contrib.sessions',\n 'django.contrib.messages',\n 'django.contrib.staticfiles',\n 'django.contrib.sites',\n 'allauth',\n 'allauth.account',\n 'allauth.socialaccount',\n 'nippo',\n 'accounts',\n 'crispy_forms',\n 'bootstrap4',\n ]\n \n MIDDLEWARE = [\n 'django.middleware.security.SecurityMiddleware',\n 'django.contrib.sessions.middleware.SessionMiddleware',\n 'django.middleware.common.CommonMiddleware',\n 'django.middleware.csrf.CsrfViewMiddleware',\n 'django.contrib.auth.middleware.AuthenticationMiddleware',\n 'django.contrib.messages.middleware.MessageMiddleware',\n 'django.middleware.clickjacking.XFrameOptionsMiddleware',\n ]\n \n ROOT_URLCONF = 'main.urls'\n \n TEMPLATES = [\n {\n 'BACKEND': 'django.template.backends.django.DjangoTemplates',\n 'DIRS': [ BASE_DIR / \"templates\" ],\n 'APP_DIRS': True,\n 'OPTIONS': {\n 'context_processors': [\n 'django.template.context_processors.debug',\n 'django.template.context_processors.request',\n 'django.contrib.auth.context_processors.auth',\n 'django.contrib.messages.context_processors.messages',\n 'django.template.context_processors.media',\n ],\n },\n },\n ]\n \n WSGI_APPLICATION = 'main.wsgi.application'\n \n \n # Database\n # https://docs.djangoproject.com/en/4.1/ref/settings/#databases\n \n with open(f'{PARENT_DIR}/auth/***') as f:\n *** = f.read().strip()\n \n with open(f'{PARENT_DIR}/auth/***') as f:\n *** = f.read().strip()\n \n with open(f'{PARENT_DIR}/auth/***') as f:\n *** = f.read().strip()\n \n DATABASES = {\n 'default': {\n 'ENGINE': 'django.db.backends.postgresql_psycopg2',\n 'NAME': ***,\n 'USER': ***,\n 'PASSWORD': ***,\n 'HOST': 'localhost',\n 'PORT': '5432',\n }\n }\n \n # Password validation\n # https://docs.djangoproject.com/en/4.1/ref/settings/#auth-password-validators\n \n AUTH_PASSWORD_VALIDATORS = [\n {\n 'NAME': 'django.contrib.auth.password_validation.UserAttributeSimilarityValidator',\n },\n {\n 'NAME': 'django.contrib.auth.password_validation.MinimumLengthValidator',\n },\n {\n 'NAME': 'django.contrib.auth.password_validation.CommonPasswordValidator',\n },\n {\n 'NAME': 'django.contrib.auth.password_validation.NumericPasswordValidator',\n },\n ]\n \n \n # Internationalization\n # https://docs.djangoproject.com/en/4.1/topics/i18n/\n \n LANGUAGE_CODE = 'ja'\n \n TIME_ZONE = 'Asia/Tokyo'\n \n USE_I18N = True\n \n USE_TZ = True\n \n \n # Static files (CSS, JavaScript, Images)\n # https://docs.djangoproject.com/en/4.1/howto/static-files/\n \n STATIC_URL = '/static/'\n STATICFILES_DIRS = [BASE_DIR / \"static_local\" ]\n STATIC_ROOT = PARENT_DIR / 'site/public/static'\n \n MEDIA_URL = '/media/'\n MEDIA_ROOT = PARENT_DIR / \"site/public/media\"\n \n # Default primary key field type\n # https://docs.djangoproject.com/en/4.1/ref/settings/#default-auto-field\n \n DEFAULT_AUTO_FIELD = 'django.db.models.BigAutoField'\n \n AUTH_USER_MODEL = 'accounts.User'\n \n AUTHENTICATION_BACKENDS = [\n 'django.contrib.auth.backends.ModelBackend',\n 'allauth.account.auth_backends.AuthenticationBackend',\n ]\n \n SITE_ID = 1\n \n ACCOUNT_USER_MODEL_USERNAME_FIELD = None\n ACCOUNT_USERNAME_REQUIRED = False\n ACCOUNT_AUTHENTICATION_METHOD = 'email'\n ACCOUNT_EMAIL_REQUIRED = True\n \n LOGIN_REDIRECT_URL = reverse_lazy('nippo-list')\n ACCOUNT_LOGOUT_REDIRECT_URL = reverse_lazy(\"account_login\")\n \n ACCOUNT_EMAIL_VERIFICATION = \"none\"\n \n EMAIL_BACKEND = \"django.core.mail.backends.console.EmailBackend\"\n \n CRISPY_TEMPLATE_PACK = 'bootstrap4'\n \n ACCOUNT_LOGOUT_ON_GET = True\n \n BOOTSTRAP4 = {\n 'include_jquery': True,\n }\n \n```\n\n```\n\n Nippo ※VPSのトップディレクトリに置いています\n ├── README.md\n ├── auth \n ├── requirements.txt\n ├── site \n │ ├── logs\n │ └── public\n │     ├── media\n │     │ ├── pages\n │     │ └── images\n │     └── static\n ├── src ※中身:accounts db.sqlite3 main manage.py media_local nippo requirements.txt static_local templates \n └── venv\n \n```\n\n### 自分で試したこと\n\n※各項目実施ごとにブラウザのキャッシュを削除して実行しました\n\n1.apacheのconf書き換え \n<VirtualHost *:80> ⇒ <VirtualHost *> \n(参考サイト)https://forum.djangoproject.com/t/deploy-to-apache/5208/20\n\n2.VPSで、group_name nippoapp、user_name root 登録 \n(参考サイト)https://www.monotalk.xyz/blog/centos-74-apache-\npython-%E9%80%A3%E6%90%BA%E6%99%82%E3%81%AB%E3%81%A4%E3%81%BE%E3%81%A5%E3%81%84%E3%81%9F%E3%81%A8%E3%81%93%E3%82%8D/\n\n3.Pillowのインストール先の変更 \n(参考サイト)tps://teratail.com/questions/amrloy7ulp9v52\n\n4.chmodユーザー権限設定 \nchmod g+x /Nippo \nchmod g+x /Nippo/site \nchmod g+x /Nippo/site/public \nchmod g+x /Nippo/site/public/pages \nchmod g+x /Nippo/site/public/images", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-30T01:29:07.943", "favorite_count": 0, "id": "93099", "last_activity_date": "2022-12-30T01:29:07.943", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56285", "post_type": "question", "score": 0, "tags": [ "python3", "windows", "ubuntu", "django", "vscode" ], "title": "Django×apache2 本番環境 画像保存時 エラー500発生", "view_count": 50 }
[]
93099
null
null
{ "accepted_answer_id": null, "answer_count": 0, "body": "画像を投稿できるアプリを作成したのですが、本番環境(heroku)で投稿した画像をマイページで確認できる機能を確認しようとしたところ、エラーが発生しました。\n\nherokuのログを確認するとimage_tagの箇所でエラーが起きておりました。 \nActionView::Template::Error (undefined method `decode' for URI:Module): \nというエラーです。 \n調べてもdecodeに関する情報が少ないのですが、これはどういうエラーなのでしょうか?\n\n他の質問サイトでも質問しているのですが、まだ解決していません。\n\nエラーログ\n\n```\n\n 2022-12-30T03:02:24.090658+00:00 app[web.1]: F, [2022-12-30T03:02:24.090617 #4] FATAL -- : [cb063962-3a8a-495e-975a-fbb97336c2e8] \n 2022-12-30T03:02:24.090659+00:00 app[web.1]: [cb063962-3a8a-495e-975a-fbb97336c2e8] ActionView::Template::Error (undefined method `decode' for URI:Module):\n 2022-12-30T03:02:24.090660+00:00 app[web.1]: [cb063962-3a8a-495e-975a-fbb97336c2e8] 65: <% @my_plans.each do |plan| %>!\n 2022-12-30T03:02:24.090660+00:00 app[web.1]: [cb063962-3a8a-495e-975a-fbb97336c2e8] 66: <div class=\"card\" style=\"width: 210px;\">\n 2022-12-30T03:02:24.090661+00:00 app[web.1]: [cb063962-3a8a-495e-975a-fbb97336c2e8] 67: <a href=\"/plans/<%= plan.id %>\" target=\"_blank\" rel=\"noopener noreferrer\" class=\"text-dark\">\n 2022-12-30T03:02:24.090661+00:00 app[web.1]: [cb063962-3a8a-495e-975a-fbb97336c2e8] 68: <p><%= image_tag(plan.photo.url, :alt => '最新投稿') %></p>\n 2022-12-30T03:02:24.090661+00:00 app[web.1]: [cb063962-3a8a-495e-975a-fbb97336c2e8] 69: <div class=\"card-body\">\n 2022-12-30T03:02:24.090662+00:00 app[web.1]: [cb063962-3a8a-495e-975a-fbb97336c2e8] 70: <h5 class=\"card-title\"><p><%= plan.user.name %></p></h5>\n 2022-12-30T03:02:24.090662+00:00 app[web.1]: [cb063962-3a8a-495e-975a-fbb97336c2e8] 71: <h6 class=\"card-text\"><p><%= plan.title %></p></h6>\n 2022-12-30T03:02:24.090663+00:00 app[web.1]: [cb063962-3a8a-495e-975a-fbb97336c2e8] \n 2022-12-30T03:02:24.090664+00:00 app[web.1]: [cb063962-3a8a-495e-975a-fbb97336c2e8] app/views/users/show.html.erb:68\n 2022-12-30T03:02:24.090665+00:00 app[web.1]: [cb063962-3a8a-495e-975a-fbb97336c2e8] app/views/users/show.html.erb:65\n \n```\n\nエラー箇所のview\n\n```\n\n <% if @my_plans.any? %>\n <div class=\"my-page-contents\">\n <% @my_plans.each do |plan| %>!\n <div class=\"card\" style=\"width: 210px;\">\n <a href=\"/plans/<%= plan.id %>\" target=\"_blank\" rel=\"noopener noreferrer\" class=\"text-dark\">\n <p><%= image_tag(plan.photo.url, :alt => '最新投稿') %></p> ←エラー箇所\n <div class=\"card-body\">\n <h5 class=\"card-title\"><p><%= plan.user.name %></p></h5>\n <h6 class=\"card-text\"><p><%= plan.title %></p></h6>\n </div>\n </a>\n </div>\n <% end %>\n </div>\n <div class=\"d-flex justify-content-center mb-2\">\n <%= paginate @my_plans %>\n </div>\n <% else %>\n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-30T03:07:11.673", "favorite_count": 0, "id": "93100", "last_activity_date": "2022-12-30T06:50:44.313", "last_edit_date": "2022-12-30T06:50:44.313", "last_editor_user_id": null, "owner_user_id": null, "post_type": "question", "score": 0, "tags": [ "ruby-on-rails", "ruby", "heroku" ], "title": "本番環境で投稿した画像がエラーで表示できない (carrierwave)", "view_count": 107 }
[]
93100
null
null
{ "accepted_answer_id": null, "answer_count": 3, "body": "Windowsのドライブのフォルダーに検索をかけていますが、tというアプリケーションが見つかりません。なぜ?", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-30T03:49:47.200", "favorite_count": 0, "id": "93101", "last_activity_date": "2023-03-16T11:35:27.847", "last_edit_date": "2023-03-16T11:35:27.847", "last_editor_user_id": "3060", "owner_user_id": null, "post_type": "question", "score": 0, "tags": [ "windows" ], "title": "Windowsの再起動時に「tが再起動を妨げています」と表示されるのはなぜですか。", "view_count": 4471 }
[ { "body": "ファイルの検索で探すんではなくて、タスクマネージャで、プロセスとかサービスで探してみよう", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-30T23:17:08.850", "id": "93115", "last_activity_date": "2022-12-30T23:17:08.850", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "27481", "parent_id": "93101", "post_type": "answer", "score": 0 }, { "body": "ここは[プログラミングに情熱をそそぐ人のためのQ&Aサイト](https://ja.stackoverflow.com/tour)ですので、その観点で。\n\n[The program “G” is preventing you from shutting\ndown](https://devblogs.microsoft.com/oldnewthing/20191030-00/?p=103036)や日本語解説記事\n[「Windows\n10」のシャットダウンを妨げる謎の「G」アプリ、マイクロソフトが説明](https://japan.zdnet.com/article/35145860/)\nがあります。\n\nWindowsには文字列を扱う型が2種類あります。\n\n * ANSI(日本語においてはShift-JIS) \n1文字1バイトが基本であり、日本語文字などの非ASCII文字は2バイトとなる。 \n例えば`ABC`なら `0x61 0x62 0x63 0x00` となり終端の`NUL`を加えて4バイトとなる。\n\n * Unicode(厳密にはUTF-16) \n1文字2バイトが基本。ASCII文字であっても2バイトであり、その場合上位ビットは0となる。 \n例えば`ABC`なら `0x61 0x00 0x62 0x00 0x63 0x00 0x00 0x00` となり8バイトとなる。\n\nここで、APIが文字列型を取り違えると、つまり、Unicode形式の`ABC`をANSI形式として解釈すると2バイト目の`0x00`で終端されて`A`という文字列になってしまいます。\n\n記事では、Unicodeでの`GDI+ Hook\nWindow`がANSIで解釈すると`G`になってしまうことが指摘されていますが、質問の状況においても同様で、`t`から始まる何らかの\n**ウィンドウタイトル** なのでしょう。 \nまた、ここで表示されるのは実行ファイル名ではなくウィンドウタイトルですので、`t.exe`を探しても無意味です。(例えば実行ファイル名`notepad.exe`のウィンドウタイトルは`メモ帳`になります。)", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-30T23:35:27.733", "id": "93116", "last_activity_date": "2023-01-08T12:48:56.397", "last_edit_date": "2023-01-08T12:48:56.397", "last_editor_user_id": "4236", "owner_user_id": "4236", "parent_id": "93101", "post_type": "answer", "score": 7 }, { "body": "まだ質問された内容は解決していないと判断して書き込みます。\n\n当方も、この現象が発生したので調査しました。\n\nOS(Windows10 Pro)をクリーンインストールして、アプリを順次追加しながら確認しました。\n\n厳密に特定(exe or dll)は出来ませんでしたが、どうもlogicool options plusのナニかがこの現象を起こしてるらしいと判りました。\n\n質問者様もインストールしているのではないかと思います。(違っていたら別要因ですね)\n\nlogicool options plusをGeekでアンインストールして、従来ののlogicool\noptionsに戻してみたら良いと思います。当方はこれで再起動 or シャットダウンを妨げる\"t\"は発生しなくなりました。\n\nもしかしたらlogicool options plusをインストールしただけでは無く、ログインしてバックアップをしないと発生しないかもです。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-03-16T11:27:13.693", "id": "94206", "last_activity_date": "2023-03-16T11:27:13.693", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "57395", "parent_id": "93101", "post_type": "answer", "score": 2 } ]
93101
null
93116
{ "accepted_answer_id": "93254", "answer_count": 2, "body": "### 質問内容\n\nタイトル通りなのですが`基底クラスのポインタ変数のインスタンスが何の型にダウンキャストしているかを知る方法が知りたい`方法が知りたいです。`Component`を継承している各クラスで基底クラスに何に継承しているかの情報を残したいのですがそれをするにはどうしたらいいのでしょうか?\n\n### 考えたこと\n\n以下のように実装すこと自体は出来ているのですが、`現状の実装`部のように列挙型を使っていると、コンポーネントが増えた時(`Component`を継承するクラスが増えたときに)\n`if文`で分岐する箇所をちょくちょく増やさにといけないのでので面倒です。\n\n### 現状での問題点\n\n1,コンポーネントが増えた時(`Component`を継承するクラスが増えたときに)\n`if文`で分岐する箇所を増えるとゲームループがシンプルじゃなくなるので複雑化します。\n\n2,もっとシンプルなコンストラクタを作成したい。\n\n### 提示画像のついて\n\nこれは継承関係の図です。`Component`クラスは継承されるそれぞれのコンポーネントの基底クラスです。 \nまた`GameObject`は`std::vector<std::shared_ptr<Component>>`変数を持っていてメインループでそれを更新、描画します。\n\n### 試したこと\n\n`Component`クラス型の`//`コメント部のように \n1,`//実装1`,`//実装1`\nは`std::type_info`型を用いてどの型の情報を保存しようとしましたがコピーコンストラクタが実装されていないため実装不可です。\n\n2,`//実装3`,`Component`クラスを自体をテンプレート型にするという方法で`std::type_info`型に代入することは出来たのですが、その場合`Component`型の変数を作成する際にどの型に継承するかわからないのに型を決めることになってしまうので実装不可です。\n\n### 現状の実装\n\n`class\nComponent`部の`//`コメント部`//現状`のように列挙型で基底クラス(`Component`)が何の型に継承しているかの情報を持たせています。\n\n### 実現したいこと\n\nComponentクラスを継承した`std::vector<std::shared_ptr<Component>>`でゲームループで一つづつアップデートやレンダリングする際にif文で分岐したい。\n\n### 知りたこと\n\n`現状の実装`じゃない方法で基底クラスにどの型に継承しているかの情報をどうやって持たせればいいのか知りたい。 \n該当コード `///////`部で囲ってる`if()`文\n\n### ソースコード\n\n```\n\n #include <iostream>\n #include <thread>\n #include <future>\n #include <memory>\n #include <ctime>\n #include <unistd.h>\n #include <random>\n #include <time.h>\n #include <iosfwd>\n #include <locale.h>\n \n class GameObject;\n //template<class T> //実装3\n class Component\n {\n public:\n // Component(Component* c) : info(typeid(*c)) //実装1 Error\n \n /*\n Component(Component* c)・・実装2 Error\n {\n info = typeid(*c);\n }\n */\n // 何に継承しているかを識別するenum\n enum Type\n {\n SpriteRender,\n Transform,\n };\n \n //実装4 (現状)\n Component(GameObject *g,Type t) : type(t),gameObject(g)\n {\n \n }\n \n const Type type;\n const GameObject *gameObject;\n //const std::type_info &info = typeid(T) //実装3\n \n virtual void f(){ }\n \n };\n \n class Component;\n class GameObject\n {\n \n protected:\n std::vector<std::shared_ptr<Component>> components; //コンポーネント変数\n \n public:\n GameObject()\n {\n \n }\n \n /*\n コンポーネント取得\n \n 基底(Component)クラスにアップキャストされたコンポーネントからダウンキャストしたコンポーネント(SpriteRender,Transform 等)を取得\n */\n template<class T>\n std::shared_ptr<T> GetComponent()\n {\n for(std::shared_ptr<Component> c : components)\n {\n /////////////////////////////////////////////////////////////////////////////////////////////////////////////\n if(true)\n {\n return std::dynamic_pointer_cast<T>(c);\n }\n /////////////////////////////////////////////////////////////////////////////////////////////////////////////\n }\n \n return nullptr; // コンポーネントがない場合の時\n }\n \n \n /*\n コンポーネント設定\n \n 基底クラスにアップキャストして格納\n */\n template<class T>\n std::shared_ptr<T> AddComponent()\n {\n if(GetComponent<T>() != nullptr)\n {\n components.push_back(std::make_shared<T>());\n \n return std::dynamic_pointer_cast<T>(components.back());\n }\n \n return nullptr; // コンポーネントがすでにある場合\n }\n \n };\n \n class SpriteRender : public Component\n {\n public:\n SpriteRender(GameObject *g) : Component(g,Component::Type::SpriteRender)\n {\n \n }\n \n void print()\n {\n std::cout<<\"class SpriteRender member \" <<std::endl;\n }\n \n };\n \n class Transform : public Component\n {\n public:\n Transform(GameObject *g) : Component(g,Component::Type::Transform)\n {\n \n }\n \n void print()\n {\n std::cout<<\"class Transform member \" <<std::endl;\n }\n \n };\n \n int main()\n { \n \n \n return 0;\n }\n \n```\n\n### 継承関係図\n\n[![画像の説明をここに入力](https://i.stack.imgur.com/3d7bx.png)](https://i.stack.imgur.com/3d7bx.png)", "comment_count": 11, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-30T05:45:59.710", "favorite_count": 0, "id": "93104", "last_activity_date": "2023-01-16T05:24:30.257", "last_edit_date": "2022-12-30T09:03:29.533", "last_editor_user_id": "55177", "owner_user_id": "55177", "post_type": "question", "score": 0, "tags": [ "c++" ], "title": "基底クラスのポインタ変数のインスタンスが何の型にダウンキャストしているかを知る方法が知りたい", "view_count": 302 }
[ { "body": "結局何をやりたいのか今一分かりませんし、[UnityEngineの仕様](https://docs.unity3d.com/ScriptReference/GameObject.html)を良く分かっていないので本当にこんな使い方を意図しているのか分かりませんが、列挙子を使わずに派生クラスの型に応じて関数を呼び分けることは技術的には可能です。 \nただし、ダウンキャストを多用するので処理効率は悪いですし、きっとUnityEngineはこんな使い方を意図していないだろうと思います。\n\nコード例:\n\n```\n\n #include <memory>\n #include <vector>\n #include <string>\n #include <iostream>\n \n \n class Component\n {\n public:\n virtual ~Component() = default;\n \n std::string TypeName() const\n {\n return typeid(*this).name();\n }\n };\n \n class Renderer : public Component\n {\n public:\n virtual void Render() = 0;\n };\n \n class SpriteRenderer : public Renderer\n {\n public:\n virtual void Render() override\n {\n std::cout << TypeName() << \" - func \" << __func__ << \"\\n\";\n }\n };\n \n class Transform : public Component\n {\n public:\n void TransformDirection()\n {\n std::cout << TypeName() << \" - func \" << __func__ << \"\\n\";\n }\n };\n \n class GameObject\n {\n private:\n std::vector<std::shared_ptr<Component>> m_components;\n \n public:\n template<class T>\n std::shared_ptr<T> AddComponent()\n {\n auto component = std::make_shared<T>();\n m_components.push_back(component);\n return component;\n }\n \n template<class T>\n std::vector<std::shared_ptr<T>> GetComponents() const\n {\n std::vector<std::shared_ptr<T>> components;\n for (auto &component : m_components)\n {\n if (auto componentT = std::dynamic_pointer_cast<T>(component))\n {\n components.push_back(componentT);\n }\n }\n return components;\n }\n };\n \n int main()\n {\n GameObject gameObject;\n \n gameObject.AddComponent<SpriteRenderer>();\n gameObject.AddComponent<Transform>();\n gameObject.AddComponent<SpriteRenderer>();\n gameObject.AddComponent<Transform>();\n \n auto spriteRenderers = gameObject.GetComponents<SpriteRenderer>();\n for (auto &spriteRenderer : spriteRenderers)\n {\n spriteRenderer->Render();\n }\n \n // Rendererでもヒットする\n auto renderers = gameObject.GetComponents<Renderer>();\n for (auto &renderer : renderers)\n {\n renderer->Render();\n }\n \n auto transforms = gameObject.GetComponents<Transform>();\n for (auto &transform : transforms)\n {\n transform->TransformDirection();\n }\n }\n \n```\n\nVisual Studio 2022での実行結果:\n\n```\n\n class SpriteRenderer - func Render\n class SpriteRenderer - func Render\n class SpriteRenderer - func Render\n class SpriteRenderer - func Render\n class Transform - func TransformDirection\n class Transform - func TransformDirection\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T15:08:17.120", "id": "93254", "last_activity_date": "2023-01-08T15:23:24.033", "last_edit_date": "2023-01-08T15:23:24.033", "last_editor_user_id": "7291", "owner_user_id": "7291", "parent_id": "93104", "post_type": "answer", "score": 2 }, { "body": "【`type_info` を用いてやりたかったけども→それをうまくやれなかったから現状enumになっている】という件についてですが, \n`type_info` を用いる判定をする手段としては,`Component` クラスに\n\n`virtual bool Is( const type_info &ti ) const { return ti==typeid(Component);\n}`\n\nみたいなメソッドを設ければどうでしょうか? \nそしたら,例えば派生型の `Transform` ではこんな感じでしょうか:\n\n`virtual bool Is( const type_info &ti ) const override { return\nComponent::Is(ti) || (ti==typeid(Transform)); }`\n\nこれを用いると型の判定のところは\n\n`if( c->Is( typeid(T) ) )`\n\nみたいな感じの判定になる…と.\n\n※しかしそもそもこういう判定をやってくれるのが `dynamic_cast`\n等なわけで,それを自前でやる意味があるのか?と言われると「うーん」という感じですが… \n(例えば `dynamic_cast`\nよりも「自前判定+`static_cast`」の方が早いだとかいうような,何かしらの意義があるのでもなければ無意味な気がする)", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-16T05:24:30.257", "id": "93372", "last_activity_date": "2023-01-16T05:24:30.257", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "52236", "parent_id": "93104", "post_type": "answer", "score": 1 } ]
93104
93254
93254
{ "accepted_answer_id": "93204", "answer_count": 1, "body": "Pythonスクリプトから型ヒントを自動で **除去** する方法はありますか.\n\n * 除去前(例)\n\n```\n\n def hoge() -> None:\n print('Hello World')\n \n fuga: str | None = 'Guido'\n piyo: list[int] = [1, 9, 9, 1]\n \n \n```\n\n * 除去後(例)\n\n```\n\n def hoge():\n print('Hello World')\n \n fuga = 'Guido'\n piyo = [1, 9, 9, 1]\n \n \n```", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-30T06:08:29.690", "favorite_count": 0, "id": "93106", "last_activity_date": "2023-01-06T21:47:39.407", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "51374", "post_type": "question", "score": 1, "tags": [ "python", "python3" ], "title": "Pythonスクリプトから型ヒントを除去する", "view_count": 174 }
[ { "body": "[LibCST](https://libcst.readthedocs.io/en/latest/index.html)を使ってType\nHintsの開始行桁、終了行桁を取得することができました。 \n対象ファイルから`Type Hints`以外を出力するコード例です。\n\n**コード例** ※修正版 \n同一行に複数の`Type Hints`があるとき、2つ目以降の`Type Hints`が除去されないバグに対応しました。主な修正点は以下です。\n\n * 修正した行を対象としてさらに`Type Hints`を削除する。\n * `Type Hints`を削除すると桁位置が変わるので、Type Hintsの開始行桁、終了行桁を逆順に処理する。\n\n```\n\n from typing import Optional\n import libcst as cst\n from libcst.metadata import WhitespaceInclusivePositionProvider\n \n \n class Printer(cst.CSTVisitor): # Type Hintsの開始行桁、終了行桁を取得するVisitor\n METADATA_DEPENDENCIES = (cst.metadata.PositionProvider, WhitespaceInclusivePositionProvider)\n pos_annotations: list[(int, int, int, int)] = [] # Type Hintsの開始行、開始行桁、終了行、終了桁のリスト\n \n def __init__(self, pos_annotations: list[(int, int, int, int)]):\n self.pos_annotations = pos_annotations\n \n def visit_Annotation(self, node: \"Annotation\") -> Optional[bool]:\n pos_start = self.get_metadata(cst.metadata.WhitespaceInclusivePositionProvider, node).start\n pos_end = self.get_metadata(cst.metadata.WhitespaceInclusivePositionProvider, node).end\n self.pos_annotations.append((pos_start.line, pos_start.column, pos_end.line, pos_end.column))\n \n \n if __name__ == '__main__':\n file_path = \"対象ファイル.py\"\n tree = cst.parse_module(open(file_path, encoding=\"utf-8\").read()) # 対象ファイルのCSTツリー\n wrapper = cst.metadata.MetadataWrapper(tree)\n pos_annotations: list[(int, int, int, int)] = [] # Type Hintsの開始行、開始行桁、終了行、終了桁のリスト\n result = wrapper.visit(Printer(pos_annotations))\n \n def print_no_annotation(pos_annotations: list[(int, int, int, int)], line_no: int, line: int):\n skip = False\n print_line = line + \"\\n\"\n for item in reversed(pos_annotations):\n pos_start_line, pos_start_column, pos_end_line, pos_end_column = item\n if pos_start_line < line_no < pos_end_line:\n skip = True\n break\n elif pos_start_line == line_no == pos_end_line:\n print_line = print_line[0:pos_start_column] + print_line[pos_end_column:]\n continue\n elif pos_start_line == line_no:\n print_line = print_line[0:pos_start_column]\n continue\n elif pos_end_line == line_no:\n print_line = print_line[pos_end_column:]\n continue\n if skip:\n return\n print(print_line, end='')\n \n \n line_no = 1\n for line in tree.code.splitlines():\n print_no_annotation(pos_annotations, line_no, line)\n line_no += 1\n \n```\n\n**バージョン** \nPython 3.10.5\n\n**LibCSTのインストール** \npip install libcst\n\n* * *\n\n当初はPythonの組み込みastモジュールを使用しようと考えたのですが、空白やコメントの情報が失われるようなので断念しました。※動作確認したわけではありません。 \nLibCSTは空白やコメントもノードとして保持されることがわかり、`Type Hints`のノードを削除する方法を試したのですが、変数の`Type\nHints`の除去で発生する例外をどうしても解消することができませんでした。※関数の復帰値の`Type Hints`の除去はうまくいきました。\n\nLibCSTを使うのであればこの方法が本来の方法だと思いますが残念です。\n\n今回の回答は少し強引ですが`Type Hints`の開始行桁、終了行桁を求め、それ以外を出力する方法です。", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-06T02:11:17.063", "id": "93204", "last_activity_date": "2023-01-06T21:47:39.407", "last_edit_date": "2023-01-06T21:47:39.407", "last_editor_user_id": "35558", "owner_user_id": "35558", "parent_id": "93106", "post_type": "answer", "score": 2 } ]
93106
93204
93204
{ "accepted_answer_id": null, "answer_count": 1, "body": "PyTorch Lightningをつかってネットワークの学習をしようとししているのですが、\n\n```\n\n # 学習の実行\n trainer.fit(net, train_loader, val_loader)\n \n```\n\nを実行しようとしたところ、下記エラーがでます。 \n何が原因なのでしょうか?\n\nコードファイルの添付いいたします\n\n```\n\n INFO:pytorch_lightning.callbacks.model_summary:\n | Name | Type | Params\n --------------------------------\n 0 | fc1 | Linear | 20 \n 1 | fc2 | Linear | 15 \n --------------------------------\n 35 Trainable params\n 0 Non-trainable params\n 35 Total params\n 0.000 Total estimated model params size (MB)\n Sanity Checking:\n 0/? [00:00<?, ?it/s]\n ---------------------------------------------------------------------------\n TypeError Traceback (most recent call last)\n <ipython-input-34-559331086c50> in <module>\n 1 # 学習の実行\n ----> 2 trainer.fit(net, train_loader, val_loader)\n \n 14 frames\n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/trainer/trainer.py in fit(self, model, train_dataloaders, val_dataloaders, datamodule, ckpt_path)\n 601 raise TypeError(f\"`Trainer.fit()` requires a `LightningModule`, got: {model.__class__.__qualname__}\")\n 602 self.strategy._lightning_module = model\n --> 603 call._call_and_handle_interrupt(\n 604 self, self._fit_impl, model, train_dataloaders, val_dataloaders, datamodule, ckpt_path\n 605 )\n \n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/trainer/call.py in _call_and_handle_interrupt(trainer, trainer_fn, *args, **kwargs)\n 36 return trainer.strategy.launcher.launch(trainer_fn, *args, trainer=trainer, **kwargs)\n 37 else:\n ---> 38 return trainer_fn(*args, **kwargs)\n 39 \n 40 except _TunerExitException:\n \n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/trainer/trainer.py in _fit_impl(self, model, train_dataloaders, val_dataloaders, datamodule, ckpt_path)\n 643 model_connected=self.lightning_module is not None,\n 644 )\n --> 645 self._run(model, ckpt_path=self.ckpt_path)\n 646 \n 647 assert self.state.stopped\n \n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/trainer/trainer.py in _run(self, model, ckpt_path)\n 1096 self._checkpoint_connector.resume_end()\n 1097 \n -> 1098 results = self._run_stage()\n 1099 \n 1100 log.detail(f\"{self.__class__.__name__}: trainer tearing down\")\n \n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/trainer/trainer.py in _run_stage(self)\n 1175 if self.predicting:\n 1176 return self._run_predict()\n -> 1177 self._run_train()\n 1178 \n 1179 def _pre_training_routine(self) -> None:\n \n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/trainer/trainer.py in _run_train(self)\n 1188 \n 1189 with isolate_rng():\n -> 1190 self._run_sanity_check()\n 1191 \n 1192 # enable train mode\n \n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/trainer/trainer.py in _run_sanity_check(self)\n 1260 # run eval step\n 1261 with torch.no_grad():\n -> 1262 val_loop.run()\n 1263 \n 1264 self._call_callback_hooks(\"on_sanity_check_end\")\n \n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/loops/loop.py in run(self, *args, **kwargs)\n 197 try:\n 198 self.on_advance_start(*args, **kwargs)\n --> 199 self.advance(*args, **kwargs)\n 200 self.on_advance_end()\n 201 self._restarting = False\n \n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/loops/dataloader/evaluation_loop.py in advance(self, *args, **kwargs)\n 150 if self.num_dataloaders > 1:\n 151 kwargs[\"dataloader_idx\"] = dataloader_idx\n --> 152 dl_outputs = self.epoch_loop.run(self._data_fetcher, dl_max_batches, kwargs)\n 153 \n 154 # store batch level output per dataloader\n \n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/loops/loop.py in run(self, *args, **kwargs)\n 197 try:\n 198 self.on_advance_start(*args, **kwargs)\n --> 199 self.advance(*args, **kwargs)\n 200 self.on_advance_end()\n 201 self._restarting = False\n \n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/loops/epoch/evaluation_epoch_loop.py in advance(self, data_fetcher, dl_max_batches, kwargs)\n 135 \n 136 # lightning module methods\n --> 137 output = self._evaluation_step(**kwargs)\n 138 output = self._evaluation_step_end(output)\n 139 \n \n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/loops/epoch/evaluation_epoch_loop.py in _evaluation_step(self, **kwargs)\n 232 \"\"\"\n 233 hook_name = \"test_step\" if self.trainer.testing else \"validation_step\"\n --> 234 output = self.trainer._call_strategy_hook(hook_name, *kwargs.values())\n 235 \n 236 return output\n \n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/trainer/trainer.py in _call_strategy_hook(self, hook_name, *args, **kwargs)\n 1478 \n 1479 with self.profiler.profile(f\"[Strategy]{self.strategy.__class__.__name__}.{hook_name}\"):\n -> 1480 output = fn(*args, **kwargs)\n 1481 \n 1482 # restore current_fx when nested context\n \n /usr/local/lib/python3.8/dist-packages/pytorch_lightning/strategies/strategy.py in validation_step(self, *args, **kwargs)\n 388 with self.precision_plugin.val_step_context():\n 389 assert isinstance(self.model, ValidationStep)\n --> 390 return self.model.validation_step(*args, **kwargs)\n 391 \n 392 def test_step(self, *args: Any, **kwargs: Any) -> Optional[STEP_OUTPUT]:\n \n <ipython-input-13-80fd211086af> in validation_step(self, batch, batch_idx)\n 28 loss = F.cross_entropy(y, t)\n 29 self.log('val_loss', loss, on_step=False, on_epoch=True)\n ---> 30 self.log('val_acc', accuracy(y.softmax(dim=-1), t), on_step=False, on_epoch=True)\n 31 return loss\n 32 \n \n TypeError: accuracy() missing 1 required positional argument: 'task'\n \n```", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-30T06:34:33.927", "favorite_count": 0, "id": "93108", "last_activity_date": "2023-01-15T15:58:03.833", "last_edit_date": "2022-12-30T06:41:53.683", "last_editor_user_id": "3060", "owner_user_id": "56291", "post_type": "question", "score": -1, "tags": [ "python", "pytorch" ], "title": "PyTorch Lightningでの学習の実行でエラーがでます", "view_count": 1327 }
[ { "body": "エラー出力の最後に\n\n```\n\n TypeError: accuracy() missing 1 required positional argument: 'task'\n \n```\n\nとあるので,[TorchMetrics--ACCURACY--Functional\nInterface](https://torchmetrics.readthedocs.io/en/stable/classification/accuracy.html#functional-\ninterface) を参考に `task='multiclass', num_classes=3` を3カ所の `accuracy()`\nに設定して実行したところエラーは発生しなくなりました。なお,Google Colab (Python 3.8.16, torch 1.13.0+cu116,\npytorch-lightning 1.8.6, torchmetrics 0.11.0)\nでの確認に用いた(提示されたノートブックから集めた)コードは下記になります。\n\n```\n\n from sklearn.datasets import load_iris\n import torch\n from torch import nn\n import torch.nn.functional as F\n import pytorch_lightning as pl\n from pytorch_lightning.loggers import CSVLogger\n from torchmetrics.functional import accuracy\n \n \n class Net(pl.LightningModule):\n def __init__(self):\n super().__init__()\n self.fc1 = nn.Linear(4, 4)\n self.fc2 = nn.Linear(4, 3)\n \n def forward(self, x):\n h = self.fc1(x)\n h = F.relu(h)\n h = self.fc2(h)\n return h\n \n def training_step(self, batch, batch_idx):\n x, t = batch\n y = self(x)\n loss = F.cross_entropy(y, t)\n self.log('train_loss', loss, on_step=True, on_epoch=True, prog_bar=True)\n self.log('train_acc', accuracy(y.softmax(dim=-1), t,\n task='multiclass', num_classes=3),\n on_step=True, on_epoch=True, prog_bar=True)\n return loss\n \n def validation_step(self, batch, batch_idx):\n x, t = batch\n y = self(x)\n loss = F.cross_entropy(y, t)\n self.log('val_loss', loss, on_step=False, on_epoch=True)\n self.log('val_acc', accuracy(y.softmax(dim=-1), t,\n task='multiclass', num_classes=3),\n on_step=False, on_epoch=True)\n return loss\n \n def test_step(self, batch, batch_idx):\n x, t = batch\n y = self(x)\n loss = F.cross_entropy(y, t)\n self.log('test_loss', loss, on_step=False, on_epoch=True)\n self.log('test_acc', accuracy(y.softmax(dim=-1), t,\n task='multiclass', num_classes=3),\n on_step=False, on_epoch=True)\n return loss\n \n def configure_optimizers(self):\n optimizer = torch.optim.SGD(self.parameters(), lr=0.01)\n return optimizer\n \n \n torch.manual_seed(0)\n pl.seed_everything(0)\n \n iris = load_iris()\n data = iris['data']\n target = iris['target']\n data = torch.tensor(data, dtype=torch.float32)\n target = torch.tensor(target, dtype=torch.int64)\n dataset = torch.utils.data.TensorDataset(data, target)\n \n n_train = int(len(dataset) * 0.6)\n n_val = int(len(dataset) * 0.2)\n n_test = len(dataset) - n_train - n_val\n train, val, test = torch.utils.data.random_split(dataset, [n_train, n_val, n_test])\n \n batch_size = 10\n train_loader = torch.utils.data.DataLoader(train, batch_size,\n shuffle=True, drop_last=True)\n val_loader = torch.utils.data.DataLoader(val, batch_size)\n test_loader = torch.utils.data.DataLoader(test, batch_size)\n \n net = Net()\n \n logger = CSVLogger(save_dir='logs', name='my_exp')\n trainer = pl.Trainer(max_epochs=30, deterministic=True, logger=logger)\n \n trainer.fit(net, train_loader, val_loader)\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-15T15:58:03.833", "id": "93364", "last_activity_date": "2023-01-15T15:58:03.833", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "54588", "parent_id": "93108", "post_type": "answer", "score": 1 } ]
93108
null
93364
{ "accepted_answer_id": "93111", "answer_count": 1, "body": "electron(v22)+Vue(v3)を使って、JSONで処理しようとしています。\n\nアップロードしたファイルをテキストファイルをJSONにパースしようとするとエラーが発生します。 \nもしかしたら改行コードやスペースが原因かと思い、最小構成のJSONを作ってみました。 \nしかし、それでもエラーが発生します。\n\n```\n\n const text = fs.readFileSync(filePath, 'utf-8');\n const json = JSON.parse(text);\n \n```\n\nテストしたテキストファイルは次のようなものです。改行コードもありません\n\n```\n\n {\"test\":\"text\"}\n \n```\n\n発生するエラーは次のとおりです。\n\n```\n\n SyntaxError: Unexpected token '', \"{\"test\":\"text\"}\" is not valid JSON\n \n```\n\ntoStringを付けてみましたが同じでした。\n\n```\n\n JSON.parse(text.toString())\n SyntaxError: Unexpected token '', \"{\"test\":\"text\"}\" is not valid JSON\n \n```\n\n直接、テキスト文を書き込むと問題ありません\n\n```\n\n JSON.parse('{\"test\":\"test\"}')\n > Object {test: \"test\"}\n \n```\n\nエラーが発生してしまう原因がわかりません。 \n何が原因と考えられるでしょうか?\n\nよろしくお願いします。\n\n【追記】 \nデバッグコンソールでいろいろとテストをしてみました。\n\n 1. JSON.parse(text) で エラー\n 2. text の中は '{\"test\":\"text\"}'\n 3. '{\"test\":\"text\"}'を手打ちでJSON.parse だと正常\n 4. text と 手打ち '{\"test\":\"text\"}' を比較すると false\n\n見た目は一緒だけど、中身が違うと認識されているようです。 \n文字コードはUTF-8、そもそも記号とアルファベットだけなので文字コードも影響がないはずでは?\n\ntypeof(text) を実行してみると string が返ってきました。\n\nうーーん、本当何が原因なんでしょう\n\n[![画像の説明をここに入力](https://i.stack.imgur.com/tbO4Q.png)](https://i.stack.imgur.com/tbO4Q.png)", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-30T09:09:58.127", "favorite_count": 0, "id": "93109", "last_activity_date": "2023-02-12T03:37:31.107", "last_edit_date": "2023-02-12T03:37:31.107", "last_editor_user_id": "7980", "owner_user_id": "7980", "post_type": "question", "score": 0, "tags": [ "javascript", "json" ], "title": "形式として問題ないのに JSON.parse で エラーになってしまう", "view_count": 1387 }
[ { "body": "対象ファイルが「BOM付きUTF-8」でした。 \n先頭の1文字に U+FEFF がついており、そのためにJSON.parseがエラーになる原因でした。 \n\"幅ゼロの文字\" のため、テキストベースでは気づけませんでした。\n\n下記のコードで削除することで問題なくJSON化出来ました。\n\n```\n\n let text = await fs.readFileSync(filePath, 'utf8');\n if (text.charCodeAt(0) === 0xFEFF) {\n text = text.substring(1);\n }\n const json = JSON.parse(text);\n \n```\n\n(コメントでご指摘頂いた内容です。解決しましたので回答として投稿いたします)", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-30T12:52:18.930", "id": "93111", "last_activity_date": "2023-01-01T00:48:10.060", "last_edit_date": "2023-01-01T00:48:10.060", "last_editor_user_id": "7980", "owner_user_id": "7980", "parent_id": "93109", "post_type": "answer", "score": 4 } ]
93109
93111
93111
{ "accepted_answer_id": null, "answer_count": 0, "body": "ContentViewの変数(配列)を \n別structで使おうとしたらエラーが出ました。 \nContentView.変数の形では使えないのですか?", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-30T09:56:01.867", "favorite_count": 0, "id": "93110", "last_activity_date": "2022-12-30T09:56:01.867", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "39481", "post_type": "question", "score": 0, "tags": [ "swift" ], "title": "structの表記形式", "view_count": 68 }
[]
93110
null
null
{ "accepted_answer_id": null, "answer_count": 1, "body": "ビルドして、ListのNavigationLinkで遷移するとその遷移先のViewのToolbarItemが表示されません。 \nみなさんそうですか?", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-31T04:55:56.890", "favorite_count": 0, "id": "93117", "last_activity_date": "2023-01-02T16:44:04.390", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "39481", "post_type": "question", "score": -2, "tags": [ "swift" ], "title": "ToolbarItemが表示されない", "view_count": 88 }
[ { "body": "ToolbarItemは各画面ごとに設定する必要があります。\n\n以下のようなExtensionで簡単に各画面に一行で実装可能ですが、Buttonのaction内容がその画面に依存している場合、各画面で実装が必要です。\n\n```\n\n struct ContentView: View {\n var body: some View {\n NavigationStack {\n NavigationLink(\"View1\") {\n NavigationLink(\"View2\") {\n Text(\"View3\")\n }\n .customToolbar(\"View2\")\n }\n .customToolbar(\"View1\")\n }\n }\n }\n \n extension View {\n func customToolbar(_ title: String) -> some View {\n self.toolbar {\n ToolbarItem(placement: .navigationBarTrailing) {\n Button(title) {\n \n }\n }\n }\n }\n }\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-02T16:34:24.353", "id": "93150", "last_activity_date": "2023-01-02T16:44:04.390", "last_edit_date": "2023-01-02T16:44:04.390", "last_editor_user_id": "40856", "owner_user_id": "40856", "parent_id": "93117", "post_type": "answer", "score": 1 } ]
93117
null
93150
{ "accepted_answer_id": null, "answer_count": 1, "body": "WindowsでHeidi SQLクライアントツールからAmazon RDSのMySQLに接続したいのですがうまくいきません。以下のエラーがでます。\n\n```\n\n Connection failed SSH exited unexpedted Command line was plink.exe -ssh ユーザ名@エンドポンと -P 22 -i \"鍵の場所\" -N -L ・・・\n \n```\n\nplink というSSH接続ツールがうまく機能していないのでしょうか?\n\nWindowsで手っ取り早くAmazon RDS にSSHトンネルで接続できるクライアントソフトがあれば教えてください。\n\n参考にしたサイト \n<https://into-the-program.com/aws-rds-heidisql/>\n\nPowerShellで下記を実行\n\n```\n\n \"C:\\Program Files\\HeidiSQL\\plink.exe\" [email protected]\n 発生場所 行:1 文字:39\n + \"C:\\Program Files\\HeidiSQL\\plink.exe\" [email protected]\n + ~~~~~~~~~~~~~~~~~~~~~~\n 式またはステートメントのトークン '[email protected]' を使用できません。\n + CategoryInfo : ParserError: (:) [], ParentContainsErrorRecordException\n + FullyQualifiedErrorId : UnexpectedToken\n \n```\n\nCMDで実行すると\n\n```\n\n \"C:\\Program Files\\HeidiSQL\\plink.exe\" -ssh -i \" C:\\Downloads\\importants\\kagi.ppk\" [email protected]\n Unable to use key file \" C:\\Downloads\\importants\\kagi.ppk\" (unable to open file)\n Using username \"ec2-user\".\n FATAL ERROR: No supported authentication methods available (server sent: publickey,gssapi-keyex,gssapi-with-mic)\n \n```\n\nHeidiSQLから ssh.exe?かつ.pem を選択した場合\n\n[![画像の説明をここに入力](https://i.stack.imgur.com/xPLRK.png)](https://i.stack.imgur.com/xPLRK.png)\n\npowershell からは \n下記コマンド でEC2インスタンスにログイン可能です。\n\nssh [email protected] -i C:\\Downloads\\importants\\kagi.pem", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-31T06:50:13.517", "favorite_count": 0, "id": "93119", "last_activity_date": "2022-12-31T19:59:15.850", "last_edit_date": "2022-12-31T19:59:15.850", "last_editor_user_id": "29370", "owner_user_id": "29370", "post_type": "question", "score": 0, "tags": [ "windows", "ssh", "amazon-rds" ], "title": "WindowsからAmazon RDS へのDB接続 SSHトンネル", "view_count": 359 }
[ { "body": "RDS インスタンス自体は ssh 接続することができません。\n\n参考にされているサイトでは、RDS インスタンス以外に Linux の EC2 インスタンスがあり、それを踏み台にすることが想定されています。plink\nツール自体は EC2 インスタンスに接続する形になるため、plink に指定する IP アドレスは EC2 インスタンスに割り当てられているパブリック IP\nアドレスにします。そのような構成で試されているでしょうか?\n\n他に考えられる方法としては、以下のような方法があります。\n\n * RDS にパブリック IP アドレスを割り当てて SSH を使わずに接続する (セキュリティ上あまりおすすめの方法ではありませんが簡単です)\n * Windows の EC2 インスタンスを立ち上げて、そこから RDP 接続する。\n\nドキュメントには以下のようにほぼ同じことが書かれています。 \n<https://docs.aws.amazon.com/ja_jp/AmazonRDS/latest/UserGuide/CHAP_CommonTasks.Connect.html#CHAP_CommonTasks.Connect.ScenariosForAccess>", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-31T16:54:50.963", "id": "93128", "last_activity_date": "2022-12-31T16:54:50.963", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "5959", "parent_id": "93119", "post_type": "answer", "score": 2 } ]
93119
null
93128
{ "accepted_answer_id": "93177", "answer_count": 2, "body": "下記のgit pushコマンドについて質問です。\n\n1のコマンドではリモートリポジトリのdevブランチに、現在のHEADをプッシュすると考えているのですが、2の場合は何が違うのでしょうか?\n\n 1. `git push origin dev`\n 2. `git push origin origin/dev`", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-31T08:18:25.643", "favorite_count": 0, "id": "93121", "last_activity_date": "2023-01-04T06:00:57.197", "last_edit_date": "2022-12-31T10:21:52.123", "last_editor_user_id": "19110", "owner_user_id": "46713", "post_type": "question", "score": 2, "tags": [ "git" ], "title": "git push するとき、dev と origin/dev は何が違うのでしょうか?", "view_count": 588 }
[ { "body": "\"origin/dev\" ブランチは、\"origin\" というリモートの \"dev\" というブランチに対する「リモート追跡ブランチ」です。これに対して\n\"dev\" ブランチはローカルのブランチです。\n\n詳しくは Pro Git の解説が分かりやすいです: [Git のブランチ機能 - リモートブランチ](https://git-\nscm.com/book/ja/v2/Git-%E3%81%AE%E3%83%96%E3%83%A9%E3%83%B3%E3%83%81%E6%A9%9F%E8%83%BD-%E3%83%AA%E3%83%A2%E3%83%BC%E3%83%88%E3%83%96%E3%83%A9%E3%83%B3%E3%83%81)", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-31T10:21:11.370", "id": "93125", "last_activity_date": "2022-12-31T10:21:11.370", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "19110", "parent_id": "93121", "post_type": "answer", "score": 3 }, { "body": "まず、[Git で「追跡ブランチ」って言うのやめましょう -\nQiita](https://qiita.com/uasi/items/69368c17c79e99aaddbf)\nの説明と図がわかりやすいかなと思いますのでそちらの説明を読んでみてください。\n\n[![画像の説明をここに入力](https://i.stack.imgur.com/ETVYo.png)](https://i.stack.imgur.com/ETVYo.png)\n\nリンク先の説明でわかる通り、ひとくちに `master` と言っても、 ローカルに `master` と `origin/master`の2つと、リモートに\n`master` の1つが一般的には関わってきます。\n\nさて、 `git push origin dev` コマンドは、 ローカルの `dev` ブランチをリモートの `dev`\nブランチに同期させるコマンドです。 \n(\"現在のHEADをプッシュする\" わけではありません)\n\n同様に、 `git push origin origin/dev` は、ローカルの `origin/dev` ブランチをリモートの `origin/dev`\nブランチに同期させるコマンドということになります。\n\n`origin/dev`\nブランチは冒頭リンク先の説明にある通りリモートを追跡しているブランチなので、それをリモートにpushするという行為は普通に考えて意味が無いです。 \n従って **2\\. のようなコマンドを実行する機会は無いでしょう** 。\n\n* * *\n\n(完全ではないですが、私がわかるところまで説明してみます)\n\n実際に何が起こっているのかは、次のような手順で確認することができると思います。\n\nまず、ローカルにリモート(origin)リポジトリとローカルリポジトリを作成します。\n\n```\n\n mkdir temp\n cd temp\n mkdir origin-repo\n cd origin-repo\n git init --bare\n cd ..\n git clone origin-repo local-repo\n cd local-repo\n \n```\n\nこの時点のリモートリポジトリの refs を見てみます。\n\n```\n\n tree ../origin-repo/refs/\n \n```\n\n結果:\n\n```\n\n ../origin-repo/refs\n ├── heads\n └── tags\n \n```\n\n続いて、ローカルでcommit, pushをおこなった後、同様にリモートリポジトリの refs を確認してみます。\n\n```\n\n git commit --allow-empty -m init\n git push origin HEAD\n tree ../origin-repo/refs/\n \n```\n\n結果:\n\n```\n\n ../origin-repo/refs/\n ├── heads\n │   └── main\n └── tags\n \n```\n\n`refs/heads/main` が作成されているのがわかります。 \n続いて、 `origin/main` を push してみます。\n\n```\n\n git push origin origin/main\n tree ../origin-repo/refs/\n \n```\n\n結果:\n\n```\n\n ../origin-repo/refs/\n ├── heads\n │   └── main\n ├── remotes\n │   └── origin\n │   └── main\n └── tags\n \n```\n\n`refs/remotes/origin/main` が作成されました。\n\nところで、このブランチは `git branch -r` で表示されません。 \ncheckout するには被らないような名前のローカルブランチにpullすれば良さそうです。\n\n```\n\n git pull origin origin/main:origin-main\n git checkout origin-main\n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T05:32:14.113", "id": "93177", "last_activity_date": "2023-01-04T06:00:57.197", "last_edit_date": "2023-01-04T06:00:57.197", "last_editor_user_id": "2808", "owner_user_id": "2808", "parent_id": "93121", "post_type": "answer", "score": 1 } ]
93121
93177
93125
{ "accepted_answer_id": null, "answer_count": 2, "body": "C++、Qt(たしか4.5くらいだったと思います)で開発したWindowsデスクトップアプリケーションを一度別環境(環境Aとします)にも移し、動くことを確認したのですが、さらに別のマシン3台(環境B、C、Dとします)ほどで確認したところ起動できませんでした。 \n開発環境も含めた環境については以下の通りです。\n\n * 環境BだけWin11、それ以外はWin10\n * すべて64bit、リビジョンもおそらくすべて21H2\n * 環境AはQtなどは入れてはいないはずだが、C#、.NET Frameworkでの開発に使っている\n * 環境B、Dではlibintl-8.dllがどの場所にもないことを確認(その他のマシンでは確認してません)\n\nエラー内容としては「\n**libintl-8.dllが見つからないため、コードを実行できません。プログラムを再インストールすると、この問題が解決する可能性があります。**\n」というものです。環境Aでは各dllについてのこのエラーが出るたびに開発環境からdllを持ってきて、最終的に動くことを確認しました。 \nただ、現在は1週間ほど開発環境と環境Aが確認できない状態なので、エラーが出ているdllを持ってこれません。そこで、dllダウンロードサイト(<https://jp.dll-\nfiles.com/libintl-8.dll.html>、<https://jp.error-\ndll.info/file/libintl-8dll>)からlibintl-8.dllをダウンロードしアプリケーション実行ディレクトリにおいて実行すると、「\n**アプリケーションを正しく起動できませんでした(0xc000007b)。[OK]をクリックしてアプリケーションを閉じてください。**\n」というエラーが出ます(\"https://jp.error-\ndll.info/file/libintl-8dll\"のdllはサンドボックス上で確認)。調べたところ64/32bitの不整合という話があり、確かにlibintl-8.dllがこれらのサイト上に上がっているものは32bitなのかもしれません。 \n数日のうちにこのエラーを解消してアプリケーションを起動できるようにしたいと考えています。何かアドバイスや不足情報等あればコメントいただきたいです。よろしくお願いします。", "comment_count": 7, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-31T08:35:04.440", "favorite_count": 0, "id": "93122", "last_activity_date": "2023-01-05T03:31:36.683", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "31624", "post_type": "question", "score": 0, "tags": [ "c++", "windows", "qt", "dll" ], "title": "C++アプリケーションを別環境で起動できない", "view_count": 274 }
[ { "body": "DLLme.comというサイトからx64のdllがダウンロードできました。結局計4つのDllが足りないと言われ都度ダウンロードし、動くようになりましたが、出所がよくわからないものなので実稼働はやめておきます。ありがとうございました。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-03T12:21:33.460", "id": "93166", "last_activity_date": "2023-01-03T12:21:33.460", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "31624", "parent_id": "93122", "post_type": "answer", "score": 0 }, { "body": "なんとなくDLLをコピーした場合、過不足がわかりませんし、バージョン不一致も発生しかねません。 \n別環境で動作させるためにあるべき姿としては、[Qt Installer\nFramework](https://doc.qt.io/qtinstallerframework/index.html)を使用してインストーラーを作成するべきではないでしょうか。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-05T03:31:36.683", "id": "93192", "last_activity_date": "2023-01-05T03:31:36.683", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "4236", "parent_id": "93122", "post_type": "answer", "score": 1 } ]
93122
null
93192
{ "accepted_answer_id": null, "answer_count": 1, "body": "大変初歩的な質問だと思いますが、以下のサイトを参考に `split` 関数を試してみようとしていまして\n\n[文字列を分割する!Pythonでsplit関数を使う方法を現役エンジニアが解説【初心者向け】](https://magazine.techacademy.jp/magazine/15553)\n\nその際の `In[]` の中の書き方としては下記を二行で記載するようなイメージでよいのでしょうか?\n\n```\n\n result = 'オンライン、プログラミング、学習スクール、テックアカデミー'.split('、')\n ['オンライン', 'プログラミング', '学習スクール', 'テックアカデミー']\n \n```\n\n実行しても `Out[]`\nとして下記が出てくるためおそらく間違っていると思うのですが、ちゃんとsplitされたものを表示するにはどうすればよいのでしょうか?\n\n```\n\n ['オンライン', 'プログラミング', '学習スクール', 'テックアカデミー']\n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-31T10:05:47.850", "favorite_count": 0, "id": "93123", "last_activity_date": "2022-12-31T11:24:24.193", "last_edit_date": "2022-12-31T11:24:24.193", "last_editor_user_id": "3060", "owner_user_id": "55769", "post_type": "question", "score": 0, "tags": [ "python" ], "title": "split 関数の書き方が分からない", "view_count": 76 }
[ { "body": "おそらく Jupyter Notebook 上で実行されているとして、参照されているサイトが言っているのは、\n\n * In に `result = 'オンライン、プログラミング、学習スクール、テックアカデミー'.split('、')` を書いて実行すると、変数 `result` に `['オンライン', 'プログラミング', '学習スクール', 'テックアカデミー']` が代入される\n * なのでたとえば後続の In に `print(result)` と書いて実行すると Out に `['オンライン', 'プログラミング', '学習スクール', 'テックアカデミー']` が出てくる\n\nということです。", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-31T10:17:42.173", "id": "93124", "last_activity_date": "2022-12-31T10:17:42.173", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "19110", "parent_id": "93123", "post_type": "answer", "score": 1 } ]
93123
null
93124
{ "accepted_answer_id": null, "answer_count": 1, "body": "**javascriptとhtmlを使用してアルファベットからモールス記号に変換する機能を実装したい** \n下記のコードでinputタグに入力した値が連想配列のkeyと合致していた場合、合致した文字の値(モールス記号)を表示するところまでは作れたのですが、一文字ずつしか変換できず、解決方法がわかりません。\n\n**期待する出力** \ninputタグにHELLOを入力 => ・・・・ ・ ・-・・ ・-・・ --- が表示\n\n**実際の出力** \ninputタグにHELLOを入力(2文字以上) => 入力されたテキストと連想配列のkeyが一致しませんでした。; \ninputタグにHを入力(1文字) => ・・・・ が表示\n\n**困っている事** \n一文字以上は判定・変換されない。\n\n```\n\n const ENmorseCodes = {\n \"A\": \"・-\",\n \"B\": \"-・・・\",\n \"C\": \"-・-・\",\n \"D\": \"-・・\",\n \"E\": \"・\",\n \"F\": \"・・-・\",\n \"G\": \"--・\",\n \"H\": \"・・・・\",\n \"I\": \"・・\",\n \"J\": \"・---\",\n \"K\": \"-・-\",\n \"L\": \"・-・・\",\n \"M\": \"--\",\n \"N\": \"-・\",\n \"O\": \"---\",\n \"P\": \"・--・\",\n \"Q\": \"--・-\",\n \"R\": \"・-・\",\n \"S\": \"・・・\",\n \"T\": \"-\",\n \"U\": \"・・-\",\n \"V\": \"・・・-\",\n \"W\": \"・--\",\n \"X\": \"-・・-\",\n \"Y\": \"-・--\",\n \"Z\": \"--・・\",\n \"1\": \"・----\",\n \"2\": \"・・---\",\n \"3\": \"・・・--\",\n \"4\": \"・・・・-\",\n \"5\": \"・・・・・\",\n \"6\": \"-・・・・\",\n \"7\": \"--・・・\",\n \"8\": \"---・・\",\n \"9\": \"----・\",\n \"0\": \"-----\",\n \".\": \"・-・-・-\",\n \",\": \"--・・--\",\n \":\": \"---・・・\",\n \"?\": \"・・--・・\",\n \"_\": \"・・--・-\",\n \"+\": \"・-・-・\",\n \"-\": \"-・・・・-\",\n \"*\": \"-・・-\",\n \"^\": \"・・・・・・\",\n \"/\": \"-・・-・\",\n \"@\": \"・--・-・\",\n \"(\": \"-・--・\",\n \")\": \"-・--・-\",\n '\"': \"・-・・-・\",\n \"'\": \"・----・\",\n \"=\": \"-・・・-\",\n \"delete\": \"・・・・・・・・\",\n };\n \n const input_btn = document.getElementById(\"input-btn\");\n const convert_display = document.getElementById(\"convert-display\");\n \n input_btn.addEventListener(\"click\", () => {\n //inputタグに入力したアルファベットを取得\n const input_morse = document.getElementById(\"input-morse\").value;\n //inputタグに入力されたアルファベットを入れる配列を宣言\n let target_array = [];\n //inputタグに入力されたアルファベットを1文字ずつ分ける\n const input_split = document.getElementById(\"input-morse\").value.split(\"\");\n //inputタグに入力されたアルファベットを1文字ずつ分け配列にプッシュする\n target_array.push(input_split);\n \n if (ENmorseCodes[target_array]) {\n convert_display.innerHTML = ENmorseCodes[target_array];\n console.log(\"入力されたテキストと連想配列のkeyが一致しました。\");\n } else {\n console.log(\"入力されたテキストと連想配列のkeyが一致しませんでした。\");\n }\n });\n```\n\n```\n\n * {\n text-decoration: none;\n box-sizing: border-box;\n }\n \n html {\n /* 10px = 1rem */\n font-size: 62.5%;\n }\n \n body {\n margin: 0;\n }\n \n header {\n height: 8rem;\n background-color: #515151;\n text-align: center;\n }\n \n .header-title {\n font-size: 2.5rem;\n line-height: 8rem;\n color: #ffffff;\n margin: 0;\n }\n \n main {\n background-color: antiquewhite;\n height: 85vh;\n text-align: center;\n padding: 10rem;\n }\n \n .convert-system {\n font-size: 2rem;\n margin: 0 0 3rem 0;\n }\n \n .input-morse {\n width: 10vw;\n height: 2.5vh;\n }\n \n textarea {\n display: block;\n margin: 10rem auto 0 auto;\n width: 25vw;\n height: 30vh;\n font-size: 2rem;\n }\n \n footer {\n height: 6rem;\n background-color: #313131;\n display: flex;\n justify-content: center; /* 子要素を中央揃え */\n position: relative;\n line-height: 6rem;\n padding: 0 6rem;\n }\n \n .footer-title {\n font-size: 2rem;\n margin: 0;\n }\n```\n\n```\n\n <!DOCTYPE html>\n <html lang=\"ja\">\n \n <head>\n <meta charset=\"UTF-8\" />\n <meta http-equiv=\"X-UA-Compatible\" content=\"IE=edge\" />\n <meta name=\"viewport\" content=\"width=device-width, initial-scale=1.0\" />\n <link rel=\"stylesheet\" href=\"./css/style.css\" />\n <title>MorseCode Converter</title>\n </head>\n \n <body>\n <header>\n <h1 class=\"header-title\">モールス信号変換サイト</h1>\n </header>\n \n <main>\n <p class=\"convert-system\">アルファベット => モールス符号</p>\n <input id=\"input-morse\" class=\"input-morse\" type=\"text\" placeholder=\"ここに入力\" />\n <input id=\"input-btn\" type=\"button\" value=\"変換\">\n <textarea id=\"convert-display\" name=\"\" id=\"\" cols=\"30\" rows=\"10\"></textarea>\n </main>\n \n <footer>\n <p class=\"footer-title\">MorseCode Converter</p>\n </footer>\n \n <script src=\"./js/script.js\"></script>\n </body>\n \n </html>\n```", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-31T14:41:56.497", "favorite_count": 0, "id": "93127", "last_activity_date": "2023-01-01T06:52:32.050", "last_edit_date": "2022-12-31T14:50:56.553", "last_editor_user_id": "56309", "owner_user_id": "56309", "post_type": "question", "score": 0, "tags": [ "javascript", "html5" ], "title": "JavaScript&HTMLを使用したモールス信号変換機能で1文字以上でも判定・変換されるようにしたい。", "view_count": 104 }
[ { "body": "1文字ずつ繰り返す必要があるので、以下の部分\n\n```\n\n if (ENmorseCodes[target_array]) {\n convert_display.innerHTML = ENmorseCodes[target_array];\n console.log(\"入力されたテキストと連想配列のkeyが一致しました。\");\n } else {\n console.log(\"入力されたテキストと連想配列のkeyが一致しませんでした。\");\n }\n \n```\n\nを、`for` などでループさせるとよいでしょう。\n\n```\n\n let result = '';\n for (let letter of input_split) {\n if (ENmorseCodes[letter]) {\n result += ENmorseCodes[letter];\n console.log(\"入力されたテキストと連想配列のkeyが一致しました。\");\n } else {\n console.log(`入力されたテキスト ${letter} と連想配列のkeyが一致しませんでした。`);\n }\n }\n convert_display.innerHTML = result;\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-01T06:52:32.050", "id": "93136", "last_activity_date": "2023-01-01T06:52:32.050", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "3475", "parent_id": "93127", "post_type": "answer", "score": 1 } ]
93127
null
93136
{ "accepted_answer_id": "93131", "answer_count": 1, "body": "# 概要\n\nvisual studio\ncodeのmicrosoft公式の[pythonの拡張機能](https://marketplace.visualstudio.com/items?itemName=ms-\npython.python)をインストールした後、clamscanを実行するとマルウェアの反応が出ました。\n\n過去にも[似たような議論](https://github.com/microsoft/vscode-\npython/issues/9474)がされていたようですが、その件は解決したとしてクローズされています。 \nしかしclamavのウイルス定義は最新の状態に更新して尚、未だにマルウェアとして検出されるというのは異常に感じます。\n\nこれはマルウェアと考えるべきなのでしょうか?\n\n```\n\n $ clamscan /home/USER/ --recursive --infected \n ...\n /home/USER/.config/Code/CachedExtensionVSIXs/ms-python.python-2022.20.1: Win.Trojan.Trojanx-9981435-0 FOUND\n \n ----------- SCAN SUMMARY -----------\n Known viruses: 8646692\n Engine version: 0.103.6\n Scanned directories: 16337\n Scanned files: 209739\n Infected files: 1\n Data scanned: 9387.41 MB\n Data read: 15554.11 MB (ratio 0.60:1)\n Time: 2194.871 sec (36 m 34 s)\n Start Date: 2023:01:01 03:50:55\n End Date: 2023:01:01 04:27:29\n \n```\n\n# 実行環境\n\n## OS\n\n```\n\n $ cat /etc/os-release \n PRETTY_NAME=\"Ubuntu 22.04.1 LTS\"\n NAME=\"Ubuntu\"\n VERSION_ID=\"22.04\"\n VERSION=\"22.04.1 LTS (Jammy Jellyfish)\"\n VERSION_CODENAME=jammy\n ID=ubuntu\n ID_LIKE=debian\n HOME_URL=\"https://www.ubuntu.com/\"\n SUPPORT_URL=\"https://help.ubuntu.com/\"\n BUG_REPORT_URL=\"https://bugs.launchpad.net/ubuntu/\"\n PRIVACY_POLICY_URL=\"https://www.ubuntu.com/legal/terms-and-policies/privacy-policy\"\n UBUNTU_CODENAME=jammy\n \n```\n\n## clamdバージョン\n\n```\n\n $ clamd -V\n ClamAV 0.103.6/26767/Sat Dec 31 17:24:44 2022\n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2022-12-31T19:20:24.250", "favorite_count": 0, "id": "93129", "last_activity_date": "2023-01-01T01:52:40.233", "last_edit_date": "2022-12-31T19:33:20.453", "last_editor_user_id": "9616", "owner_user_id": "9616", "post_type": "question", "score": 0, "tags": [ "vscode", "malware" ], "title": "vscodeの公式拡張機能からマルウェアを検出(?)", "view_count": 462 }
[ { "body": "ウイルスチェックソフトがウイルスを誤検出するのはよくあることです。 \nそれを修正する責任はウイルスチェックソフト側にあるでしょう。\n\n例えば私が経験してネット上でもそこそこの事例がある PyInstaller の run.exe/runw.exe\nというプログラムがウイルスと判断される件ですが、色々なウイルスチェックソフトから散発的に何度も事例が発生しているようです。 \nPyInstallerでもIssue記事がありますが、チェックソフトのベンダーに問い合わせてください、となっています。 \n[run.exe as malware\n#3802](https://github.com/pyinstaller/pyinstaller/issues/3802)\n\n> Please contact you anti-virus vendor. There is nothing we can do about this\n> false positive. \n> ウイルス対策ベンダーにお問い合わせください。この偽陽性に対して私たちができることは何もありません。\n\n> If your anti-virus vendor considers one of the files included in the\n> PyInstaller distribution or a file generated by PyInstaller to be malicious,\n> there is nothing we can do about this. Even if we'd change our code, they'd\n> change their pattern and the race starts again. \n> ウイルス対策ベンダーが、PyInstaller ディストリビューションに含まれるファイルまたは PyInstaller\n> によって生成されたファイルのいずれかが悪意のあるものであると見なした場合、これについて私たちができることは何もありません。コードを変更しても、パターンが変更され、レースが再開されます。\n\nちなみにPyInstallerはPythonスクリプトから実行ファイルを作るものなので、出来上がるプログラムへの対策を行う事例はいくつか見つかります。 \n[【python】PyInstaller で作った実行ファイルが crowdstrike\nで誤検知](https://a1026302.hatenablog.com/entry/2021/10/28/183502)\n\n* * *\n\nClamAVというのはオープンソースで無料のソフトのようですが、最初に書かれている概要を見るとメールゲートウェイで使うことが主題であり、PC内にあるファイルのウイルスチェックは微妙にズレた使い方かもしれませんね。 \n[ClamAV](https://www.clamav.net/)\n\n> The Standard \n> ClamAV® is the open-source standard for mail gateway-scanning software.\n\n取り得る選択肢は以下のようなものが考えられます。\n\n * ウイルスチェックソフトの開発元に連絡して詳しいチェックと対策を行ってもらう。\n * ウイルスチェックソフトを他のものに変える。\n * ウイルスチェックソフトのVSCodeのPython拡張機能への指摘を無視する設定を行う。\n * ウイルスチェックソフト/VSCodeのPython拡張機能のどちらかの使用を辞める。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-01T01:52:40.233", "id": "93131", "last_activity_date": "2023-01-01T01:52:40.233", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "26370", "parent_id": "93129", "post_type": "answer", "score": 1 } ]
93129
93131
93131
{ "accepted_answer_id": "93135", "answer_count": 1, "body": "Electron(v22)でファイルのアップロードする部分を作成しています。 \nrenderer.tsからpreload.tsを経由してbackground.tsを経由するときに、 \n`Uncaught (in promise) Error: An object could not be cloned.` \nがrenderer.ts部分で発生してしまいます。\n\n原因がわからず、またどの部分が問題なのか予測がつかなくて、修正ができない状態です。 \n問題発生のポイント、原因、できましたら対応方法などアドバイスいただけると嬉しいです。\n\n## renderer.ts\n\n```\n\n holder.addEventListener('drop', (event) => {\n event.preventDefault();\n event.stopPropagation();\n \n const files = event.dataTransfer.files;\n \n const file = files[0];\n window.electronAPI.uploadFile(file)\n // ↑Uncaught (in promise) Error: An object could not be cloned.というエラーが出る\n \n holder.innerText = \"処理中...\"\n });\n \n```\n\n## preload.ts\n\n```\n\n const { contextBridge, ipcRenderer } = require('electron')\n \n contextBridge.exposeInMainWorld('electronAPI',{\n // @ts-ignore\n uploadFile: (file) => ipcRenderer.invoke('file:upload', file)\n })\n \n```\n\n## background.ts\n\n```\n\n async function handleFileUpload(event,file) {\n let text = await fs.readFileSync(file.path, 'utf8');\n json = jsonFromText(text); // jsonはグローバル変数\n }\n ipcMain.handle('file:upload', handleFileUpload)\n \n```\n\nphpstormを使って、background.ts にブレークポイントを設置しましたが、 \n停止しないので、background.tsにもたどり着いていないように思えます。\n\nよろしくお願いします。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-01T00:47:03.373", "favorite_count": 0, "id": "93130", "last_activity_date": "2023-01-01T06:45:10.477", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "7980", "post_type": "question", "score": 0, "tags": [ "javascript", "electron" ], "title": "Electron で Uncaught (in promise) Error: An object could not be cloned", "view_count": 550 }
[ { "body": "[`ipcRenderer.invoke()`](https://www.electronjs.org/ja/docs/latest/api/ipc-\nrenderer#ipcrendererinvokechannel-args)\nは[構造化複製アルゴリズム](https://developer.mozilla.org/ja/docs/Web/API/Web_Workers_API/Structured_clone_algorithm)を使って引数をコピーするそうで、`File`\nオブジェクトは対象外です。レンダラー側で `TypedArray` に読み込んでから送るのがいいんじゃないでしょうか。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-01T06:45:10.477", "id": "93135", "last_activity_date": "2023-01-01T06:45:10.477", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "3475", "parent_id": "93130", "post_type": "answer", "score": 1 } ]
93130
93135
93135
{ "accepted_answer_id": "93134", "answer_count": 1, "body": "### 質問内容\n\n提示コードですが以下のコードで関すポインタ変数に匿名関数を代入したいのですがどの実装もエラーになります。 \n戻り値を取る場合の匿名関数はどうやって定義するのでしょうか?\n\n### 知りたいこと\n\n関数ポインタ変数に戻り値取る匿名関数を代入する方法が知りたい\n\n### 試したこと、知りたいこと\n\n提示コードの`//実装`部のよにいろいろ試しましたがどれもエラーになりどれが一番正解の近い形なのかわかりません。\n\n### 参考サイト\n\nQuiita: <https://qiita.com/YukiMiyatake/items/8d10bca26246f4f7a9c8> \nブログサイトA: https://marycore.jp/prog/cpp/pass-function-as-argument/ \nブログサイトB:\nhttps://kaworu.jpn.org/cpp/%E3%83%A9%E3%83%A0%E3%83%80%E5%BC%8F#.E6.9C.80.E5.B0.8F.E3.81.AE.E3.83.A9.E3.83.A0.E3.83.80.E5.BC.8F.E3.81.AE.E5.AE.9A.E7.BE.A9\n\n### ソースコード\n\n```\n\n #include <iostream>\n \n \n int call() \n {\n return 1;\n }\n \n \n \n //int(*f)() = []() -> int { std::cout<<\"ssss\"<<std::endl; return 0; }(); //実装1\n //int(*f)() = []() -> int { std::cout<<\"ssss\"<<std::endl; return 0; }(int); //実装2\n //int(*f)() = []() -> int { std::cout<<\"ssss\"<<std::endl; }(0); //実装3\n int(*f)() = []() -> int { std::cout<<\"ssss\"<<std::endl; }(return 0); //実装4\n \n \n \n //int(*f)() = call;\n \n \n int main()\n { \n //std::cout<<call(fn)<<std::endl;\n \n return 0;\n }\n \n \n```\n\n### エラー\n\n##### 実装1 Error\n\n```\n\n $ make\n g++ -c -MMD -MP src/Main.cpp -o obj/Main.o -I./../src -I ~/Library -I ~/Library/freetype \n src/Main.cpp:21:68: error: invalid conversion from ‘int’ to ‘int (*)()’ [-fpermissive]\n 21 | int(*f)() = []() -> int { std::cout<<\"ssss\"<<std::endl; return 0; }();\n | ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~^~\n | |\n | int\n make: *** [Makefile:15: obj/Main.o] エラー 1\n \n```\n\n#### 実装2 Error\n\n```\n\n $ make\n g++ -c -MMD -MP src/Main.cpp -o obj/Main.o -I./../src -I ~/Library -I ~/Library/freetype \n src/Main.cpp:22:69: error: expected primary-expression before ‘int’\n 22 | int(*f)() = []() -> int { std::cout<<\"ssss\"<<std::endl; return 0; }(int); //実装2\n | ^~~\n make: *** [Makefile:15: obj/Main.o] エラー 1\n \n \n```\n\n### 実装3 Error\n\n```\n\n $ make\n g++ -c -MMD -MP src/Main.cpp -o obj/Main.o -I./../src -I ~/Library -I ~/Library/freetype \n src/Main.cpp: In lambda function:\n src/Main.cpp:23:57: warning: no return statement in function returning non-void [-Wreturn-type]\n 23 | int(*f)() = []() -> int { std::cout<<\"ssss\"<<std::endl; }(0); //実装3\n | ^\n src/Main.cpp: At global scope:\n src/Main.cpp:23:60: error: no match for call to ‘(<lambda()>) (int)’\n 23 | int(*f)() = []() -> int { std::cout<<\"ssss\"<<std::endl; }(0); //実装3\n | ^\n src/Main.cpp:23:60: note: candidate: ‘int (*)()’ <conversion>\n src/Main.cpp:23:60: note: candidate expects 1 argument, 2 provided\n src/Main.cpp:23:13: note: candidate: ‘<lambda()>’\n 23 | int(*f)() = []() -> int { std::cout<<\"ssss\"<<std::endl; }(0); //実装3\n | ^\n src/Main.cpp:23:13: note: candidate expects 0 arguments, 1 provided\n make: *** [Makefile:15: obj/Main.o] エラー 1\n \n \n```\n\n### 実装4 Error\n\n```\n\n make\n g++ -c -MMD -MP src/Main.cpp -o obj/Main.o -I./../src -I ~/Library -I ~/Library/freetype \n src/Main.cpp: In lambda function:\n src/Main.cpp:24:57: warning: no return statement in function returning non-void [-Wreturn-type]\n 24 | int(*f)() = []() -> int { std::cout<<\"ssss\"<<std::endl; }(return 0); //実装4\n | ^\n src/Main.cpp: At global scope:\n src/Main.cpp:24:59: error: expected primary-expression before ‘return’\n 24 | int(*f)() = []() -> int { std::cout<<\"ssss\"<<std::endl; }(return 0); //実装4\n | ^~~~~~\n make: *** [Makefile:15: obj/Main.o] エラー 1\n \n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-01T03:40:29.890", "favorite_count": 0, "id": "93133", "last_activity_date": "2023-01-01T05:13:17.197", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "55177", "post_type": "question", "score": 0, "tags": [ "c++" ], "title": "C++ 関数ポインタ変数に戻り値を取る匿名関数を代入する方法", "view_count": 154 }
[ { "body": "[ラムダ式の構文](https://cpprefjp.github.io/lang/cpp11/lambda_expressions.html#syntax)は、属性などの指定を省略すると下記になります。\n\n`[キャプチャリスト](パラメータリスト) -> 戻り値の型 { 関数の本体 }`\n\nその後ろの`(引数)`を置けば、そのラムダ式を呼び出すことになります。\n\n関数ポインターに代入するのであれば、`(引数)`は不要です。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-01T05:13:17.197", "id": "93134", "last_activity_date": "2023-01-01T05:13:17.197", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "9113", "parent_id": "93133", "post_type": "answer", "score": 2 } ]
93133
93134
93134
{ "accepted_answer_id": "93139", "answer_count": 1, "body": "## 実行環境\n\n * Python 3.10.8\n * PyPy 7.3.11 with MSC v.1929 64 bit (AMD64)\n\n## 質問\n\n[AtCoder Beginner Contest 236\nのD問題](https://atcoder.jp/contests/abc236/tasks/abc236_d)に回答している際に,同じスクリプト・標準入力に対してPyPyとPythonで標準出力が異なるという現象に遭遇しました.\n\nPyPyでは再帰が途中で終了しており,これはPythonのような意図する動作ではありません.\n\nこれは仕様ですか.またPyPyでPythonと同じような出力を得るために,何をすべきですか.\n\n## 問題のスクリプト\n\n```\n\n # script.py\n \n import operator\n import functools\n \n # input -----\n \n n = int(input())\n a = [[0] * n * 2 for _ in range(n * 2)]\n \n for i in range(2 * n - 1):\n for j, e in enumerate(map(int, input().split()), i + 1):\n a[i][j] = a[j][i] = e\n \n # -----------\n \n \n def rec(i):\n global ans\n \n if not __debug__:\n print(f\"called rec({i = })\\n {pairs = }\\n {not_selected = }\\n {ans = }\\n\")\n \n if i == 2 * n:\n ans = max(\n ans,\n functools.reduce(\n operator.xor,\n (a[e1 - 1][e2 - 1] for e1, e2 in zip(*[iter(pairs)] * 2)),\n 0,\n ),\n )\n return\n \n if i % 2 == 0:\n e = min(not_selected)\n pairs.append(e)\n not_selected.discard(e)\n rec(i + 1)\n pairs.pop()\n not_selected.add(e)\n else:\n for e in not_selected:\n pairs.append(e)\n not_selected.discard(e)\n rec(i + 1)\n pairs.pop()\n not_selected.add(e)\n \n \n pairs = []\n not_selected = set(range(2 * n))\n ans = 0\n \n rec(0)\n print(ans)\n \n \n```\n\n## 標準入力\n\n```\n\n 2\n 4 0 1\n 5 3\n 2\n \n```\n\n## Pythonでの実行結果\n\n```\n\n $ python -O script.py\n \n ~ console input ~\n \n called rec(i = 0)\n pairs = []\n not_selected = {0, 1, 2, 3}\n ans = 0\n \n called rec(i = 1)\n pairs = [0]\n not_selected = {1, 2, 3}\n ans = 0\n \n called rec(i = 2)\n pairs = [0, 1]\n not_selected = {2, 3}\n ans = 0\n \n called rec(i = 3)\n pairs = [0, 1, 2]\n not_selected = {3}\n ans = 0\n \n called rec(i = 4)\n pairs = [0, 1, 2, 3]\n not_selected = set()\n ans = 0\n \n called rec(i = 2)\n pairs = [0, 2]\n not_selected = {1, 3}\n ans = 4\n \n called rec(i = 3)\n pairs = [0, 2, 1]\n not_selected = {3}\n ans = 4\n \n called rec(i = 4)\n pairs = [0, 2, 1, 3]\n not_selected = set()\n ans = 4\n \n called rec(i = 2)\n pairs = [0, 3]\n not_selected = {1, 2}\n ans = 4\n \n called rec(i = 3)\n pairs = [0, 3, 1]\n not_selected = {2}\n ans = 4\n \n called rec(i = 4)\n pairs = [0, 3, 1, 2]\n not_selected = set()\n ans = 4\n \n called rec(i = 2)\n pairs = [0, 2]\n not_selected = {1, 3}\n ans = 6\n \n called rec(i = 3)\n pairs = [0, 2, 1]\n not_selected = {3}\n ans = 6\n \n called rec(i = 4)\n pairs = [0, 2, 1, 3]\n not_selected = set()\n ans = 6\n \n called rec(i = 2)\n pairs = [0, 3]\n not_selected = {2, 1}\n ans = 6\n \n called rec(i = 3)\n pairs = [0, 3, 1]\n not_selected = {2}\n ans = 6\n \n called rec(i = 4)\n pairs = [0, 3, 1, 2]\n not_selected = set()\n ans = 6\n \n called rec(i = 4)\n pairs = [0, 3, 1, 2]\n not_selected = set()\n ans = 6\n \n 6\n \n```\n\n## PyPyでの実行結果\n\n```\n\n $ pypy -O test.py\n \n ~ console input ~\n \n called rec(i = 0)\n pairs = []\n not_selected = {0, 1, 2, 3}\n ans = 0\n \n called rec(i = 1)\n pairs = [0]\n not_selected = {1, 2, 3}\n ans = 0\n \n called rec(i = 2)\n pairs = [0, 1]\n not_selected = {2, 3}\n ans = 0\n \n called rec(i = 3)\n pairs = [0, 1, 2]\n not_selected = {3}\n ans = 0\n \n called rec(i = 4)\n pairs = [0, 1, 2, 3]\n not_selected = set()\n ans = 0\n \n 4\n \n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-01T06:54:33.157", "favorite_count": 0, "id": "93137", "last_activity_date": "2023-01-01T10:44:19.413", "last_edit_date": "2023-01-01T07:22:13.197", "last_editor_user_id": "51374", "owner_user_id": "51374", "post_type": "question", "score": 1, "tags": [ "python", "python3" ], "title": "PyPyの再帰関数の仕様はPythonのものと異なるか", "view_count": 190 }
[ { "body": "```\n\n for e in not_selected:\n \n```\n\n`not_selected`の要素についてループしている最中に、`not_selected`を書き換えているのが原因です。 \n書き換える予定のコンテナは、以下のように、いったんコピーを取ってからループに使用するようにしましょう。\n\n```\n\n for e in tuple(not_selected):\n \n```\n\n(修正後の実行結果と比較すると分かりますが、実はPythonでの実行結果も、`pairs = [0, 2]`が2回現れるなど異常な動作をしています)", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-01T10:33:26.450", "id": "93139", "last_activity_date": "2023-01-01T10:44:19.413", "last_edit_date": "2023-01-01T10:44:19.413", "last_editor_user_id": "43506", "owner_user_id": "43506", "parent_id": "93137", "post_type": "answer", "score": 4 } ]
93137
93139
93139
{ "accepted_answer_id": null, "answer_count": 1, "body": "既に「Nuxt+Vuetify」で作成したホームページはgithub経由でNetlifyにデプロイしています。このフォルダーは「smalltrip」です(旧フォルダーとします)。リニューアルするために新しいフォルダーに「Nuxt+Tailwind」で作成し直しました。このフォルダーは「smalltrip2023」です(新フォルダーとします)。git関係の根本をよく知らないまま、SourceTreeを使いホームページ更新できていましたが、今回、次の事をしたりして、収拾がつかなくなりました。\n\n 1. 旧フォルダー名を「smalltrip2022」とし、新フォルダーを「smalltrip」とした。\n 2. コンソールで `git push` したらエラーになった。\n 3. `git remote add origin <私のリモートリポジトリ>` でもエラーになった。\n 4. SourceTreeで「Add Commit Push」をやったがエラーになった。\n\n質問は、私のように新しいフォルダーをデプロイする一般的なことをお知りの方、ご教授をお願いします。 \nまた、できれば、収拾のつかなくなった私のケースを復旧する方法を教えてください。 \nよろしくお願いいたします。", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-01T07:23:10.157", "favorite_count": 0, "id": "93138", "last_activity_date": "2023-01-12T01:45:54.183", "last_edit_date": "2023-01-01T09:53:09.413", "last_editor_user_id": "3060", "owner_user_id": "56317", "post_type": "question", "score": 0, "tags": [ "git", "デプロイ" ], "title": "既にあるホームページに、新しく作ったフォルダーのホームページをデプロイする方法を知りたい。", "view_count": 98 }
[ { "body": "自己解決しました。gitの勉強をしてやり方が分かりました。\n\n次のサイトを参照しました。\n\n[2\\. GitとGitHubを使ったチーム開発の超入門 | 【超入門】初心者のためのGitとGitHubの使い方](https://tech-\nblog.rakus.co.jp/entry/20200529/git#2-Git%E3%81%A8GitHub%E3%82%92%E4%BD%BF%E3%81%A3%E3%81%9F%E3%83%81%E3%83%BC%E3%83%A0%E9%96%8B%E7%99%BA%E3%81%AE%E8%B6%85%E5%85%A5%E9%96%80)\n\nまず、フォルダー名は関係なかった。 \nやったことの要約を示します。\n\n * リポジトリをクローンする\n * ブランチを作成する\n * ブランチでコミットする\n * リモートリポジトリにプッシュする\n * コードレビュー・マージ\n\nこれでサイトのリニューアルが出来ました。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-12T01:40:12.303", "id": "93310", "last_activity_date": "2023-01-12T01:45:54.183", "last_edit_date": "2023-01-12T01:45:54.183", "last_editor_user_id": "3060", "owner_user_id": "56317", "parent_id": "93138", "post_type": "answer", "score": 1 } ]
93138
null
93310
{ "accepted_answer_id": "93153", "answer_count": 1, "body": "以下の記事を参考にしています。 \n<https://blogs.lisb.direct/entry/2019-07-01-083000>\n\nGradleにはBOMという仕組みがあります。例えばdependenciesに以下の様に記載した場合、 \n[2]の行のライブラリにはバージョン指定の表記がありませんが、 \n[1]の行のおかげで[2]のライブラリのバージョンが1.4.199と指定されている扱いになる というのが大まかな機能だと認識しています。\n\n```\n\n dependencies {\n implementation platform('org.springframework.boot:spring-boot-starter-parent:2.1.5.RELEASE') // [1]\n runtimeOnly 'com.h2database:h2' // [2]\n }\n \n```\n\nこれを未知のライブラリでも知る方法を教えて欲しいです。 \n上記のspringframeworkであれば、著名なライブラリなので検索すれば解説ページは無数にありますが、 \n著名ではないライブラリの場合でも[1]から対応している[2]の一覧を知る方法が知りたいです。\n\n上記の`org.springframework.boot:spring-boot-starter-\nparent:2.1.5.RELEASE`のmavenCentralのページは以下だと思いますが、 \n<https://mvnrepository.com/artifact/org.springframework.boot/spring-boot-\nstarter-parent/2.1.5.RELEASE> \n↑このページから`org.springframework.boot:spring-boot-starter-parent:2.1.5.RELEASE`が \n「BOMである」事、「`com.h2database:h2`をバージョン`1.4.199`と指定している」事 \nを読み取る方法を教えてください。\n\n例えば、node.jsで`spring-framework`という名前のライブラリについて調べたい場合、 \nパッケージ名から以下のURLにアクセスして \n<https://www.npmjs.com/package/spring-framework> \nこのページにRepositoryというリンクがあるので以下↓のgithubのページに移動して \n<https://github.com/ArseniyBorezkiy/spring-js> \npackage.jsonファイルを開けば、このライブラリのメタデータを全て知る事が出来ます。\n\nRepositoryが無い場合もありますが、その場合でもnpmjs.comからcurlでpackage.json をDLする事が出来ます。 \nこの様に、どんなマイナーで解説記事やきちんと記載されたreadmeすら無いパッケージでも、とにかくpackage.jsonというテキストファイルを開くことさえ出来れば、そこから情報を知る事が出来ます。\n\nJavaのgradleで指定するライブラリでも、上記の様に確定的にライブラリのメタデータの一次情報を知る方法を教えてください。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-01T19:10:10.750", "favorite_count": 0, "id": "93141", "last_activity_date": "2023-01-02T23:42:38.657", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "805", "post_type": "question", "score": 0, "tags": [ "java", "gradle" ], "title": "JavaのGradleでBOMの対応について調べる方法は?", "view_count": 76 }
[ { "body": "ここでいう[BOM(Bill of\nMaterials)](https://maven.apache.org/guides/introduction/introduction-to-\ndependency-mechanism.html#bill-of-materials-bom-poms)とは、Maven\nPOM(`pom.xml`として知られる、Gradleでいうところの\n`build.gradle`のようなもの)のうち[継承機能](https://maven.apache.org/pom.html#inheritance)を利用し、ユーザーに利用させることを目的にしたもののことになります。 \nしたがって、リンク先の説明にある通り、 `packaging` の指定が `pom` であることが必要条件です。 \nただし`packaging: pom`が必ずしもユーザーへのBOMの提供を意図したものとは限りませんので十分条件ではないです。 \n単に自プロジェクト内部管理のために作成する場合もあります。\n\n製作者が BOM として提供することを意図して実装したものかどうかは、 `pom.xml` の `<name>`, `<description>`\nや実装そのものから類推したり、ユーザーマニュアルで確認することになります。 \n(※ 製作者の意図がどうあれ、 `packaging: pom` のものを BOM と同じように使うことはできます)\n\n* * *\n\nMaven Central Repository に登録されているものであれば、Mavenの公式サイト\n<https://search.maven.org/> で POM を見ることができます。\n\n例えば `org.springframework.boot:spring-boot-starter-parent:2.1.5.RELEASE` であれば、\n\n * <https://search.maven.org/artifact/org.springframework.boot/spring-boot-starter-parent/2.1.5.RELEASE/pom>\n\nのリンク先で、\n\n```\n\n <packaging>pom</packaging>\n \n```\n\nが指定されているのがわかります。\n\nただし今回のものは更に継承元の親がいる(`<parent>`が指定されている)ので、その親も見て見る必要があります。\n\n```\n\n <parent>\n <groupId>org.springframework.boot</groupId>\n <artifactId>spring-boot-dependencies</artifactId>\n <version>2.1.5.RELEASE</version>\n <relativePath>../../spring-boot-dependencies</relativePath>\n </parent>\n \n```\n\nとありますので、 \"org.springframework.boot:spring-boot-dependencies:2.1.5.RELEASE\"\nなどと検索窓から検索すると以下がヒットします:\n\n * <https://search.maven.org/artifact/org.springframework.boot/spring-boot-dependencies/2.1.5.RELEASE/pom>\n\nここで次のような情報が定義されているのがわかります。\n\n```\n\n <properties>\n ...\n <h2.version>1.4.199</h2.version>\n \n```\n\n```\n\n <dependencyManagement>\n <dependencies>\n ...\n <dependency>\n <groupId>com.h2database</groupId>\n <artifactId>h2</artifactId>\n <version>${h2.version}</version>\n </dependency>\n \n```\n\n* * *\n\n`packaging` が `pom`\nであることまでがわかっていれば、ダミーMavenプロジェクトを作成してその情報を表示させてみるのが手っ取り早いかもしれません。 \n(※ もしかするとGradleにも同様の機能があるかもしれませんが、私にはわかりません)\n\n具体的には、次のような `pom.xml` を作成し\n\n```\n\n <project xmlns=\"http://maven.apache.org/POM/4.0.0\"\n xmlns:xsi=\"http://www.w3.org/2001/XMLSchema-instance\" xsi:schemaLocation=\"http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd\">\n <modelVersion>4.0.0</modelVersion>\n \n <groupId>com.github.yukihane.examples</groupId>\n <artifactId>jaso93141</artifactId>\n <version>1.0-SNAPSHOT</version>\n <packaging>jar</packaging>\n \n <dependencyManagement>\n <dependencies>\n <dependency>\n <groupId>org.springframework.boot</groupId>\n <artifactId>spring-boot-starter-parent</artifactId>\n <version>2.1.5.RELEASE</version>\n <type>pom</type>\n <scope>import</scope>\n </dependency>\n </dependencies>\n </dependencyManagement>\n </project>\n \n```\n\n次のコマンド([`help:effective-pom`](https://maven.apache.org/plugins/maven-help-\nplugin/effective-pom-mojo.html))を実行すれば、継承を開いた状態のPOMが出力されます。\n\n```\n\n mvn help:effective-pom\n \n```\n\n出力:\n\n```\n\n ...\n <dependencyManagement>\n <dependencies>\n ...\n <dependency>\n <groupId>com.h2database</groupId>\n <artifactId>h2</artifactId>\n <version>1.4.199</version>\n </dependency>\n ...\n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-02T20:52:44.697", "id": "93153", "last_activity_date": "2023-01-02T23:42:38.657", "last_edit_date": "2023-01-02T23:42:38.657", "last_editor_user_id": "2808", "owner_user_id": "2808", "parent_id": "93141", "post_type": "answer", "score": 1 } ]
93141
93153
93153
{ "accepted_answer_id": null, "answer_count": 1, "body": "ご担当者様 \nmulti_webcamera参考にしてwindowsとmjpegのソフトを開発しています。 \nret = multiwebcam_set_ext_ctrls(v_fd, V4L2_CTRL_CLASS_CAMERA, \nV4L2_CID_AUTO_N_PRESET_WHITE_BALANCE, \nV4L2_WHITE_BALANCE_FLUORESCENT); \n上記のサンプルプログラムでV4L2_WHITE_BALANCE_MANUALにしましたがret=-1のエラーになります。\n\nV4L2_WHITE_BALANCE_MANUAL、V4L2_CID_RED_BALANCE、V4L2_CID_BLUE_BALANCEの設定方法(関数コール)を教えて頂けないでしょうか? \n宜しくお願いいたします。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-02T04:17:49.983", "favorite_count": 0, "id": "93143", "last_activity_date": "2023-01-07T04:04:50.290", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56329", "post_type": "question", "score": 0, "tags": [ "spresense" ], "title": "カメラのホワイトバランスをマニュアルと赤、青バランス設定にしたい。", "view_count": 65 }
[ { "body": "Manual設定、Red、Blueバランス設定が自己解決できました。 \nお騒がせしました。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T04:04:50.290", "id": "93224", "last_activity_date": "2023-01-07T04:04:50.290", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56329", "parent_id": "93143", "post_type": "answer", "score": 0 } ]
93143
null
93224
{ "accepted_answer_id": "93167", "answer_count": 1, "body": "javascriptからdocument.cookieを使って書き込んだcookieが読み取れません。 \nそのセッションのうちはconsole.log(document.cookie)で読み取ることができるのですが、ブラウザ(firefox)を立ち上げなおすと、console.log(document.cookie)の結果がempty\nstringになってしまいます。 \nmax-ageを設定しており、開発者ツールからはcookieが保存されていることが確認できます。\n\ncookieが保存されているにも関わらず、セッションが切り替わるとdocument.cookieから読めなくなってしまってお手上げ状態です。 \n解決策をご教授頂けると幸いです。\n\n```\n\n function cookieWrite(){\n document.cookie=\"cookie=test ; max-age=2592000\";\n }\n function cookieRead(){\n console.log(document.cookie);\n }\n \n```\n\n【2022/1/4追記】 \n使用しているブラウザはfirefox ver108.0.1です。 \n設定ではcookieを許可することになっており、一度は保存されます。 \nまた、「firefoxを閉じたときにcookieとサイトデータを削除する」という項目からチェックを外しています。 \nブラウザを立ち上げ直したあとも、開発者ツールのストレージ欄ではcookieが保存されていることになっているのですが、なぜかコードで読むことができません。", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-02T06:45:59.127", "favorite_count": 0, "id": "93144", "last_activity_date": "2023-01-04T08:33:33.497", "last_edit_date": "2023-01-04T08:33:33.497", "last_editor_user_id": "56331", "owner_user_id": "56331", "post_type": "question", "score": 0, "tags": [ "javascript", "cookie" ], "title": "javascriptから書き込んだcookieを読み取ることができない", "view_count": 570 }
[ { "body": "> 「セッションが切り替わる」というのは、1度ブラウザを閉じ、再度同じページを立ち上げることです。\n\nexpires 属性を指定してないのですよね。その場合、クッキーはブラウザのメモリにしか保持されません。従って、ブラウザを閉じればクッキーは消えます。\n\nFiddler などのキャプチャツールを使って要求・応答をキャプチャして、ヘッダにクッキーが含まれているか調べてみてはいかがですか?\n\n**【2022/1/4 10:28 追記】**\n\n> ブラウザ(firefox)を立ち上げなおすと、console.log(document.cookie)の結果がempty\n> stringになってしまいます。\n\n同じコードで、Windows 10 の Firefox 108.0.1 で試してみましたが再現しません。期待通り以下のようになります。\n\n[![画像の説明をここに入力](https://i.stack.imgur.com/I3Ikm.jpg)](https://i.stack.imgur.com/I3Ikm.jpg)\n\n質問者さんのやり方の問題では? 設定で「Firefox を閉じたとき Cookie とサイトデータを削除する(C)」にチェックが入っているとか?", "comment_count": 4, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-03T12:54:31.697", "id": "93167", "last_activity_date": "2023-01-04T01:29:04.780", "last_edit_date": "2023-01-04T01:29:04.780", "last_editor_user_id": "51338", "owner_user_id": "51338", "parent_id": "93144", "post_type": "answer", "score": 0 } ]
93144
93167
93167
{ "accepted_answer_id": null, "answer_count": 0, "body": "### 悩んでること\n\nPythonとTensorFlowで点群データを分類するコードを下記ページを参考に作成しました。 \n10個ほどの異なる点群をインプットして実行すると、すべてが同じ分類を返されてしまいます。 \nコードにどんな改良を加えれば良いでしょうか?\n\n### 参考URL\n\n<https://tensorflow.classcat.com/2021/12/06/keras-2-examples-vision-pointnet/>\n\n#### 環境\n\nWindows10 \nPython 3.9.15 \nTensorFlow 2.11.0(GPUは使用せずCPUで実行) \nKeras 2.11.0\n\n### コード\n\n**下記コードの実行上の注意点:** \nlearn関数の第2引数をFalseでデータを訓練し、predict関数で点群を与え分類を判定してます。\n\n```\n\n import os\n import glob\n import trimesh\n import numpy as np\n import tensorflow as tf\n from tensorflow import keras\n from keras import layers\n import json\n import random\n \n class pointNet_tf2:\n BATCH_SIZE = 32\n NUM_CLASSES = 3\n NUM_POINTS = 2048\n NUM_X = 16\n NUM_Y = 16\n NUM_Z = 8\n #NUM_X * NUM_Y * NUM_Z = NUM_POINTSであること!!\n \n DATASET_DIR = 'core\\\\pointNet\\\\Datasets'\n # MODEL_FILE = 'ModelNet40_model.json'\n # WEIGHT_FILE = 'ModelNet40_weight.h5'\n MODEL_FILE = 'ModelNet40_model.keras'\n CLASS_FILE = 'ModelNet40_class.json'\n \n def parse_dataset(self, data_set_dir, num_points):\n \n train_points = []\n train_labels = []\n test_points = []\n test_labels = []\n class_map = {}\n folders = glob.glob(os.path.join(data_set_dir, \"[!README]*\"))\n \n for i, folder in enumerate(folders):\n print(\"processing class: {}\".format(os.path.basename(folder)))\n # store folder name with ID so we can retrieve later\n class_map[i] = os.path.basename(folder)\n # gather all files\n train_files = glob.glob(os.path.join(folder, \"train/*\"))\n test_files = glob.glob(os.path.join(folder, \"test/*\"))\n \n for f in train_files:\n train_points.append(trimesh.load(f).sample(num_points))\n train_labels.append(i)\n \n for f in test_files:\n test_points.append(trimesh.load(f).sample(num_points))\n test_labels.append(i)\n \n return (\n np.array(train_points),\n np.array(test_points),\n np.array(train_labels),\n np.array(test_labels),\n class_map,\n )\n \n def augment(self, points, label):\n \n # jitter points\n points += tf.random.uniform(points.shape, -0.005, 0.005, dtype=tf.float64)\n # shuffle points\n points = tf.random.shuffle(points)\n \n return points, label\n \n def conv_bn(self, x, filters):\n \n x = layers.Conv1D(filters, kernel_size=1, padding=\"valid\")(x)\n x = layers.BatchNormalization(momentum=0.0)(x)\n return layers.Activation(\"relu\")(x)\n \n def dense_bn(self, x, filters):\n \n x = layers.Dense(filters)(x)\n x = layers.BatchNormalization(momentum=0.0)(x)\n return layers.Activation(\"relu\")(x)\n \n class OrthogonalRegularizer(keras.regularizers.Regularizer):\n \n def __init__(self, num_rows, num_cols, l2reg=0.001, **kwargs):\n \n self.num_features = num_rows\n self.l2reg = l2reg\n self.num_rows = num_rows\n self.num_cols = num_cols\n self.eye = tf.eye(num_rows, num_cols)\n \n def __call__(self, x):\n x = tf.reshape(x, (-1, self.num_features, self.num_features))\n xxt = tf.tensordot(x, x, axes=(2, 2))\n xxt = tf.reshape(xxt, (-1, self.num_features, self.num_features))\n return tf.reduce_sum(self.l2reg * tf.square(xxt - self.eye))\n \n def get_config(self):\n config = {\n 'num_rows': self.num_rows,\n 'num_cols': self.num_cols\n }\n \n return dict(list(config.items()))\n \n def tnet(self, inputs, num_features):\n \n # Initalise bias as the indentity matrix\n bias = keras.initializers.Constant(np.eye(num_features).flatten())\n reg = self.OrthogonalRegularizer(num_features, num_features)\n \n x = self.conv_bn(inputs, 32)\n x = self.conv_bn(x, 64)\n x = self.conv_bn(x, 512)\n x = layers.GlobalMaxPooling1D()(x)\n x = self.dense_bn(x, 256)\n x = self.dense_bn(x, 128)\n x = layers.Dense(\n num_features * num_features,\n kernel_initializer=\"zeros\",\n bias_initializer=bias,\n activity_regularizer=reg,\n )(x)\n feat_T = layers.Reshape((num_features, num_features))(x)\n \n # Apply affine transformation to input features\n return layers.Dot(axes=(2, 1))([inputs, feat_T])\n \n # コンストラクタ\n def __init__(self):\n \n tf.random.set_seed(1234)\n \n self.classes = None\n \n inputs = keras.Input(shape=(self.NUM_POINTS, 3))\n \n x = self.tnet(inputs, 3)\n x = self.conv_bn(x, 32)\n x = self.conv_bn(x, 32)\n x = self.tnet(x, 32)\n x = self.conv_bn(x, 32)\n x = self.conv_bn(x, 64)\n x = self.conv_bn(x, 512)\n x = layers.GlobalMaxPooling1D()(x)\n x = self.dense_bn(x, 256)\n x = layers.Dropout(0.3)(x)\n x = self.dense_bn(x, 128)\n x = layers.Dropout(0.3)(x)\n \n outputs = layers.Dense(self.NUM_CLASSES, activation=\"softmax\")(x)\n \n self.model = keras.Model(inputs=inputs, outputs=outputs, name=\"pointnet\")\n \n self.model.summary()\n \n self.model.compile(\n loss=\"sparse_categorical_crossentropy\",\n optimizer=keras.optimizers.Adam(learning_rate=0.001),\n metrics=[\"sparse_categorical_accuracy\"],\n )\n \n # 学習、訓練\n def learn(self, root_dir, save):\n \n # データセットのロード\n # data_set_dir = tf.keras.utils.get_file(\n # \"modelnet.zip\",\n # \"http://3dvision.princeton.edu/projects/2014/3DShapeNets/ModelNet40.zip\",\n # extract=True,\n # )\n # data_set_dir = os.path.join(os.path.dirname(data_set_dir), \"ModelNet40\")\n data_set_dir = os.path.join(root_dir, self.DATASET_DIR)\n \n # mesh = trimesh.load(os.path.join(data_set_dir, \"chair/train/chair_0001.off\"))\n # mesh.show()\n # points = mesh.sample(NUM_POINTS)\n \n # fig = plt.figure(figsize=(5, 5))\n # ax = fig.add_subplot(111, projection=\"3d\")\n # ax.scatter(points[:, 0], points[:, 1], points[:, 2])\n # ax.set_axis_off()\n # plt.show()\n \n # データセットのパース\n train_points, test_points, train_labels, test_labels, class_map = \\\n self.parse_dataset(data_set_dir + '\\\\ModelNet40', self.NUM_POINTS)\n \n self.classes = class_map\n \n # データセットの増強\n train_dataset = tf.data.Dataset.from_tensor_slices((train_points, train_labels))\n test_dataset = tf.data.Dataset.from_tensor_slices((test_points, test_labels))\n \n train_dataset = train_dataset.shuffle(len(train_points)).map(self.augment).batch(self.BATCH_SIZE)\n test_dataset = test_dataset.shuffle(len(test_points)).batch(self.BATCH_SIZE)\n \n # モデルの訓練\n self.model.fit(train_dataset, epochs=20, validation_data=test_dataset)\n \n # テスト\n num_test = 10\n test_data = test_dataset.take(1)\n points, labels = list(test_data)[0]\n points = points[: num_test, ...]\n labels = labels[: num_test, ...]\n \n for t in range(num_test):\n print(\"pred test[\" + str(t) + \"]:answer=\" + self.classes[labels.numpy()[t]] + \",pred=\" + self.predict(points[t]))\n \n if (save):\n # 保存\n keras.models.save_model(self.model, data_set_dir + '\\\\' + self.MODEL_FILE)\n \n # self.model.save_weights(data_set_dir + '\\\\' + self.WEIGHT_FILE)\n \n with open(data_set_dir + '\\\\' + self.CLASS_FILE, 'wt') as f:\n json.dump(class_map, f, ensure_ascii=False, indent=4, sort_keys=True, separators=(',', ': '))\n \n # 学習済みデータのロード\n def load(self, root_dir):\n \n data_set_dir = os.path.join(root_dir, self.DATASET_DIR)\n \n # self.model = keras.models.load_model(filepath=data_set_dir + '\\\\' + self.MODEL_FILE,\n # custom_objects={\"OrthogonalRegularizer\": pointNet.OrthogonalRegularizer})\n self.model = keras.models.load_model(filepath=data_set_dir + '\\\\' + self.MODEL_FILE)\n \n # self.model.load_weights(data_set_dir + '\\\\' + self.WEIGHT_FILE)\n \n self.classes = {}\n with open(data_set_dir + '\\\\' + self.CLASS_FILE) as f:\n work = json.load(f)\n for k,v in work.items():\n self.classes[int(k)] = v\n \n #アップサンプリング\n def upSampling(self, points):\n \n ret = []\n \n if len(points) > 0:\n while(len(ret) < self.NUM_POINTS):\n ret.append(points[0])\n \n return ret\n \n #ダウンサンプリング\n def downSampling(self, points):\n \n ret = []\n \n # 各次元の最小値と最大値を取得する\n x_min = None\n x_max = None\n y_min = None\n y_max = None\n z_min = None\n z_max = None\n \n for p in points:\n if ((x_min is None) or (x_min > p[0])):\n x_min = p[0]\n if ((x_max is None) or (x_max < p[0])):\n x_max = p[0]\n if ((y_min is None) or (y_min > p[1])):\n y_min = p[1]\n if ((y_max is None) or (y_max < p[1])):\n y_max = p[1]\n if ((z_min is None) or (z_min > p[2])):\n z_min = p[2]\n if ((z_max is None) or (z_max < p[2])):\n z_max = p[2]\n \n # パラメータをワーク領域にコピーする\n x_size = (x_max - x_min) / self.NUM_X\n y_size = (y_max - y_min) / self.NUM_Y\n z_size = (z_max - z_min) / self.NUM_Z\n dim3 = [[[[] for z in range(self.NUM_Z)] for y in range(self.NUM_Y)] for x in range(self.NUM_X)]\n \n for p in points:\n x = int((p[0] - x_min) / x_size)\n if x == self.NUM_X:\n x = self.NUM_X - 1\n y = int((p[1] - y_min) / y_size)\n if y == self.NUM_Y:\n y = self.NUM_Y - 1\n z = int((p[2] - z_min) / z_size)\n if z == self.NUM_Z:\n z = self.NUM_Z - 1\n \n dim3[x][y][z].append(p)\n \n # ワーク領域からランダムに点を抽出する\n while len(ret) != self.NUM_POINTS:\n for x in range(self.NUM_X):\n for y in range(self.NUM_Y):\n for z in range(self.NUM_Z):\n count = len(dim3[x][y][z])\n if (count > 0):\n idx = random.randint(0, count - 1)\n ret.append(dim3[x][y][z].pop(idx))\n \n if (len(ret) == self.NUM_POINTS):\n break\n if (len(ret) == self.NUM_POINTS):\n break\n if (len(ret) == self.NUM_POINTS):\n break\n \n return ret\n \n # 予測、推論\n def predict(self, points_input):\n \n if (self.classes is None):\n return 'error(モデルが不十分)'\n \n sample = points_input\n \n if (len(sample) == self.NUM_POINTS):\n pass\n elif (len(sample) < self.NUM_POINTS):\n # アップサンプリング\n sample = self.upSampling(sample)\n else:\n # ダウンサンプリング\n sample = self.downSampling(sample)\n \n if (len(sample) != self.NUM_POINTS):\n return \"error(点数が不正)\"\n \n points_output = tf.reshape(tf.convert_to_tensor(sample, dtype=np.float64), shape=(1, self.NUM_POINTS, 3))\n \n preds = self.model.predict(points_output)\n \n indexs = tf.math.argmax(preds, axis=1).numpy()\n \n class_name = ''\n for i in indexs:\n class_name += self.classes[i] + ','\n \n if (class_name == ''):\n class_name = 'error(分類不明)'\n else:\n class_name = class_name[: len(class_name) - 1]\n \n return class_name\n \n```", "comment_count": 11, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-02T08:07:53.477", "favorite_count": 0, "id": "93145", "last_activity_date": "2023-01-02T09:21:41.997", "last_edit_date": "2023-01-02T09:21:41.997", "last_editor_user_id": "3060", "owner_user_id": "35720", "post_type": "question", "score": 0, "tags": [ "python", "python3", "tensorflow" ], "title": "tensorflow 点群 predictの予測が全て同じ分類となってしまう", "view_count": 120 }
[]
93145
null
null
{ "accepted_answer_id": "93154", "answer_count": 1, "body": "以下のように、PowerShellコマンドをPythonから呼び出してみたのですが、戻り値は画面上に表示されるだけでPythonで受け取ることが出来ませんでした。\n\n```\n\n import os\n os.system(\"powershell -Command Get-ItemProperty HKLM:SOFTWARE\\\\Wow6432Node\\\\Microsoft\\\\Windows\\\\CurrentVersion\\\\Uninstall\\\\* ^| Select-Object DisplayName ^| Format-Table –AutoSize\")\n \n```\n\nPowerShellの出力結果をテキストファイルに出力した後にPythonで受け取るような形でも良いのですが、どうすればPythonにデータを受け渡し出来そうでしょうか?", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-02T09:27:03.600", "favorite_count": 0, "id": "93146", "last_activity_date": "2023-01-02T23:11:23.847", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "34471", "post_type": "question", "score": 0, "tags": [ "python", "windows", "powershell" ], "title": "PythonからPowerShellのコマンドを呼び出して出力結果をPythonに受け渡す方法", "view_count": 1221 }
[ { "body": "コメントに紹介した他に以下の記事がシンプルに記述されています。 \n[PythonのsubprocessでWindowsコマンドを実行](https://helve-\nblog.com/posts/python/subprocess-command/) \n[Pythonからコマンドを呼び出す(Windows編)](https://qiita.com/_akisato/items/d97b17064df158f0dea0)\n\nそれを適用すると以下のようにすれば出来るでしょう。\n\n```\n\n import subprocess\n res = subprocess.run(\"powershell -Command Get-ItemProperty HKLM:SOFTWARE\\\\Wow6432Node\\\\Microsoft\\\\Windows\\\\CurrentVersion\\\\Uninstall\\\\* ^| Select-Object DisplayName ^| Format-Table –AutoSize\", \n stdout=subprocess.PIPE, shell=True, encoding=\"cp932\")\n print(res.stdout)\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-02T23:11:23.847", "id": "93154", "last_activity_date": "2023-01-02T23:11:23.847", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "26370", "parent_id": "93146", "post_type": "answer", "score": 1 } ]
93146
93154
93154
{ "accepted_answer_id": "93149", "answer_count": 1, "body": "2022年11月2日あたりでのGoogle\nColaboratoryでのPythonや以下のライブラリのバージョンについて知っている方がいたら教えていただきたいです.\n\nPytorch \nNumpy\n\nまた,どこに連絡すればそれらの情報を手に入れることができるか知っている方がいましたら教えていただきたいです. \nよろしくお願いいたします.", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-02T15:13:27.100", "favorite_count": 0, "id": "93147", "last_activity_date": "2023-01-02T15:29:50.547", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "55208", "post_type": "question", "score": 0, "tags": [ "python", "google-colaboratory" ], "title": "Google ColaboratoryでのPythonのバージョンについて(2022/11/2あたり)", "view_count": 56 }
[ { "body": "> 2022年11月2日\n\n上記日付であればおそらく下記構成だったと思われます。 \n詳細については[Colaboratory Release\nNotes](https://colab.research.google.com/notebooks/relnotes.ipynb#scrollTo=Of4H5emXhAxl)を確認してください。\n\nPython 3.7 \nPytorch 1.12.1 \nNumpy 1.21.5", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-02T15:29:50.547", "id": "93149", "last_activity_date": "2023-01-02T15:29:50.547", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "39819", "parent_id": "93147", "post_type": "answer", "score": 0 } ]
93147
93149
93149
{ "accepted_answer_id": "93152", "answer_count": 1, "body": "Pythonでtrain['name']という文字列項目に対して、特定の文字列(例えば、\"aaa\")を含む場合は\"1\"、含まない場合は\"0\"となる項目(train['test'])を別で作りたいと思っています。その際、以下のような関数(kansu1やkansu2)を作り、apply関数でセットしようとしたのですが、エラーとなってうまくいかず、どこに問題があるのか教えていただけないでしょうか。\n\n```\n\n def test_kansu1(s):\n if s.contains('aaa'):\n return 1\n else:\n return 0\n \n train['test'] = train['name'].apply(lambda x: test_kansu1(x))\n \n```\n\n\\--> AttributeError: 'str' object has no attribute 'str'\n\n```\n\n def test_kansu2(s):\n if s.str.contains('aaa'):\n return 1\n else:\n return 0\n \n train['test'] = train['name'].apply(lambda x: test_kansu2(x))\n \n```\n\n\\--> AttributeError: 'str' object has no attribute 'contains'", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-02T18:24:40.053", "favorite_count": 0, "id": "93151", "last_activity_date": "2023-01-03T08:34:36.620", "last_edit_date": "2023-01-03T08:34:36.620", "last_editor_user_id": "39819", "owner_user_id": "55701", "post_type": "question", "score": 0, "tags": [ "python3", "pandas" ], "title": "Pythonで特定の文字列を含むかをcontains()を使って判断する関数", "view_count": 651 }
[ { "body": "```\n\n def test_kansu1(s):\n # if s.contains('aaa'): # <-- str 型インスタンスに contains メソッドが無いのでエラー\n if 'aaa' in s:\n return 1\n else:\n return 0\n \n def test_kansu2(s):\n # if s.str.contains('aaa'): # <-- str 型インスタンスに str という属性(attribute)が無いのでエラー\n if 'aaa' in s:\n return 1\n else:\n return 0\n \n```\n\n`pandas.Series.str.contains()` を使用する場合。\n\n```\n\n import pandas as pd\n \n train = pd.DataFrame({\n 'name': ['01_aaa', '02_bbb', '03_ccc', '04_ddd', '05_eee']\n })\n \n train['test'] = train['name'].str.contains('aaa') * 1\n print(train)\n \n # name test\n # 0 01_aaa 1\n # 1 02_bbb 0\n # 2 03_ccc 0\n # 3 04_ddd 0\n # 4 05_eee 0\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-02T19:04:01.347", "id": "93152", "last_activity_date": "2023-01-02T19:04:01.347", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "47127", "parent_id": "93151", "post_type": "answer", "score": 1 } ]
93151
93152
93152
{ "accepted_answer_id": null, "answer_count": 1, "body": "Rails6で作成したサイトをHerokuを使って表示しております。 \n画像はAmazon S3を利用しております。\n\nサイト上の画像urlは下記になります。 \n`https://www.example.com/rails/active_storage/・・・・/curry.jpeg`\n\n画像urlにアクセスすると下記のAmazon S3のurlに転送されます。 \n`https://example.s3.ap-northeast-1.amazonaws.com/variants/・・・・・`\n\nAmazon S3のアドレスを `https://www.example.com/` から始まるurlに変更可能でしょうか?\n\n静的サイトでは、CloudFrontとRout53を用いて変更可能なようです。\n\nHerokuを利用した、動的サイトで変更する方法はありますでしょうか? \nもしくはurlを変更するにはAmazon S3ではなく他のstorage serviceを利用することになりますか?", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-02T23:46:38.427", "favorite_count": 0, "id": "93155", "last_activity_date": "2023-01-03T07:38:44.617", "last_edit_date": "2023-01-03T07:37:35.073", "last_editor_user_id": "3060", "owner_user_id": "37468", "post_type": "question", "score": 1, "tags": [ "heroku", "amazon-s3" ], "title": "動的サイトでのAmazon S3のURLの変更", "view_count": 108 }
[ { "body": "> Amazon S3のアドレスを <https://www.example.com/> から始まるurlに変更可能でしょうか?\n\nS3だけではできません。他のサービスを前段に配置すれば、エンドポイントのURLをカスタマイズできます。CloudFrontがよく利用されます。(後述します)\n\n> 静的サイトでは、CloudFrontとRout53を用いて変更可能なようです。 \n> Herokuを利用した、動的サイトで変更する方法はありますでしょうか?\n\nHerokuの知見がないので、一般的な観点から回答します。\n\nクラウドでWebアプリをホスティングする際、静的コンテンツと動的コンテンツで構成を分けることはよくあります。今回に当てはめると、次の構成が考えられます。\n\n * 画像(静的コンテンツ): CloudFront + S3\n * Railsアプリ(動的コンテンツ): Heroku\n\n具体的には、CloudFrontに代替ドメイン名`www.example.com`を追加して、HerokuでホスティングしたRailsアプリから`https://www.example.com/...`で参照すればよいのではないでしょうか。\n\n[CloudFront ディストリビューションでのさまざまなオリジンの使用 - Amazon\nCloudFront](https://docs.aws.amazon.com/ja_jp/AmazonCloudFront/latest/DeveloperGuide/DownloadDistS3AndCustomOrigins.html#using-s3-as-\norigin)\n\n[代替ドメイン名 (CNAME) を追加することによるカスタム URL の使用 - Amazon\nCloudFront](https://docs.aws.amazon.com/ja_jp/AmazonCloudFront/latest/DeveloperGuide/CNAMEs.html)\n\nHerokuで関連しそうなドキュメントがありました。(Herokuでは静的コンテンツのことを「静的アセット」と呼んでいるようです)\n\n[Amazon CloudFront CDN の使用 | Heroku Dev\nCenter](https://devcenter.heroku.com/ja/articles/using-amazon-cloudfront-cdn)", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-03T01:02:58.947", "id": "93158", "last_activity_date": "2023-01-03T07:38:44.617", "last_edit_date": "2023-01-03T07:38:44.617", "last_editor_user_id": "3060", "owner_user_id": "4982", "parent_id": "93155", "post_type": "answer", "score": 2 } ]
93155
null
93158
{ "accepted_answer_id": null, "answer_count": 1, "body": "GUIを初学から最近はじめました。\n\n透け紙アプリのようなイメージで、透過ウィンドウをとあるアプリケーションのウィンドウに重ね、透過ウィンドウを前面にしたまま、透過先のそのアプリケーションをマウスで操作したいと思っています。\n\n現在、PyQtのダイアログを透過させてチャレンジしています。 \nPyQt上で解決するべきか、Windows(11)の操作・設定で解決できるものかもわからず困っています。\n\nヒットしやすい検索ワードだけでもいいので、教えて頂けたら助かります。", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-02T23:56:05.033", "favorite_count": 0, "id": "93156", "last_activity_date": "2023-01-05T01:43:31.763", "last_edit_date": "2023-01-05T01:43:31.763", "last_editor_user_id": "3060", "owner_user_id": "56341", "post_type": "question", "score": 0, "tags": [ "python", "pyqt" ], "title": "透過させたPyQtダイアログの背面にある、別アプリを操作したい", "view_count": 133 }
[ { "body": "kunif様コメント冒頭の記事を参考に、以下のコードで半透明ウィンドウを前面に出したまま、うしろの別アプリを操作できました。\n\n```\n\n from PyQt5.QtWidgets import QApplication, QWidget\n from PyQt5.QtCore import Qt\n app = QApplication([])\n window = QWidget()\n \n #set parameter and flags to overlay on another window\n window.setWindowOpacity(0.5)\n window.setWindowFlags(Qt.WindowTransparentForInput | Qt.WindowStaysOnTopHint)\n \n if __name__ == \"__main__\":\n window.show()\n app.exec()\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T02:19:35.893", "id": "93173", "last_activity_date": "2023-01-04T02:29:54.153", "last_edit_date": "2023-01-04T02:29:54.153", "last_editor_user_id": "56341", "owner_user_id": "56341", "parent_id": "93156", "post_type": "answer", "score": 1 } ]
93156
null
93173
{ "accepted_answer_id": "93160", "answer_count": 1, "body": "## 実現したいこと\n\nUserDefaultsを用いてタスクアプリを開発しています。 \nTableViewの内容を全て削除する「全削除」機能を実装したく、guardで配列が格納されている変数の`saveList`を空にしたいのですが、書き方がわかりません。\n\nどなたかご教授いただきたいです。\n\n```\n\n import UIKit\n \n class HistoryViewController: UIViewController, UITableViewDelegate, UITableViewDataSource {\n \n \n @IBOutlet weak var historyTableView: UITableView!\n \n var saveArray :[String] = []\n var textFieldValue :String = \"\"\n \n override func viewDidLoad() {\n super.viewDidLoad()\n title = \"履歴\"\n }\n \n         //ここから\n override func viewWillAppear(_ animated: Bool) {\n super.viewWillAppear(animated)\n guard let saveList = UserDefaults.standard.array(forKey: \"history\") as? [String] else {\n print(\"値がありません\")\n return\n }\n \n if saveArray == [] {\n print(saveList) \n // saveList = [] //空の配列を入れてみようとしましたがダメでした\n }\n \n saveArray = saveList.reversed()\n \n self.historyTableView.reloadData()\n \n }\n \n @IBAction func deleteButton(_ sender: Any) {\n \n UserDefaults.standard.removeObject(forKey: \"history\")\n saveArray.removeAll()//saveArrayの内容を消してみましたが、saveListに格納されているタスクが表示されてしまいます\n historyTableView.reloadData()\n }\n \n func tableView(_ tableView: UITableView, numberOfRowsInSection section: Int) -> Int {\n // print(self.memoryArrayReversed.count)\n // print(saveArray.count)\n return saveArray.count\n }\n \n func tableView(_ tableView: UITableView, cellForRowAt indexPath: IndexPath) -> UITableViewCell {\n \n let cell = historyTableView.dequeueReusableCell(withIdentifier: \"Cell\")!\n cell.textLabel?.text = saveArray[indexPath.item]\n // cell.textLabel?.numberOfLines=0\n return cell\n }\n \n // セルの削除機能\n func tableView(_ tableView: UITableView, commit editingStyle: UITableViewCell.EditingStyle, forRowAt indexPath: IndexPath) {\n if editingStyle == UITableViewCell.EditingStyle.delete {\n print(saveArray)\n saveArray.remove(at: indexPath.row)\n historyTableView.deleteRows(at: [indexPath as IndexPath], with: UITableView.RowAnimation.automatic)\n // 追加:削除した内容を保存\n UserDefaults.standard.set(saveArray, forKey: \"history\")\n }\n }\n }\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-03T00:23:53.613", "favorite_count": 0, "id": "93157", "last_activity_date": "2023-01-03T03:28:58.973", "last_edit_date": "2023-01-03T01:06:43.023", "last_editor_user_id": "55638", "owner_user_id": "55638", "post_type": "question", "score": 0, "tags": [ "swift" ], "title": "guardの配列の値を空にしたい", "view_count": 61 }
[ { "body": "guardから8行ぐらい消して、以下を追加でうまく動作すると思います。 \n※外出先なので、試せてはいません\n\n```\n\n self.saveArray = UserDefaults.standard.stringArray(forKey: \"history\") ?? []\n \n```\n\n@coconaさんのコードでエラーが出るのはsaveListがletで定義されているため、変更(空にする)することが出来ないためです。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-03T03:28:58.973", "id": "93160", "last_activity_date": "2023-01-03T03:28:58.973", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "40856", "parent_id": "93157", "post_type": "answer", "score": 0 } ]
93157
93160
93160
{ "accepted_answer_id": null, "answer_count": 0, "body": "React NativeとExpoを使用してAndroidアプリを開発しています。\n\nexpo-\nsqliteのexecuteSqlを使い、データベースのレコードを取得したものを配列に格納して返す関数を作ったのですが、返す値が空の配列になってしまいます。\n\n(データベースには正常にレコードが入っていることをconsole.logを使用して確認済みです。)\n\n作成した関数がデータベースのレコードを取得しそのレコードを値として返すにはどうすればいいでしょうか。\n\nご回答よろしくお願いいたします。\n\n以下自分が書いたコードです。\n\nデータベースのレコードを取得する関数\n\n```\n\n import * as SQLite from \"expo-sqlite\";\n \n const DBNAME = \"db.db\";\n \n export const GetAllDB = () => {\n const db = SQLite.openDatabase(DBNAME);\n let data = [];\n \n db.transaction(\n tx => {\n tx.executeSql(\n \"select name from table\",\n [],\n (tx, results) => {\n results.rows._array.forEach(item => {\n data.push(item);\n });\n },\n () => {\n console.log(\"get all db failed\");\n }\n )\n },\n () => {\n console.log(\"Error GetAllDB\");\n },\n () => {\n console.log(\"Success GetAllDB\");\n }\n )\n return data;\n }\n \n```\n\n呼び出し先\n\n```\n\n const data = GetAllDB();\n data.forEach((item) => {\n addFlatList(item);\n });\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-03T03:22:40.540", "favorite_count": 0, "id": "93159", "last_activity_date": "2023-01-03T07:35:37.657", "last_edit_date": "2023-01-03T07:35:37.657", "last_editor_user_id": "3060", "owner_user_id": "56343", "post_type": "question", "score": 0, "tags": [ "javascript", "android", "react-native" ], "title": "expo-sqliteを使用して取得したデータベースの内容を配列に格納したい", "view_count": 93 }
[]
93159
null
null
{ "accepted_answer_id": "93360", "answer_count": 3, "body": "aws-lambdaでlinebotを作成したいと思っています。 \nその中でaws-rdsで作成したデータベースにPyMySQLで接続しようとこちらのコードを書いたところ、エラーになってしまいました。\n\n```\n\n def pickupDatabase():\n rds_host = \"rdsのエンドポイント\"\n name = rds_config.db_username\n password = rds_config.db_password\n db_name = rds_config.db_name\n \n conn = pymysql.connect(host=rds_host, user=name, passwd=password, db=db_name, connect_timeout=5)\n msg = \"\"\n item_count = 0\n \n with conn.cursor() as cur:\n cur.execute(\"select * from content\")\n for row in cur:\n item_count += 1\n #logger.info(row)\n conn.close()\n \n return \"Added %d items from RDS MySQL table\" %(item_count)\n \n \n \n```\n\n**試してみたこと** \n1.ロールの確認 \n(参考サイト:https://docs.aws.amazon.com/ja_jp/lambda/latest/dg/services-rds-\ntutorial.html) \n→参考サイトの実行ロールを作成するというところを参考に作ったのですが変わりませんでした。\n\n2.rds_configの中身を取り出せているかを確認 \n→取り出せていました。間違えてないことも確認済みです。\n\n**表示されたエラーメッセージ**\n\n> [ERROR] OperationalError: (2003, \"Can't connect to MySQL server on 'test-\n> database.cpstxnucpjex.ap-northeast-1.rds.amazonaws.com' (timed out)\")\n\nエラーの原因はデータベースに接続できなかったことだと思うのですが、調べてVPN設定などもしてみたのですがうまくいきません。 \n初心者質問で恐縮ですが、この場合の確認事項、よくある修正方法など教えてほしいです。 \nよろしくお願いします。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-03T07:20:00.443", "favorite_count": 0, "id": "93162", "last_activity_date": "2023-01-15T13:45:46.083", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "46953", "post_type": "question", "score": 0, "tags": [ "aws", "aws-lambda", "amazon-rds" ], "title": "awsでlambda関数からrdsに接続できない", "view_count": 1764 }
[ { "body": "エラーメッセージからすると、認証の前にネットワークレベルで接続できていないのではないかと思われます。\n\nRDS は VPC 内に配置されるサービスで、Lambda はデフォルトでは VPC\n外に配置されるサービスです。ですのでネットワークが接続できるには二つの方法があります。\n\n * Lambda に VPC を割り当てる\n * RDS を Public access 可能にする\n\n後者は一般的におすすめではないため、前者がおすすめです。Lambda に VPC を割り当てる方法は以下に書かれています。\n\n<https://docs.aws.amazon.com/ja_jp/lambda/latest/dg/configuration-vpc.html>\n\n注意としては、Lambda からインターネットにアクセスできる必要がある場合です。VPC を割り当てると、Lambda からインターネットへのアクセスも\nVPC 経由となり、NAT Gateway が必要になります。", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-05T02:11:28.183", "id": "93189", "last_activity_date": "2023-01-05T02:11:28.183", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "5959", "parent_id": "93162", "post_type": "answer", "score": 2 }, { "body": "正しいのかはわかりませんがセキュリティグループのIPアドレスを0.0.0.0/0にしたら無事つながるようになりました。 \n参考URL:<https://creepfablic.site/2021/06/07/aws-rds-mysql-client-\npython/#index_id1>", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-09T13:52:15.510", "id": "93268", "last_activity_date": "2023-01-09T13:52:15.510", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "46953", "parent_id": "93162", "post_type": "answer", "score": 0 }, { "body": "解決したのでさらに追記で回答します。 \nLambdaで接続しているセキュリティグループのアウトバウンドルールとインバウンドルールにVPCのサブネットのCIDRを追加したらうまく動くようになりました。\n\n<https://aws.amazon.com/jp/premiumsupport/knowledge-center/lambda-rds-\nconnection-timeouts/> \n上記URLのセキュリティグループのルールを確認するというところを見逃してしまっていたようです。 \n失礼いたしました。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-15T13:45:46.083", "id": "93360", "last_activity_date": "2023-01-15T13:45:46.083", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "46953", "parent_id": "93162", "post_type": "answer", "score": 0 } ]
93162
93360
93189
{ "accepted_answer_id": null, "answer_count": 1, "body": "```\n\n %matplotlib inline\n import matplotlib.pyplot as plt\n \n import numpy as np\n X = np.linspace(0,2*np.pi)\n y = np.sin(X)\n \n plt.plot(x,y)\n \n```\n\n```\n\n ---------------------------------------------------------------------------\n NameError Traceback (most recent call last)\n ~\\AppData\\Local\\Temp\\ipykernel_26536\\2280643985.py in <module>\n 3 y = np.sin(X)\n 4 \n ----> 5 plt.plot(x,y)\n \n NameError: name 'x' is not defined\n \n```", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-03T08:06:41.173", "favorite_count": 0, "id": "93163", "last_activity_date": "2023-01-03T08:10:00.550", "last_edit_date": "2023-01-03T08:08:10.100", "last_editor_user_id": "3060", "owner_user_id": "55769", "post_type": "question", "score": -1, "tags": [ "python" ], "title": "sinのグラフを書こうとしたのですが、エラーになってしまいました何がまずいんでしょうか?", "view_count": 102 }
[ { "body": "大文字と小文字の違いでエラーになっているように見えます。どちらか一方に統一しましょう。\n\n`X` を大文字で記述している箇所:\n\n```\n\n X = np.linspace(0,2*np.pi)\n y = np.sin(X)\n \n```\n\n`x` を小文字で記述している箇所:\n\n```\n\n plt.plot(x,y)\n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-03T08:10:00.550", "id": "93164", "last_activity_date": "2023-01-03T08:10:00.550", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "3060", "parent_id": "93163", "post_type": "answer", "score": 2 } ]
93163
null
93164
{ "accepted_answer_id": null, "answer_count": 0, "body": "どのように書けば良いですか?今のままプログラムを動かした場合、2つのファイルが同時に再生されてしまします。理想としては1つ目のファイルの再生が終わった2秒後に2つ目のファイルを再生したいです。下記のURLを試した結果、ファイル1の最初の部分がヴヴヴヴ都営園に繰り替えられるようになっていしまいます。\n\n<http://mslabo.sakura.ne.jp/WordPress/make/processing%e3%80%80%e9%80%86%e5%bc%95%e3%81%8d%e3%83%aa%e3%83%95%e3%82%a1%e3%83%ac%e3%83%b3%e3%82%b9/%e4%b8%80%e5%ae%9a%e6%99%82%e9%96%93%e5%be%8c%e3%81%ab%e5%87%a6%e7%90%86%e3%82%92%e8%a1%8c%e3%81%86%e3%81%ab%e3%81%aftimer%e7%b7%a8/>\n\n```\n\n import ddf.minim.*;\n \n Minim minim;\n AudioPlayer player1,player2;\n \n \n void setup(){\n //ジャスタウェイの姿\n //顔の輪郭\n size(500,500);\n fill(250,203,161);\n ellipse(250,100,100,100);\n //右腕\n pushMatrix();\n translate(250,110);\n rotate(PI*300/180);\n fill(250,203,161);\n rect(0,0,5,160);\n popMatrix();\n \n //左腕\n pushMatrix();\n translate(250,110);\n rotate(PI*60/180);\n fill(250,203,161);\n rect(0,0,5,160);\n popMatrix();\n \n //体\n fill(253,126,95);\n rect(200,100,100,200);\n //口\n fill(255);\n line(235,95,265,95);\n //目\n fill(255);\n ellipse(225,80,25,5);\n ellipse(275,80,25,5);\n //瞳孔\n fill(0);\n ellipse(225,80,5,5);\n ellipse(275,80,5,5);\n \n \n \n //音声再生 \n //ファイルA,Bは仮の名前であって実際の名前ではありません。\n minim = new Minim(this);\n player1 = minim.loadFile(\"ファイルA\");\n player1.play();\n player2 = minim.loadFile(\"ファイルB\");\n  player2.play();\n \n }\n \n void draw(){\n \n }\n \n void stop() {\n player1.close();\n player2.close();\n minim.stop();\n super.stop();\n }\n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-03T14:40:03.047", "favorite_count": 0, "id": "93168", "last_activity_date": "2023-01-04T16:19:31.480", "last_edit_date": "2023-01-04T16:19:31.480", "last_editor_user_id": "3060", "owner_user_id": "55336", "post_type": "question", "score": 0, "tags": [ "java", "processing" ], "title": "processingでファイルAの音声を流した2秒後にファイルBを流したいのですが、うまくいきません。", "view_count": 49 }
[]
93168
null
null
{ "accepted_answer_id": "93171", "answer_count": 2, "body": "**実行環境** \nWindows 10 \nPython 3.X \npandas\n\n### データの説明\n\n下記の元データはログをcsv化したものの一部の例になります。 \nこちらはid,timestampというカラムで構成されています。 \ntimestampは昇順で並べられており、それに沿ってidが並べられています。 \nidは基本的にはまとまっておりますが、遅延などにより、別のidが先に割り込む形で出力されることがあり、その部分のログとなっております。\n\n### やりたいこと\n\nこちらの元データを下記の **加工したいデータ** のようにsortしたいと考えております。 \n同一idはまとめて出力し、そのうえでtimestamp順に出力したいと考えています。 \n各idの先頭のtimestampでソートできればと考えております。 \nどのようにするとsortが可能でしょうか?\n\n**元データ**\n\nid | timestamp \n---|--- \nidefs | 2022-12-15T00:00:01.0000000Z \nidefs | 2022-12-15T00:00:02.0000000Z \nidefs | 2022-12-15T00:00:03.0000000Z \nidefs | 2022-12-15T00:00:04.0000000Z \naaefsd | 2022-12-15T00:00:05.0000000Z \nidefs | 2022-12-15T00:00:06.0000000Z \naaefsd | 2022-12-15T00:00:07.0000000Z \naaefsd | 2022-12-15T00:00:08.0000000Z \nqwerty | 2022-12-15T00:00:09.0000000Z \naaefsd | 2022-12-15T00:00:10.0000000Z \naaefsd | 2022-12-15T00:00:11.0000000Z \nqwerty | 2022-12-15T00:00:12.0000000Z \nqwerty | 2022-12-15T00:00:13.0000000Z \nqwerty | 2022-12-15T00:00:14.0000000Z \nqwerty | 2022-12-15T00:00:15.0000000Z \n \n**加工したいデータ**\n\nid | timestamp \n---|--- \nidefs | 2022-12-15T00:00:01.0000000Z \nidefs | 2022-12-15T00:00:02.0000000Z \nidefs | 2022-12-15T00:00:03.0000000Z \nidefs | 2022-12-15T00:00:04.0000000Z \nidefs | 2022-12-15T00:00:06.0000000Z \naaefsd | 2022-12-15T00:00:05.0000000Z \naaefsd | 2022-12-15T00:00:07.0000000Z \naaefsd | 2022-12-15T00:00:08.0000000Z \naaefsd | 2022-12-15T00:00:10.0000000Z \naaefsd | 2022-12-15T00:00:11.0000000Z \nqwerty | 2022-12-15T00:00:09.0000000Z \nqwerty | 2022-12-15T00:00:12.0000000Z \nqwerty | 2022-12-15T00:00:13.0000000Z \nqwerty | 2022-12-15T00:00:14.0000000Z \nqwerty | 2022-12-15T00:00:15.0000000Z \n \n### 試したこと\n\nsort_valuesを使用しsortを行いました。 \nこちらは同じidでデータをまとめ、sortが可能ですが、idも昇順で並び替えてしまうため、 \n原則timestamp順で並び替えることができませんでした。\n\n```\n\n csv_data = '''\n id,timestamp\n idefs,2022-12-15T00:00:01.0000000Z\n idefs,2022-12-15T00:00:02.0000000Z\n idefs,2022-12-15T00:00:03.0000000Z\n idefs,2022-12-15T00:00:04.0000000Z\n aaefsd,2022-12-15T00:00:05.0000000Z\n idefs,2022-12-15T00:00:06.0000000Z\n aaefsd,2022-12-15T00:00:07.0000000Z\n aaefsd,2022-12-15T00:00:08.0000000Z\n qwerty,2022-12-15T00:00:09.0000000Z\n aaefsd,2022-12-15T00:00:10.0000000Z\n aaefsd,2022-12-15T00:00:11.0000000Z\n qwerty,2022-12-15T00:00:12.0000000Z\n qwerty,2022-12-15T00:00:13.0000000Z\n qwerty,2022-12-15T00:00:14.0000000Z\n qwerty,2022-12-15T00:00:15.0000000Z\n '''\n \n df = pd.read_csv(csv_data)\n \n df.sort_values(['id', 'timestamp']) \n \n```\n\n**結果**\n\n```\n\n id timestamp\n 4 aaefsd 2022-12-15T00:00:05.0000000Z\n 6 aaefsd 2022-12-15T00:00:07.0000000Z\n 7 aaefsd 2022-12-15T00:00:08.0000000Z\n 9 aaefsd 2022-12-15T00:00:10.0000000Z\n 10 aaefsd 2022-12-15T00:00:11.0000000Z\n 0 idefs 2022-12-15T00:00:01.0000000Z\n 1 idefs 2022-12-15T00:00:02.0000000Z\n 2 idefs 2022-12-15T00:00:03.0000000Z\n 3 idefs 2022-12-15T00:00:04.0000000Z\n 5 idefs 2022-12-15T00:00:06.0000000Z\n 8 qwerty 2022-12-15T00:00:09.0000000Z\n 11 qwerty 2022-12-15T00:00:12.0000000Z\n 12 qwerty 2022-12-15T00:00:13.0000000Z\n 13 qwerty 2022-12-15T00:00:14.0000000Z\n 14 qwerty 2022-12-15T00:00:15.0000000Z\n \n```\n\n**追加質問** \n下記のようにidに空白がある場合に下記の加工後データにしたい場合、先ほどと同じようにグルーピング化して処理を行うことは可能でしょうか? \n**元データ(csv形式)**\n\n```\n\n id,timestamp\n idefs,2022-12-15T00:00:01.0000000Z\n idefs,2022-12-15T00:00:02.0000000Z\n idefs,2022-12-15T00:00:03.0000000Z\n idefs,2022-12-15T00:00:04.0000000Z\n aaefsd,2022-12-15T00:00:05.0000000Z\n idefs,2022-12-15T00:00:06.0000000Z\n ,2022-12-15T00:00:07.0000000Z\n aaefsd,2022-12-15T00:00:08.0000000Z\n aaefsd,2022-12-15T00:00:09.0000000Z\n qwerty,2022-12-15T00:00:10.0000000Z\n aaefsd,2022-12-15T00:00:11.0000000Z\n aaefsd,2022-12-15T00:00:12.0000000Z\n qwerty,2022-12-15T00:00:13.0000000Z\n qwerty,2022-12-15T00:00:14.0000000Z\n qwerty,2022-12-15T00:00:15.0000000Z\n qwerty,2022-12-15T00:00:16.0000000Z\n \n```\n\n**加工後データ(csv形式)**\n\n```\n\n id,timestamp\n idefs,2022-12-15T00:00:01.0000000Z\n idefs,2022-12-15T00:00:02.0000000Z\n idefs,2022-12-15T00:00:03.0000000Z\n idefs,2022-12-15T00:00:04.0000000Z\n idefs,2022-12-15T00:00:06.0000000Z\n aaefsd,2022-12-15T00:00:05.0000000Z\n aaefsd,2022-12-15T00:00:08.0000000Z\n aaefsd,2022-12-15T00:00:09.0000000Z\n aaefsd,2022-12-15T00:00:11.0000000Z\n aaefsd,2022-12-15T00:00:12.0000000Z\n ,2022-12-15T00:00:07.0000000Z\n qwerty,2022-12-15T00:00:10.0000000Z\n qwerty,2022-12-15T00:00:13.0000000Z\n qwerty,2022-12-15T00:00:14.0000000Z\n qwerty,2022-12-15T00:00:15.0000000Z\n qwerty,2022-12-15T00:00:16.0000000Z\n \n```", "comment_count": 4, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-03T15:11:26.307", "favorite_count": 0, "id": "93170", "last_activity_date": "2023-01-04T06:36:51.167", "last_edit_date": "2023-01-04T04:39:01.187", "last_editor_user_id": "47546", "owner_user_id": "47546", "post_type": "question", "score": 0, "tags": [ "python", "pandas" ], "title": "pandasで同一idはまとめて出力し、そのうえでtimestamp順に出力したい。", "view_count": 100 }
[ { "body": "> こちら、カラムがid,timestamp以外に複数あり、そちらのすべてを復元したい場合、どのような記載ができますでしょうか?\n\n>\n> こちら複数の空白行がある場合、一か所に固まってしまいます。これらの空白行もidのまとまりを崩さないようにtimestampで昇順に並べることは可能でしょうか?\n\n`id` が空欄のデータに何の意味があるのか不明ですが(ログデータを出力しているシステムの不備でしょう)、とりあえずは以下の様になります。\n\n```\n\n dfx = df.assign(_subid = df.groupby('id', group_keys=False, sort=False, dropna=False)\\\n .apply(lambda x: x['id'].isna().cumsum()))\\\n .groupby(['id', '_subid'], sort=False, dropna=False)\\\n .apply(lambda x: x.sort_values('timestamp', ignore_index=True))\\\n .reset_index(drop=True)[df.columns]\n \n```", "comment_count": 6, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-03T16:16:26.107", "id": "93171", "last_activity_date": "2023-01-04T06:36:51.167", "last_edit_date": "2023-01-04T06:36:51.167", "last_editor_user_id": "47127", "owner_user_id": "47127", "parent_id": "93170", "post_type": "answer", "score": 2 }, { "body": "「加工したいデータ」の id順 は 「元データ」の id の出現順である、との仮定で回答します。 \n※ pandasのバージョンが1.1.0であること\n\n```\n\n import pandas as pd\n import io\n \n data = \"\"\"\n id,timestamp\n idefs,2022-12-15T00:00:01.0000000Z\n idefs,2022-12-15T00:00:02.0000000Z\n idefs,2022-12-15T00:00:03.0000000Z\n idefs,2022-12-15T00:00:04.0000000Z\n aaefsd,2022-12-15T00:00:05.0000000Z\n idefs,2022-12-15T00:00:06.0000000Z\n aaefsd,2022-12-15T00:00:07.0000000Z\n aaefsd,2022-12-15T00:00:08.0000000Z\n qwerty,2022-12-15T00:00:09.0000000Z\n aaefsd,2022-12-15T00:00:10.0000000Z\n aaefsd,2022-12-15T00:00:11.0000000Z\n qwerty,2022-12-15T00:00:12.0000000Z\n qwerty,2022-12-15T00:00:13.0000000Z\n qwerty,2022-12-15T00:00:14.0000000Z\n qwerty,2022-12-15T00:00:15.0000000Z\n \"\"\"\n \n df = pd.read_csv(io.StringIO(data))\n df[\"timestamp\"] = pd.to_datetime(df[\"timestamp\"])\n print(df)\n # id timestamp\n #0 idefs 2022-12-15 00:00:01+00:00\n #1 idefs 2022-12-15 00:00:02+00:00\n #2 idefs 2022-12-15 00:00:03+00:00\n #3 idefs 2022-12-15 00:00:04+00:00\n #4 aaefsd 2022-12-15 00:00:05+00:00\n #5 idefs 2022-12-15 00:00:06+00:00\n #6 aaefsd 2022-12-15 00:00:07+00:00\n #7 aaefsd 2022-12-15 00:00:08+00:00\n #8 qwerty 2022-12-15 00:00:09+00:00\n #9 aaefsd 2022-12-15 00:00:10+00:00\n #10 aaefsd 2022-12-15 00:00:11+00:00\n #11 qwerty 2022-12-15 00:00:12+00:00\n #12 qwerty 2022-12-15 00:00:13+00:00\n #13 qwerty 2022-12-15 00:00:14+00:00\n #14 qwerty 2022-12-15 00:00:15+00:00\n \n key_dict = {}\n for i, v in enumerate(df[\"id\"].drop_duplicates()):\n key_dict[v] = i + 1\n \n def key(s):\n return s.map(key_dict) \n \n df = df.sort_values([\"id\", \"timestamp\"], key = key)\n print(df)\n # id timestamp\n #0 idefs 2022-12-15 00:00:01+00:00\n #1 idefs 2022-12-15 00:00:02+00:00\n #2 idefs 2022-12-15 00:00:03+00:00\n #3 idefs 2022-12-15 00:00:04+00:00\n #5 idefs 2022-12-15 00:00:06+00:00\n #4 aaefsd 2022-12-15 00:00:05+00:00\n #6 aaefsd 2022-12-15 00:00:07+00:00\n #7 aaefsd 2022-12-15 00:00:08+00:00\n #9 aaefsd 2022-12-15 00:00:10+00:00\n #10 aaefsd 2022-12-15 00:00:11+00:00\n #8 qwerty 2022-12-15 00:00:09+00:00\n #11 qwerty 2022-12-15 00:00:12+00:00\n #12 qwerty 2022-12-15 00:00:13+00:00\n #13 qwerty 2022-12-15 00:00:14+00:00\n #14 qwerty 2022-12-15 00:00:15+00:00\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-03T16:17:39.187", "id": "93172", "last_activity_date": "2023-01-03T16:17:39.187", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "39819", "parent_id": "93170", "post_type": "answer", "score": 1 } ]
93170
93171
93171
{ "accepted_answer_id": "93185", "answer_count": 1, "body": "**〇実行環境** \nWindows 10 \nPython 3.X \npandas\n\nこちらのリンクでの質問内容の続きになります。 \n[pandasでの特定の条件下でのデータ取得ができない。](https://ja.stackoverflow.com/questions/93032/pandas%E3%81%A7%E3%81%AE%E7%89%B9%E5%AE%9A%E3%81%AE%E6%9D%A1%E4%BB%B6%E4%B8%8B%E3%81%A7%E3%81%AE%E3%83%87%E3%83%BC%E3%82%BF%E5%8F%96%E5%BE%97%E3%81%8C%E3%81%A7%E3%81%8D%E3%81%AA%E3%81%84) \n**〇リンク先の質問** \n上記のリンクではpandasを使用して各idがカラムのどの「分類」に属しているかの質問をし、groupbyを使用して、各idごとの分類と数値を取得することができました。\n\n〇質問内容 \n上記の質問から次のようなdfxを取得することができました。\n\n〇dfx(区切りが見やすいよう、csv形式にしています。)\n\n```\n\n id,数値,分類\n aaa,3141,type2\n bbb,5926,type1\n ccc,5358,type3\n ddd,9793,type1\n eee,2384,type3\n fff,6264,type2\n ggg,3383,type2\n hhh,2795,type1\n iii, 288,type3\n jjj,4197,type1\n kkk,1693,type3\n lll,9937,type2\n mmm,5105,type2\n nnn,8209,type1\n \n```\n\nこのデータからカラム「分類」の三つの要素ごとに最大値、最小値、平均値を求めたいと思っております。 \n下記のソースで最大値と最小値は求めることができたのですが、平均値だけ以上に大きく明らかにおかしい数値が出てしまいました。\n\n最小値、最大値は求められていたのでデータ値に誤りがあるとは思えないのですが、 \n何かおかしい点はありますでしょうか?\n\n```\n\n #平均値を求める\n dfx_mean = dfx.groupby('分類').agg(['mean'])\n \n \n```\n\n〇出力された値 \n''' \nmean \n分類 \ntype1 8886377.5 \ntype2 2.76252E+86 \ntype3 1.85807E+15 \n'''", "comment_count": 5, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T03:12:28.377", "favorite_count": 0, "id": "93175", "last_activity_date": "2023-01-05T09:07:38.553", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "47546", "post_type": "question", "score": 0, "tags": [ "python", "pandas" ], "title": "pandas .agg(['mean'])で正確な値を求めることができない。", "view_count": 162 }
[ { "body": "`agg(['mean'])` の結果だけが可怪しいのであれば, その処理を(何らかの要因で)書き換えてしまった可能性があります。 \n`dfx`の内容を(例えば) CSVなどの形式で保存し, 別環境で読み込み `agg(['mean'])` が正しい値で得られるならば, 原因は\n「処理が置き換わった」 ~~ことでしょう~~ 可能性があります。 \n(別環境でも失敗するのであれば手順を質問に追記してみてください)\n\n* * *\n\n#### 追記\n\n原因は, 数値型でなかった ことのようですが \n`agg` に与える関数名には以下のようなものもあります。参考に。\n\n数値項目でなければエラーになるパターン\n\n```\n\n >>> dfx.groupby('分類').agg({'数値': 'ohlc'}) # '数値'項目だけ対象にするので辞書形式で\n \n 数値\n open high low close\n 分類 \n type1 5926 9793 2795 8209\n type2 3141 9937 3141 5105\n type3 5358 5358 288 1693\n \n```\n\nあとほかに `'dtypes'` も指定可能 (リスト指定ではなく 1項目で指定)\n\n```\n\n df.groupby('分類').agg('dtypes')\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T12:27:15.600", "id": "93185", "last_activity_date": "2023-01-05T09:07:38.553", "last_edit_date": "2023-01-05T09:07:38.553", "last_editor_user_id": "43025", "owner_user_id": "43025", "parent_id": "93175", "post_type": "answer", "score": 1 } ]
93175
93185
93185
{ "accepted_answer_id": "93275", "answer_count": 3, "body": "高校数学の知識がほとんどなく、方法が思いつきません。\n\n2次元平面を例とします。今現在の点Aに適当な乱数により生成したステップSを足して次点Bを作っています(実際に実装するのは、ずっとこれを繰り返すランダムウォークです)。\n\n```\n\n B(x+u, y+v) = A(x, y) + S(u, v)\n \n```\n\nこれに対して、ある適当な角度θによる制限を行いたいです。 \n(ちなみに角度θは、n次元ベクトル2つのなす角θが内積のcosθより得られるということなので、試しにAと2つのランダムな点E、Fとの間にAE、AFベクトルを作ってみて、これを使うつもりです。しかし制限は変わらず角度のみによるので、例えば2つのベクトルの先端を繋いで三角形の領域の中に制限したりする、などはしません)\n\n(追記)やりたいことを図示しました。意図が伝われば幸いです。 \n画像の点B1〜B5は、生成をやり直したS1〜S5により決まっています。 \nB3〜B5のように、AE、AFベクトルのなす角θの範囲内にのみ点Bが生まれるようにしたいです。 \n[![imagine](https://i.stack.imgur.com/C9mDT.png)](https://i.stack.imgur.com/C9mDT.png)\n\n例えばn次元座標の一様乱数を作るにあたって、[a, b)の範囲内の乱数を以下のように生成できますが、ここに角度も指定できないでしょうか。\n\n```\n\n np.random.rand(1, n) * (b - a) + a\n \n```\n\n乱数が生成されたらその角度の範囲内にあるかどうかを検知して、whileで角度の範囲内に生成されるまでやり直すというのは一つの手段だと思うのですが、それでも実装方法が考えつかないですし、n次元においては途方もない計算量になってしまうと思います。\n\nそれから他の例として、2次元における下記コードのような極座標の考え方を用いる方法は見つけたのですが、これだとある点からの距離と角度の二度乱数を生成して、それらにより1次元分の座標値を段階的に決定してしまっています。あくまで事前に用意する任意の乱数生成一度分に対して制限を加えたいです。 \nただ視覚的に見れば、ほとんどやりたいことが実現できています。アニメーション画像はこのコードによるものです。\n\nもちろんこれらの改善に限らず、実現する方法があればなんでもありがたいです。ぜひよろしくお願いいたします。\n\n[![random plot\ngif](https://i.stack.imgur.com/CXF3u.gif)](https://i.stack.imgur.com/CXF3u.gif)\n\n```\n\n import math\n import random\n import matplotlib.pyplot as plt\n from matplotlib.animation import FuncAnimation\n \n # 点A(1, 0)からの角度、距離の上下限\n angle_range = (0, 45)\n distance_range = (1, 10)\n \n \n def random_point(frames):\n _ = frames\n \n # ランダムに角度、距離を生成\n angle = random.uniform(angle_range[0], angle_range[1])\n distance = random.uniform(distance_range[0], distance_range[1])\n \n # 角度をラジアンに変換\n radian = math.radians(angle)\n \n # 極座標によりx, y座標を求める\n x = distance * math.cos(radian)\n y = distance * math.sin(radian)\n \n plt.scatter(x, y, c='r')\n \n \n fig = plt.figure()\n plt.grid(True)\n plt.xlim(-10, 10)\n plt.ylim(-10, 10)\n \n # frames:生成点数\n anim = FuncAnimation(fig, random_point, frames=50, interval=200)\n plt.show()\n \n```\n\n(2023年1月7日追記) \nn次実数空間の中で定義されたある関数の最小値となる解の座標x,y,...nを求める「最適化問題」に取り組んでいます。 \n下記リンクの後半で多数図示されているのは各関数の2次元f(x, y)における景観です(ちなみに質問における一様乱数の区間は、この各関数f(x,\ny,...n)における変数x, y…nそれぞれの定義域(探索域)のことです)。 \n<https://qiita.com/tomitomi3/items/d4318bf7afbc1c835dda>\n\nこのような問題を、解析的に解こうとせずに、最適点を「探索」する手法を用いて解こうとしています。\n\nさて、[粒子群最適化法(PSO)](https://ja.wikipedia.org/wiki/%E7%B2%92%E5%AD%90%E7%BE%A4%E6%9C%80%E9%81%A9%E5%8C%96)のような多点探索手法の個体群に、空間を探索させているとします。そしてそれ以外に1体、それとは全く関係なく、空間中をただランダムウォーク(散歩)している存在がいます(質問の点AですのでAとします)。\n\nこのとき、Aが次の位置Bを決めるにあたってまれに、他の手法の個体群が探索中のエリアに誘導されるようにしたいです(まれに、としたのは、散歩をしているAが気分(確率によって切り替わる)によってその方向に向かうこともあるようにしたいから)。 \n→「本当に実現したいこと」です。\n\n「個体群が探索中のエリア」は仮想的に決められるもので、簡易的には互いのノルムが最も離れている2つの個体(質問の点E,Fです)によって作ることができると考えています(本格的に作るとするなら、個体群の中で最も外側にいる個体全てを利用することになると思います)。\n\nこれらの個体E,Fに対してAがAE,AFベクトルを作って、なす角θを求めれば、角度で制限された範囲内でのみAはランダムウォークをするので(擬似的な視野角のようなものになる)、気長に待てばそのエリアにたどり着く(制限の結果として誘導してやれる)だろう、と考えました。 \n→「本当に実現したいこと」を実現できそうなアイデアであり、本質問における「実現したいこと」です。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T04:49:36.627", "favorite_count": 0, "id": "93176", "last_activity_date": "2023-01-16T07:06:41.170", "last_edit_date": "2023-01-06T22:34:50.453", "last_editor_user_id": "56372", "owner_user_id": "56372", "post_type": "question", "score": 0, "tags": [ "python", "数学" ], "title": "n次元座標における乱数の生成領域を特定角度の範囲内に制限したい", "view_count": 357 }
[ { "body": "(くだらない話ですが…)\n\nおそらくやりたいことは,\n\n【ある方向を示すベクトル `v` があるときに,この `v` と成す角がある閾値`θ`以内となる範囲(下図のオレンジ色の範囲)内に点 `S` を生成する】\n\nことだと見える.\n\n[![画像の説明をここに入力](https://i.stack.imgur.com/o2Qvk.png)](https://i.stack.imgur.com/o2Qvk.png)\n\n> 乱数が生成されたらその角度の範囲内にあるかどうかを検知して、whileで角度の範囲内に生成されるまでやり直す\n\nという話を単純に考えると, \n「乱数で `S` を生成 → その場所が図のオレンジ色の領域でない場合にはやり直し」という話となるが, \n例えば下図の緑色の範囲に `S` が生成された場合には,角度を `θ` だけ減じてやれば(= `A` を回転中心として `S` を `θ`\nだけ回転してやれば)オレンジ色の範囲に入るのだから,乱数からやり直す必要は無いであろう.\n\n[![画像の説明をここに入力](https://i.stack.imgur.com/HxhZZ.png)](https://i.stack.imgur.com/HxhZZ.png)\n\nさらにより角度が大きい範囲に `S` が生成された場合でも話は同様であり,\n\n`補正後の角度 = (乱数で生成した S と v との成す角) % θ`\n\nのような感じで角度の値を補正してやればオレンジ色の範囲内の点の座標を手に入れることができる.\n\nもちろん, `θ` が180を割り切れない場合には,180度付近の領域に対しては「乱数からやり直し」を行う必要がある(一様性のために)けれども, \nこのようなちょっとした工夫で「やり直し」となる確率を相応に減らすことはできるのではあるまいか.", "comment_count": 5, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-06T04:32:41.067", "id": "93209", "last_activity_date": "2023-01-06T04:32:41.067", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "52236", "parent_id": "93176", "post_type": "answer", "score": 0 }, { "body": "> 乱数が生成されたらその角度の範囲内にあるかどうかを検知して、whileで角度の範囲内に生成されるまでやり直す\n\nについて2次元の記述例とその結果図を示します。「乱数から生成したベクトル方向の単位ベクトル」と「与えられた2ベクトル(AE,\nAF)に挟まれた角の2等分線の単位ベクトル」との内積を使って方向の可否判定をしました。なお,大きさも方向も境界は含まない条件にしています。\n\n```\n\n import numpy as np\n from numpy.linalg import norm\n import matplotlib.pyplot as plt\n \n DIMENSION = 2\n POINT_B_NUM = 2000\n rng = np.random.default_rng()\n r_min, r_max = 1.0, 10.0\n \n a = np.array([-1.0, -1.0]) # point A\n e = np.array([-2.6, 1.4]) # point E\n f = np.array([-1.9, -2.4]) # point F\n ae1 = (e - a) / norm(e - a) # unit vector of AE\n af1 = (f - a) / norm(f - a) # unit vector of AF\n # unit vector of angle bisector of EAF\n am1 = (ae1 + af1) / norm(ae1 + af1)\n # cos(half angle of EAF)\n cos_ha = ae1 @ am1\n \n counter = 0\n rand_walk = []\n while True:\n ab = rng.uniform(-r_max, r_max, DIMENSION)\n \n r = norm(ab)\n if not r_min < r < r_max:\n continue\n \n ab1 = ab / r\n if not ab1 @ am1 > cos_ha:\n continue\n \n rand_walk.append(ab)\n counter += 1\n if counter >= POINT_B_NUM:\n break\n \n # plot\n fig = plt.figure(figsize=[6, 6])\n ax = fig.add_subplot()\n ax.set_aspect('equal')\n ax.set_xlim(-15, 5)\n ax.set_ylim(-10, 10)\n ax.set_xticks(np.arange(-15, 6, 5))\n ax.set_yticks(np.arange(-10, 11, 5))\n ax.minorticks_on()\n ax.grid(which='major', color='black')\n ax.grid(which='minor', color='gray', linestyle='--')\n \n for rw in rand_walk:\n ax.plot(*(a + rw),\n marker='.', color='red', markersize=1)\n \n ax.arrow(*a, *(e - a),\n length_includes_head=True, head_width=0.2)\n ax.arrow(*a, *(f - a),\n length_includes_head=True, head_width=0.2)\n ax.text(0, 0, ' O')\n ax.text(*a, ' A')\n ax.text(*e, ' E')\n ax.text(*f, ' F')\n \n plt.show()\n \n```\n\n[![2次元の描画結果](https://i.stack.imgur.com/2AySx.png)](https://i.stack.imgur.com/2AySx.png) \n3次元の場合の記述例(2次元からの変更部と `# plot`\n以降は全て)とその結果図も示します。添付図からは分かり難いですが,点B(赤点)は点Aを頂点する円錐の中に分布しています。\n\n```\n\n DIMENSION = 3\n \n a = np.array([-1.0, -1.0, 0.0]) # point A\n e = np.array([-2.6, 1.4, 0.0]) # point E\n f = np.array([-1.9, -2.4, 0.0]) # point F\n \n # plot\n fig = plt.figure(figsize=[6, 6])\n ax = fig.add_subplot(projection='3d')\n ax.set_aspect('equal')\n ax.set_xlim(-15, 5)\n ax.set_ylim(-10, 10)\n ax.set_zlim(-10, 10)\n ax.set_xticks(np.arange(-15, 6, 5))\n ax.set_yticks(np.arange(-10, 11, 5))\n ax.set_zticks(np.arange(-10, 11, 5))\n ax.minorticks_on()\n \n for rw in rand_walk:\n ax.plot(*(a + rw),\n marker='.', color='red', markersize=1)\n \n ax.quiver(*a, *(e - a))\n ax.quiver(*a, *(f - a))\n ax.plot(0, 0, 0, marker='o', markersize=3)\n ax.text(0, 0, 0, ' O')\n ax.text(*a, ' A')\n ax.text(*e, ' E')\n ax.text(*f, ' F')\n \n plt.show()\n \n```\n\n[![3次元の描画結果](https://i.stack.imgur.com/pKeny.png)](https://i.stack.imgur.com/pKeny.png)", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-06T10:55:34.243", "id": "93218", "last_activity_date": "2023-01-06T10:55:34.243", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "54588", "parent_id": "93176", "post_type": "answer", "score": 0 }, { "body": "最適化問題なのでなるべく計算が軽量な方法を考えます。 \nまず誘導の目的地です。 \n一番楽なのは通常のPSOですでに記録している、全粒子のベスト位置を使いまわします。 \n他には全粒子の現在の平均位置とか全粒子のパーソナルペストの平均とか \n多少計算が重くなりますが、全粒子の位置を各粒子の評価値で重み付けした重心などです。\n\n次に誘導の強さです。もとの方法でθに相当するものです。 \nもとの方法ではノルムが最も離れた2点を使用して誘導方向とともに決定するとしていますが、 \nこれは大体粒子数の2乗回の距離計算が必要になります。 \n粒子位置の各成分の分散を用いるのが良いかと思います。\n\n最後に誘導の方法です。 \n何度も繰り返せばそのうち誘導される挙動を達成したいのであれば、 \n多次元空間で超円錐を考えるより、 \nランダムウォークによる移動が、誘導目的地方向に偏るようにオフセットさせるほうが直感的でしょう。\n\n単純には粒子位置の各成分の分散に比例する範囲の一様乱数から移動量を作り、 \nAから誘導目的地へのベクトルの定数倍と足してみればそんな感じの移動が実現できます \n(この方法だとパラメータ間に相関があるような粒子の分布をいまいち反映できませんが、それを考慮しようとすると計算が大変そうなのでやめました。)\n\n[![画像の説明をここに入力](https://i.stack.imgur.com/FXoJ0.png)](https://i.stack.imgur.com/FXoJ0.png) \n[![画像の説明をここに入力](https://i.stack.imgur.com/TL2F0.png)](https://i.stack.imgur.com/TL2F0.png) \n2次元、黒点が誘導地点 \n破線が粒子集団の分散を想定", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T01:10:02.193", "id": "93275", "last_activity_date": "2023-01-16T07:06:41.170", "last_edit_date": "2023-01-16T07:06:41.170", "last_editor_user_id": "13127", "owner_user_id": "13127", "parent_id": "93176", "post_type": "answer", "score": 0 } ]
93176
93275
93209
{ "accepted_answer_id": null, "answer_count": 1, "body": "PythonでPDFを読み込んでテキスト情報をExcelに変換しようと思っています。 \nこのサイト(<https://fastclassinfo.com/entry/python_pdf_to_excel/>)を参考にしましたが下記のエラーメッセージが発生しました。\n\n```\n\n AttributeError\n 'Page' object has no attribute 'getText'\n \n```\n\nどうかお力添えを賜りたいです。よろしくお願いいたします。\n\n```\n\n import fitz\n import openpyxl as px\n from openpyxl.styles import Alignment\n \n # プログラム2|PDFテキストを格納するリスト作成\n item_list = []\n \n # プログラム3|PDFファイルを開く\n filename = '20180319001_1.pdf'\n doc = fitz.open(filename)\n \n # プログラム4|PDFを1ページずつテキストを取得\n for page in range(len(doc)):\n textblocks = doc[page].getText('blocks')\n for textblock in textblocks:\n if textblock[4].isspace() == False:\n item_list.append([page,textblock[4]])\n \n # プログラム5|新しいエクセルを作成\n wb = px.Workbook()\n ws = wb.active\n \n # プログラム6|エクセルの書式設定\n myalignment=Alignment(wrap_text=True, shrink_to_fit=False)\n ws.column_dimensions['C'].width = 100\n \n # プログラム7|エクセルのヘッダーを出力\n headers = ['No', 'ページ', '内容']\n for i, header in enumerate(headers):\n ws.cell(row=1, column=1+i, value=headers[i])\n \n # プログラム8|エクセルにPDFのテキストデータを出力\n for y, row in enumerate(item_list):\n ws.cell(row= y+2, column= 1, value= y+1)\n for x, cell in enumerate(row):\n ws.cell(row= y+2, column= x+2, value=item_list[y][x])\n ws.cell(row= y+2, column= x+2).alignment = myalignment\n \n # プログラム9|エクセルファイルの保存\n excelname = f'{filename}_excel_convert.xlsx'\n wb.save(excelname)\n \n```\n\n**追記** \nPython 3.9.7 \nopenpyxl Version: 3.0.4 \nPyMuPDF 1.21.1", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T06:28:01.950", "favorite_count": 0, "id": "93178", "last_activity_date": "2023-01-04T07:14:28.350", "last_edit_date": "2023-01-04T07:14:28.350", "last_editor_user_id": "56378", "owner_user_id": "56378", "post_type": "question", "score": 0, "tags": [ "python", "python3" ], "title": "テキスト取得の際のAttributeError:'Page' object has no attribute 'getText'", "view_count": 326 }
[ { "body": "PyMuPDF 1.20.0 では`getText`を`get_text`に変更すると上手く行くようです。\n\n※ getTextと全く同じ動作をするかは分かりませんが、テキスト情報は取得出来ました。同じ情報が取得できるかどうかは質問者さんにて検証お願いします。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T06:54:53.777", "id": "93179", "last_activity_date": "2023-01-04T06:54:53.777", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "39819", "parent_id": "93178", "post_type": "answer", "score": 2 } ]
93178
null
93179
{ "accepted_answer_id": null, "answer_count": 0, "body": "Flutterの勉強で、メモ帳アプリを作成しています。 \nそこでshowModalBottomSheetWidgetをproviderのnotifyListeners()で再描画させたいのですができません。 \n何が足りないのでしょうか? \nよければアドバイスいただけるとありがたいです。 \nよろしくお願いします。\n\n```\n\n import 'package:flutter/material.dart';\n import 'package:provider/provider.dart';\n \n class SendDiary extends StatefulWidget {\n String? destination;\n SendDiary(this.destination);\n \n @override\n State<SendDiary> createState() => _SendDiary();\n }\n \n class _SendDiary extends State<SendDiary> {\n @override\n Widget build(BuildContext context) {\n final double deviceHeight = MediaQuery.of(context).size.height;\n final double deviceWdth = MediaQuery.of(context).size.width;\n return Scaffold(\n body: TextButton(\n onPressed: () {\n showModalBottomSheet(\n isScrollControlled: true,\n context: context,\n enableDrag: true,\n builder: (context) {\n return Consumer<ReShowModalBottomSheet>(\n builder: (context, model, child) {\n return Container(\n height: deviceHeight * 0.4,\n width: deviceWdth,\n child: Column(children: [\n TextButton(\n //ここでメモ帳作成画面へ遷移\n onPressed: () async {\n await Navigator.push(\n context,\n MaterialPageRoute(\n builder: (context) => WriteDiary(null)));\n //メモ帳作成後、戻ってきたタイミングで再描画\n model.reShowModalBottomSheet();\n },\n child: Text('新規メモ帳作成画面へ遷移'),\n ),\n SingleChildScrollView(\n physics: BouncingScrollPhysics(),\n child: Column(children: [\n for (int index = 0;\n index < diaryStorage[0].length;\n index++) ...{\n // new Consumer<ReShowModalBottomSheet>(\n // builder: (context, model, child) {\n new TextButton(\n onPressed: () async {\n //ここで保存していたメモ帳(下書き)をメモ帳作成画面へ展開\n await Navigator.push(\n context,\n MaterialPageRoute(\n builder: (context) => SendWriteDiary(\n null,\n null,\n null,\n 'null',\n null,\n )));\n //メモ帳作成画面から戻り、画面再描画\n model.reShowModalBottomSheet();\n },\n child: Text('下書きの数だけButtonを作成'),\n )\n }\n ]))\n ]));\n });\n });\n },\n child: Text('ShowModalBottomSheet'),\n ));\n }\n }\n \n```\n\n<ソースの説明> \nButtonを押すとshowModalBottomSheetが表示され、そこに新規メモ帳作成Buttonと今までに作成した下書きのメモ帳が動的に表示させる、といった機能を実装しようといています。 \nしかし、新規メモ帳作成Buttonを押し、メモ帳作成画面へ移動したあとにメモ内容を保存し、「\nNavigator.pop(context);」により戻るとnotifyListeners()が実行されても画面が再描画されません。", "comment_count": 4, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T09:43:58.170", "favorite_count": 0, "id": "93181", "last_activity_date": "2023-01-05T13:05:52.380", "last_edit_date": "2023-01-05T13:05:52.380", "last_editor_user_id": "56362", "owner_user_id": "56362", "post_type": "question", "score": 0, "tags": [ "ios", "android", "flutter", "dart" ], "title": "providerのnotifyListeners()で再描画させたいのですができません。(同じ内容を他質問サイトに投稿させていただいております)", "view_count": 80 }
[]
93181
null
null
{ "accepted_answer_id": "93188", "answer_count": 1, "body": "以下のような予算(`class=\"budget\"`)を費用(`class=\"cost\"`)が上回った場合に判定結果(`class=\"result\"`)に「予算オーバー」と表示したいですが上手くいきません。 \nご教授のほどよろしくお願いいたします。\n\n▼HTML\n\n```\n\n <div>\n <div><span class=\"budget\">100</span> <span class=\"cost\">80</span> <span class=\"result\"></span></div>\n <div><span class=\"budget\">50</span> <span class=\"cost\">70</span> <span class=\"result\"></span></div>\n <div><span class=\"budget\">30</span> <span class=\"cost\">50</span> <span class=\"result\"></span></div>\n </div>\n \n```\n\n▼試したコード\n\n```\n\n <script>\n var budget = $('.budget').text();\n var cost = $('.cost').text();\n if(budget < cost) {\n $('.result').text('予算オーバー');\n }\n </script>\n \n```\n\n▼理想の結果\n\n```\n\n 100 80 \n 50 70 予算オーバー\n 30 50 予算オーバー\n \n```\n\n▼現状の結果\n\n```\n\n 100 80 予算オーバー\n 50 70 予算オーバー\n 30 50 予算オーバー\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T09:58:51.640", "favorite_count": 0, "id": "93182", "last_activity_date": "2023-01-05T01:46:38.583", "last_edit_date": "2023-01-05T01:46:38.583", "last_editor_user_id": "3060", "owner_user_id": "56379", "post_type": "question", "score": 1, "tags": [ "javascript", "jquery" ], "title": "要素Aの数字より要素Bの数字が小さい場合に、要素Cに判定を出したい", "view_count": 79 }
[ { "body": "要素は複数あるので、配列に格納して同じインデックスで比較します。\n\n```\n\n <script>\n const budget = $('.budget').map((_, e) => Number(e.innerText)).get();\n const cost = $('.cost').map((_, e) => Number(e.innerText)).get();\n $('.result').each((i, e) => {\n if (budget[i] < cost[i]) {\n e.innerText = '予算オーバー';\n }\n });\n </script>\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T21:36:22.207", "id": "93188", "last_activity_date": "2023-01-04T21:36:22.207", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "47127", "parent_id": "93182", "post_type": "answer", "score": 0 } ]
93182
93188
93188
{ "accepted_answer_id": null, "answer_count": 1, "body": "現在windows11 proにてtauriを使った開発をしたいと思うのですが、実行ができません。\n\n手順としてはmicrosoftビルドツールを入れ、nvm-windowsでnode.jsを入れ、npmにて`npm create tauri-\napp`を実行し、`npm run tauri dev`を実行しましたがうまくいきません。\n\n事前にルートフォルダ上にdistフォルダを作成しました。 \n[![画像の説明をここに入力](https://i.stack.imgur.com/HsDSJ.png)](https://i.stack.imgur.com/HsDSJ.png)\n\nこのような構成となっております。\n\ntauriにて設定はnpmかつreactで設定してます。\n\nまずは実行してコンパイルが走り、立ち上がるようにしたいので、ご教授お願い致します。\n\n**追記**\n\n以下エラーメッセージです。\n\n```\n\n npm run tauri dev\n \n > [email protected] tauri \n > tauri dev\n \n 'tauri' は、内部コマンドまたは外部コマンド、 操作可能なプログラムまたはバッチ ファイルとして認識されていません。\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T10:35:42.913", "favorite_count": 0, "id": "93183", "last_activity_date": "2023-01-04T14:02:26.927", "last_edit_date": "2023-01-04T14:02:26.927", "last_editor_user_id": "3060", "owner_user_id": "54375", "post_type": "question", "score": 0, "tags": [ "windows", "rust", "build" ], "title": "Rustのtauriにて実行できない", "view_count": 390 }
[ { "body": "> npm run tauri devを実行しましたがうまくいきません。\n\n質問に書かれている情報を見た限りですと手順には問題はなさそうですが、どのようにうまくいかないですか?\nたとえば、エラーメッセージが表示されるのなら、そのメッセージを教えてください。\n\n数ヶ月前にgihyo.jpに記事を書きましたので、そちらも参考にしてみてください。(yarn + Reactを使用)\n\n * [軽量RustフレームワークTauriでデスクトップアプリ開発をはじめよう](https://gihyo.jp/article/2022/10/rust-monthly-topics-02) — gihyo.jp\n\n**追記**\n\n> 以下エラーメッセージです。\n```\n\n> npm run tauri dev\n> \n> > [email protected] tauri\n> > tauri dev\n> \n> 'tauri' は、内部コマンドまたは外部コマンド、 操作可能なプログラムまたはバッチ ファイルとして認識されていません。\n> \n```\n\nエラーの情報、ありがとうございました。\n\nnpmのパッケージが見つからない(ダウンロードされていない)ようです。以下のコマンドを実行してから、再度、`npm run tauri\ndev`を実行してみてください。\n\n```\n\n npm install\n \n```\n\nこれでうまくいくと思います。\n\n私の記事では`yarn`を使っているのでコマンドが微妙に異なりますが、[プロジェクトを作成する](https://gihyo.jp/article/2022/10/rust-\nmonthly-topics-02#gh4XGYZPUu)の「すべてに回答すると、以下のようなメッセージが表示されます。...\n指示どおりコマンドを入力してください」のあたりが参考になると思います。\n\n**補足**\n\n私の理解が正しければ、`npm run tauri dev`を実行すると、(`npm install`で入れた)`@tauri-\napps/cli`パッケージが起動され、それが(`cargo install tauri-cli`で入れた)`tauri-\ncli`コマンドを実行する仕組みになっているはずです。([参考情報](https://github.com/tauri-\napps/tauri/tree/dev/tooling/cli/node#this-module))\n\n`tauri-cli`の方は先ほど入れていただいたので、あとは`npm install`で`@tauri-\napps/cli`パッケージを入れれば動くはずです。", "comment_count": 4, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T12:08:27.107", "id": "93184", "last_activity_date": "2023-01-04T13:48:30.623", "last_edit_date": "2023-01-04T13:48:30.623", "last_editor_user_id": "14101", "owner_user_id": "14101", "parent_id": "93183", "post_type": "answer", "score": 2 } ]
93183
null
93184
{ "accepted_answer_id": null, "answer_count": 0, "body": "前提条件としてXamarin.formsでSQLITEのパッケージsqlite-net-pclを使える状態にしています\n\n同じような構造体やクラスのメンバ変数を持っているクラスを操作するのにテンプレートが使えないのかなと思って試しているのですが \nテンプレートの使い方がわからないです\n\nやりたい事としては、同じカラム名のテーブルを取得するのに似たような書き方が連続するので \nまとめて同じ関数に出来ないかと思ったのですが・・・\n\n下のコードの中の \n_dbCon.Table() \nと言うのが、クラスを指定すると[Table]プロパティに指定されたテーブルから、 \nデータを取得し戻り値にデータを詰め込むメソッドです\n\n一番下に上手く行くコードを載せたのですが、これをテンプレートにする方法が知りたいです \n確かにメンバ変数の有無なんて事前にわからないし、 \n型を直接指定する関数に型の確定しないうちに渡したり、 \nnullが渡せるかわからないのにちょっと乱暴かもしれないですが \nそもそもTable関数自体がテンプレートで作られてそうですし \n何かいい書き方はないでしょうか\n\n最終的にはこんな感じで出来上がった関数を使用したいです \n**C_1 c1 = getMstLed(0);**\n\n上手く行かないコード\n\n```\n\n [Table(\"テーブル1\")]\n public class C_1\n {\n [Indexed(Name = \"keyC1\", Order = 1, Unique = true)]\n public int Idx { get; set; } = 0;\n [Indexed(Name = \"keyC1\", Order = 2, Unique = true)]\n public int LedNo { get; set; } = 1;\n //メンバ変数色々・・・・\n }\n \n [Table(\"テーブル2\")]\n public class C_2\n {\n [Indexed(Name = \"keyC2\", Order = 1, Unique = true)]\n public int Idx { get; set; } = 0;\n [Indexed(Name = \"keyC2\", Order = 2, Unique = true)]\n public int LedNo { get; set; } = 1;\n //メンバ変数色々・・・・\n }\n \n 以下、C_3,C_4・・・・・と続く\n \n \n /// <summary>データベースオブジェクト</summary>\n private SQLiteConnection _dbCon = new SQLiteConnection(\"xxx/data.db3\");\n \n /// <summary>データ取得</summary>\n public T getMstLed<T>(int index = 0) \n {\n var d = _dbCon.Table<T>().Where(x => x.Idx == index); //Table<T>に対してのエラー   パブリック パラメーターなしのコンストラクターを持つ非抽象型でなければなりません\n //x.Idxに対してのエラー 'T' に 'Idx' の定義が含まれておらず、型 'T' の最初の引数を受け付けるアクセス可能な拡張メソッド 'Idx' が見つかりませんでした。using ディレクティブまたはアセンブリ参照が不足していないことを確認してください\n \n if (d.Count() != 0)\n {\n return d.FirstOrDefault();\n }\n else\n {\n return null; //Null 非許容の値型である可能性があるため、Null を型パラメーター 'T' に変換できません。'default(T)' を使用してください。\n \n }\n }\n \n \n```\n\n上手く行くコード\n\n```\n\n public C_1 getMasterC1(int index = 0)\n {\n var d = _dbCon.Table<C_1>().Where(x => x.Idx == index);\n \n if (d.Count() != 0)\n {\n return d.FirstOrDefault();\n }\n else\n {\n return null;\n }\n }\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T13:22:34.873", "favorite_count": 0, "id": "93186", "last_activity_date": "2023-01-04T14:00:53.157", "last_edit_date": "2023-01-04T14:00:53.157", "last_editor_user_id": "3060", "owner_user_id": "10098", "post_type": "question", "score": 0, "tags": [ "c#", "sqlite" ], "title": "Xamarin(C#)でのテンプレートの使い方(データベースから取得したデータの格納について)", "view_count": 60 }
[]
93186
null
null
{ "accepted_answer_id": "93205", "answer_count": 1, "body": "例えば、メモ帳のエディット(文字入力)部分や、任意のアプリの特定のフォームに表示されている文字列を、powershellから取得できるでしょうか?\n\n環境: \nPowershell 5.1 \nWindows 10 \n※spy++等は使えません。 \n※何かをダウンロードすることはできず、Windows標準で付属している機能のみ使えます。", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-04T19:07:41.897", "favorite_count": 0, "id": "93187", "last_activity_date": "2023-01-06T02:20:09.790", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56253", "post_type": "question", "score": -1, "tags": [ "powershell" ], "title": "Powershellで、他アプリのフォームの値を取得できますか?", "view_count": 429 }
[ { "body": "できます。 \nただし下記のサンプルコードでは、任意のアプリのクラス名と特定のフォームのコントロール名をあらかじめ把握しておく必要があります。\n\n**サンプルコード**\n\n起動しているメモ帳のエディットから文字列を読み取る例です。 \n任意のアプリの特定のコントロールを読み取る場合は、コード末尾の`\"notepad\"`と`\"Edit\"`を適切な値に書き換えてください。\n\n```\n\n $Win32 = &{\n Add-Type -Assembly \"System.Runtime\" \n # ========= C#言語によるWin32Api関数定義(ここから) =========\n $cscode = @\" \n \n [DllImport(\"user32.dll\")]\n static extern IntPtr FindWindow(string lpClassName, string lpWindowName);\n [DllImport(\"user32.dll\", SetLastError = true)]\n public static extern IntPtr FindWindowEx(IntPtr hwndParent,IntPtr hwndChildafter,string lpszClass,string lpszWindow);\n [DllImport(\"user32.dll\", CharSet = CharSet.Unicode)]\n public static extern int SendMessage(IntPtr hwnd, int msg, IntPtr wparam, IntPtr lparam);\n [DllImport(\"user32.dll\", CharSet = CharSet.Unicode)]\n public static extern int SendMessage(IntPtr hwnd, int msg, IntPtr wparam, System.Text.StringBuilder lparam);\n \n public static IntPtr FindWindowByClass(string lpClassName) {\n return FindWindow(lpClassName, null);\n }\n \n public static string GetText(IntPtr hwndParent, string lpszClass) {\n int WM_GETTEXT = 0x000D;\n int WM_GETTEXTLENGTH = 0x000E;\n var hwnd = FindWindowEx(hwndParent, IntPtr.Zero, lpszClass, \"\"); // コントロールのハンドル\n Console.WriteLine(hwnd);\n var length = SendMessage(hwnd, WM_GETTEXTLENGTH, IntPtr.Zero, IntPtr.Zero); // コントロールの文字数\n Console.WriteLine(length);\n var sb = new System.Text.StringBuilder(length); /* length分のバッファサイズを確保 */\n SendMessage(hwnd, WM_GETTEXT, new IntPtr(length+1), sb);\n return sb.ToString();\n }\n \"@\n # ========= C#言語によるWin32Api関数定義(ここまで) =========\n \n return (add-type -memberDefinition $cscode -name \"Win32ApiFunctions\" -passthru)\n }\n # クラス名からメモ帳のハンドルを取得\n $notepad = $Win32::FindWindowByClass(\"notepad\")\n # エディットコントロールの文字列を取得\n $s = $Win32::GetText($notepad, \"Edit\")\n # 表示\n $s\n \n```\n\n**参考資料**\n\n * [powershellでWin32 APIを利用する(powershell 2.0以上)](https://qiita.com/y-takano/items/cb752ad6a10e550ec92f)\n * [C#で他のアプリケーションの値を読み取る。](https://kobazlab.tech/2015/10/01/c%E3%81%A7%E4%BB%96%E3%81%AE%E3%82%A2%E3%83%97%E3%83%AA%E3%82%B1%E3%83%BC%E3%82%B7%E3%83%A7%E3%83%B3%E3%81%AE%E5%80%A4%E3%82%92%E8%AA%AD%E3%81%BF%E5%8F%96%E3%82%8B%E3%80%82/)\n * [SendMessageのWM_GETTEXTとWM_GETTEXTLENGTHで大幅に文字数が異なる](https://ja.stackoverflow.com/q/38214)", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-06T02:20:09.790", "id": "93205", "last_activity_date": "2023-01-06T02:20:09.790", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "9820", "parent_id": "93187", "post_type": "answer", "score": 0 } ]
93187
93205
93205
{ "accepted_answer_id": "93191", "answer_count": 1, "body": "**〇実行環境** \nWindows 10 \nPython 3.X \npandas\n\nこちらのリンクでの質問内容の続きになります。 \n[pandasでの特定の条件下でのデータ取得ができない。](https://ja.stackoverflow.com/questions/93032/pandas%E3%81%A7%E3%81%AE%E7%89%B9%E5%AE%9A%E3%81%AE%E6%9D%A1%E4%BB%B6%E4%B8%8B%E3%81%A7%E3%81%AE%E3%83%87%E3%83%BC%E3%82%BF%E5%8F%96%E5%BE%97%E3%81%8C%E3%81%A7%E3%81%8D%E3%81%AA%E3%81%84?noredirect=1#comment106234_93032)\n\n**〇リンク先の質問** \n上記のリンクではpandasを使用して各idがカラムのどの「分類」に属しているかの質問をし、groupbyを使用して、各idごとの分類と数値を取得することができました。\n\n**〇質問内容** \n下記のdfを **加工したいデータ** に加工したいと考えています。 \n以前の質問のデータと違う点は2点あります。 \n一つ目は分類にtype4があること。 \nもう一つはidと分類が1対1ではなく、一つのidに対して分類が複数 \nあるものがあるということです。 \n下記のdfにはidのcccに二つの分類があると思います。\n\n今回のデータでは四つの分類がありますが、取得したいデータは \ntype1,type2,type3の三つにしぼりたいと考えています。\n\nまた、一つのidに対して、複数の分類がある場合にはそれらすべてを取得したいと考えています。(type4は取得しない)\n\n以前の質問では一つのidに対して一つの分類でしたので、groupbyを使用することでデータを取得することができましたが、複数ある場合はgroupbyでのデータ取得は難しいのではと考えています。\n\n地道にデータを取得することも考えたのですが、このような場合でも \nグルーピング化をして取得する方法があるかが気になり、質問させていただきました。 \n今回のデータの場合にもグルーピング化を使用してデータ取得をすることはできるのでしょうか? \nそれとも、地道に取得せざる終えないのでしょうか?\n\n**df(区切りが見やすいよう、csv形式にしています。)**\n\n```\n\n id, 数値, 分類\n aaa,,type2\n aaa,,\n aaa,111,type4\n bbb,,\n bbb,,type1\n bbb,222,\n ccc,,type3\n ccc,,\n ccc,,type1\n ccc,333\n ddd,,\n ddd,,\n ddd,1234,type2\n \n```\n\n**加工したいデータ**\n\n```\n\n id, 数値, 分類\n aaa,111,type2\n bbb,222,type1\n ccc,333,type3\n ccc,333,type1\n ddd,1234,type2\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-05T02:17:58.607", "favorite_count": 0, "id": "93190", "last_activity_date": "2023-01-05T03:25:23.507", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "47546", "post_type": "question", "score": 0, "tags": [ "python", "pandas" ], "title": "pandas グルーピング化を使用してデータ取得ができるかが知りたい。", "view_count": 76 }
[ { "body": "```\n\n typ = ('type1', 'type2', 'type3')\n dfx = df.groupby('id', group_keys=False)\\\n .apply(lambda x: x.assign(数値=x.iloc[-1]['数値']).dropna())\\\n .astype({'数値': int}).query('分類 in @typ').reset_index(drop=True)\n print(dfx)\n \n```", "comment_count": 6, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-05T03:25:23.507", "id": "93191", "last_activity_date": "2023-01-05T03:25:23.507", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "47127", "parent_id": "93190", "post_type": "answer", "score": 1 } ]
93190
93191
93191
{ "accepted_answer_id": null, "answer_count": 0, "body": "Python経由で、exeファイルを作成するプログラムを作成しました。 \nWinPython環境で、以下のスクリプトを実行しても不要なウインドウは表示されませんでした。\n\n```\n\n import os\n import subprocess\n import sys\n \n exePath = \"\"\n \n #PythonまたはPyinstallerでexe化したファイルの実行ファイルのパスを元に、同階層のC++ベースのexeファイルを探す\n ExecutionPath = os.path.dirname(os.path.abspath(sys.argv[0]))\n exePath = os.path.join(ExecutionPath,\"ExpressionApp\", 'ExpressionApp.exe')\n \n subprocess.Popen([exePath],shell=False)\n \n```\n\nしかし、上記のプログラムをPyinstallerを使用してexe化すると、「コンソールウインドウホスト」という不要な黒いウインドウが表示されてしまいます。 \n使用したPyinstallerコマンドは以下の通りです。\n\n```\n\n pip install pyinstaller\n pyinstaller test.py --onefile --noconsole\n \n```\n\n`--noconsole`オプションを使用しているので、Python自体のコンソールは表示されないのですが、呼び出し先のexeファイルの起動時にコンソールウインドウホストが表示されているようです。\n\nPythonから呼び出しに使用しているexeファイルは次のURLにあるものです。 \nこちらのコードはC++で書かれています。 \n<https://github.com/NVIDIA/MAXINE-AR-SDK/tree/master/samples/ExpressionApp>\n\nC++側の問題でコンソールウインドウホストが表示されてしまうのか、それともPython側のPyinstallerなどの仕様でコンソールウインドウホストが表示されてしまうのか分かりません。 \nこのウインドウを消す方法はあるのでしょうか?\n\nタスクマネージャーに表示されたコンソールウインドウホストの画像です。 \n[![画像の説明をここに入力](https://i.stack.imgur.com/cB7Rc.png)](https://i.stack.imgur.com/cB7Rc.png)", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-05T04:13:44.770", "favorite_count": 0, "id": "93193", "last_activity_date": "2023-01-05T04:13:44.770", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "34471", "post_type": "question", "score": 0, "tags": [ "python", "c++", "windows" ], "title": "Pyinstallerでexe化したexe経由で別のプログラムファイルを起動すると「コンソールウインドウホスト」という不要なウインドウが表示される", "view_count": 338 }
[]
93193
null
null
{ "accepted_answer_id": "93197", "answer_count": 2, "body": "##### 課題\n\nCognitoでアプリケーションロードバランサー(以後ALB)に実装した認証機能で、ログアウトしてログイン画面にリダイレクトする挙動を実装したいが、CORSエラーが発生している。\n\n##### 前提\n\nALBでEC2のインスタンスにリクエストを振り分けています。今回、ALBにCognitoで認証機能を実装しました。未ログインの状態でインスタンスにアクセスするとCognitoで作成されたログイン画面が表示され、ログイン情報を入力すると表示したい画面が表示されるようになりました。 \nその後、ログアウト機能を実装するためにサーバーサイドプログラムでブラウザに保存されたセッションCookieの削除とログアウトエンドポイントへのリダイレクトレスポンスをレスポンスする機能を実装しました。\n\n##### 実現したいこと\n\nログインした後の画面に、ログアウトボタンを配置しボタンを押下することでサーバーサイドのプログラムを呼び出し、ログアウトしてさらにログイン画面を表示したい。\n\n#### 考えられる問題\n\nログアウトエンドポイントにリダイレクトしようとすると、CORSエラーが発生します。これはCognitoのドメインとログイン後の画面のドメインが違うためだと思われます。fetch\nAPIでサーバーサイドプログラムを呼び出しているのでno-corsを使用したのですが、その場合だとレスポンスデータが返されないためno-\ncorsを使用しないで、Access-Control-Allow-\nOriginのような形で設定する必要があるのかなと思ったのですが、そういったことを取り上げているサイトがなかったので質問させていただきました。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-05T05:37:40.563", "favorite_count": 0, "id": "93196", "last_activity_date": "2023-01-16T06:16:31.073", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "55996", "post_type": "question", "score": 0, "tags": [ "javascript", "amazon-elb", "認証認可" ], "title": "アプリケーションロードバランサーとCognitoを使用した認証機能でのログアウト", "view_count": 273 }
[ { "body": "fetch API で Cognito のログアウトエンドポイントにリクエストを送られていると理解しました。\n\n<https://docs.aws.amazon.com/ja_jp/cognito/latest/developerguide/logout-\nendpoint.html>\n\nfetch API でリクエストを送るのではなく、location.href() に適切なパラメータを付けた URL\nを渡して、リダイレクトするようにしてください。パラメータの1つである redirect_uri がログアウト後に表示させたい URL になります。\n\n> ログアウトしてさらにログイン画面を表示したい\n\nまずは基本的に動作を理解するために、redirect_uri には認証が不要なページの URL\nを指定してログアウトを実装できるか確認されるといいと思います。その上で、ログイン画面を自動的に表示させたいのであれば、認証が必要なアプリの URL\nに自動的にリダイレクトさせれば、ALB が自動的に Cognito のログイン画面 (Hosted UI) にリダイレクトしてくれます。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-05T07:09:23.483", "id": "93197", "last_activity_date": "2023-01-05T07:09:23.483", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "5959", "parent_id": "93196", "post_type": "answer", "score": 1 }, { "body": "Yoshi様に回答してもらったのち、調べてみたところホストされたUIを使用している場合、ajaxなどの非同期処理を行った際にCORSエラーが発生するのは現時点(2022/01/16)での仕様ということでした。 \nホストされたUIの場合、CORSの設定を行うことができない状態ですがこの問題が解決される時期等は不明とのことです。 \n現状は、ブラウザから直接リクエストを送信する方法でCORSエラーを回避するしかないようです。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-16T06:15:50.273", "id": "93377", "last_activity_date": "2023-01-16T06:16:31.073", "last_edit_date": "2023-01-16T06:16:31.073", "last_editor_user_id": "55996", "owner_user_id": "55996", "parent_id": "93196", "post_type": "answer", "score": 0 } ]
93196
93197
93197
{ "accepted_answer_id": null, "answer_count": 0, "body": "ReactPlayer(hls.js)を用いて、HLS配信を行おうと考えています。 \nHLS配信を行う為に必要なS3やCloudFrontの設定は一通りしたつもりですが、動画配信画面でエラーが出ています。\n\n```\n\n Access to XMLHttpRequest at 'https://cdn.hogehoge.com/movies/hogehoge.m3u8' from origin 'https://www.hogehoge.com' has been blocked by CORS policy: The value of the 'Access-Control-Allow-Origin' header in the response must not be the wildcard '*' when the request's credentials mode is 'include'. The credentials mode of requests initiated by the XMLHttpRequest is controlled by the withCredentials attribute.\n \n```\n\nこちらのエラーの対応としてAllowedOriginsにオリジンのドメインを指定するとあったので、S3のCORS設定にて以下の様に設定してみましたが、エラーの内容が変わりません。\n\n何かお気付きの点、または解答に必要な情報がございましたら、ご指摘いただけますと幸いです。\n\n```\n\n [\n {\n \"AllowedHeaders\": [\n \"*\"\n ],\n \"AllowedMethods\": [\n \"GET\",\n \"HEAD\"\n ],\n \"AllowedOrigins\": [\n \"https://www.hogehoge.com\",\n ],\n \"ExposeHeaders\": [\n \"Access-Control-Allow-Origin\"\n ]\n }\n ]\n \n```\n\n参考にしたサイト \n[CloudFrontとS3でHLSの動画配信を行う\n(動画サイト構築までの道①)](https://zenn.dev/jinwatanabe/articles/3d84675c06ee43) \n[署名付き Cookie を使用して HLS コンテンツを取得してみた](https://dev.classmethod.jp/articles/get-\nhls-using-signedcookie/)", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-05T09:31:48.180", "favorite_count": 0, "id": "93198", "last_activity_date": "2023-01-05T12:47:20.937", "last_edit_date": "2023-01-05T12:47:20.937", "last_editor_user_id": "3060", "owner_user_id": "55273", "post_type": "question", "score": 0, "tags": [ "reactjs", "amazon-s3", "hls" ], "title": "ReactPlayer(hls.js)でHLS配信を実現 CloudFrontエラー「The value of the 'Access-Control-Allow-Origin' header in the response must not be the wildcard '*'」", "view_count": 137 }
[]
93198
null
null
{ "accepted_answer_id": null, "answer_count": 1, "body": "タイトルの通りなのですが、あまりデータの範囲が広くないシートの場合は下記コードで正常に動きます。\n\nA1セルにIMPORTRANGEの数式が入っている場合に、そこから全セルの値を取得してそれをsetValuesすることで、A1セルは値になり、他のすべてのセルの値も残ります。\n\n```\n\n const values = sheet.getRange(\n 1, 1, sheet.getLastRow(), sheet.getLastColumn()\n ).getValues();\n \n sheet.getRange(\n 1, 1, sheet.getLastRow(), sheet.getLastColumn()\n ).setValues(values);\n \n```\n\nですが、より大きなシートになるとsetValuesの途中で6分間の制限にひっかかってしまい、データのすべてがセルに残らなくなってしまうのです。\n\nより高速にとか簡単にGASで、A1セルのIMPORTRANGEの式で取得できた内容をすべて保持しながらA1セルの数式を消すことはできないでしょうか?\n\n単純にA1セルを空白にすると、当然ですがIMPORTRANGEでもってこれていた値はすべて消えてしまいます。\n\nよろしくおねがいします。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-05T15:18:54.923", "favorite_count": 0, "id": "93200", "last_activity_date": "2023-01-06T04:28:23.897", "last_edit_date": "2023-01-06T04:28:23.897", "last_editor_user_id": "3060", "owner_user_id": "21047", "post_type": "question", "score": 1, "tags": [ "google-apps-script", "google-spreadsheet" ], "title": "GASのコードでSpreadSheetのセルの数式IMPORTRANGEで取得されているものを置き換えて値として貼り付けたい", "view_count": 305 }
[ { "body": "自己解決しました。\n\nsetValues は意外と低速で数十列の万単位行だとタイムアウトしますが \n次のようにすると数分で処理が終わりました。\n\n * シートをすべてコピーしてバックアップシートにする。当然IMPORTRANGE部分もコピーされる。\n * 元シートのIMPORTRANGEの数式を削除する(そのシートのデータは全部消える)\n * バックアップシートから元シートへ、range.copyTo(range) を行う。数値のみのコピーなど指定可能。\n * バックアップシートを削除する\n\nこのようにすると、IMPORTRANGEで表示されていたものがIMPORTRANGEをけして値として取得することができます。 \nこれで2,3,4分くらいかかりますが、動作範囲内で処理が終わりました。\n\nもっとよい方法がありましたら、記載いただけたら助かります。よろしくおねがいします。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-05T17:55:13.177", "id": "93203", "last_activity_date": "2023-01-05T17:55:13.177", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "21047", "parent_id": "93200", "post_type": "answer", "score": 1 } ]
93200
null
93203
{ "accepted_answer_id": "93217", "answer_count": 1, "body": "最終的にやりたいこと \n親子孫階層カテゴリーをPHPで表示したい\n\nQ \n検索したら、[[PHP]\n親、子、孫のカテゴリを登録・表示するサンプルを作成してみた【再帰関数版】](https://nprog256.net/post/2020/03/create-\nsample-register-and-show-category-hierarchy-by-recursive-\nfunction/)が見つかったのですが、下記のようなデータをPHPで取得するためには、MySQLテーブル構成はどうすればよいですか? \n・'cat''subcat''subsubcat'の 3 つのテーブルを作る? \n・あるいは、どのようなテーブル構成にしても、下記構成のデータは取得できますか?\n\n```\n\n 46$files = [\n 47 'file1' => [\n 48 'cat' => '本',\n 49 'subcat' => 'プログラミング',\n 50 'subsubcat' => 'php',\n 51 ],\n 52 'file2' => [\n 53 'cat' => '仕事',\n 54 'subcat' => 'プログラミング',\n 55 'subsubcat' => 'php',\n 56 ],\n 57 'file3' => [\n 58 'cat' => '仕事',\n 59 'subcat' => '転職',\n 60 'subsubcat' => 'it業界',\n 61 ],\n 62 'file4' => [\n 63 'cat' => '本',\n 64 'subcat' => '自己啓発',\n 65 ],\n 66 'file5' => [\n 67 'cat' => 'Amazon',\n 68 ],\n 69];\n \n```\n\n※最適と思われるテーブル構成を知りたいです\n\n環境 \nMySQL 5.7 \nPHP 7.2\n\n* * *\n\n要件を修正&追記しました。 \n階層の深さは、親子孫までの 3 階層が必須。 \nそれより深い階層については、長所短所を把握したうえで決めたい。 \n※構成が複雑になったり速度に支障が出るようなら 3 階層までにしたい。 \nまた、カテゴリー名は重複しません。※'プログラミング'が重複していた前提データは修正しました\n\n```\n\n 46$files = [\n 47 'file1' => [\n 48 'cat' => '本',\n 49 'subcat' => 'プログラミング',\n 50 'subsubcat' => 'php',\n 51 ],\n 52 'file2' => [\n 53 'cat' => '仕事',\n 54 'subcat' => 'プログラマー',\n 55 'subsubcat' => '派遣',\n 56 ],\n 57 'file3' => [\n 58 'cat' => '仕事',\n 59 'subcat' => '転職',\n 60 'subsubcat' => 'it業界',\n 61 ],\n 62 'file4' => [\n 63 'cat' => '本',\n 64 'subcat' => '自己啓発',\n 65 ],\n 66 'file5' => [\n 67 'cat' => 'Amazon',\n 68 ],\n 69];\n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-06T02:29:35.370", "favorite_count": 0, "id": "93206", "last_activity_date": "2023-01-10T17:24:05.553", "last_edit_date": "2023-01-10T17:24:05.553", "last_editor_user_id": "7886", "owner_user_id": "7886", "post_type": "question", "score": -2, "tags": [ "php", "mysql" ], "title": "親子孫階層構造データのMySQLテーブル構成について", "view_count": 225 }
[ { "body": "要件に関する記載が少なすぎてDBの正規化がしづらい状況かと思います。\n\n例えば`subcat`が`プログラミング`で同じでも、親である`cat`が別カテゴリなので`subcat`の`プログラミング`も別のカテゴリとして扱って良いのか。 \n階層の深さに上限はあるのか。などもう少し、やりたいことの要件を記載してほしいです。\n\n別のカテゴリとして扱って良く、親子孫階層カテゴリーの階層が深くならないのであれば、以下の2つのテーブルがあれば実現できるかと思います。\n\n 1. カテゴリテーブル\n 2. カテゴリとファイルを紐付けるテーブル\n\n各テーブルの大まかな構造は以下の通り。\n\n * カテゴリテーブル\n\nカテゴリID | 親カテゴリID | カテゴリ名 \n---|---|--- \n1 | | 本 \n2 | | 仕事 \n3 | | Amazon \n4 | 1 | プログラミング \n5 | 2 | プログラミング \n6 | 2 | 転職 \n7 | 1 | 自己啓発 \n8 | 4 | php \n9 | 5 | php \n10 | 6 | it業界 \n \n * カテゴリとファイルを紐付けるテーブル\n\nファイルID | ファイル名 | カテゴリID \n---|---|--- \n1 | file1 | 8 \n2 | file2 | 9 \n3 | file3 | 10 \n4 | file4 | 7 \n5 | file5 | 3 \n \n上記の2つのテーブルであれば、ファイルのリストをDBから取得したついでに、最下層のカテゴリIDを取得することになるので、 \n後はPHP側で「カテゴリ名と親カテゴリIDを取得する」関数を親カテゴリが無くなるまで再帰的実行すれば要望の構成を実現することはできるかと思います。\n\n質問の例ですと3階層までしかないので、4階層以上があり得るか判断できませんが、 \n上記のカテゴリテーブルであれば、再帰的な構造なので理論上は何階層でもできます。 \n※階層が深くなると再帰関数の呼び出しが増えるのでオススメはしませんが。 \nまた、階層の深さによって`subsubcat`の部分も`subsubsubcat`の様に変えていくのであれば、再帰呼び出しの際にカウントすることで、対象のカテゴリの深さは判別かのうかと思います。\n\n後は、要件に合わせてカラムを追加するなり、テーブルを分離するなりしてください。\n\nこちらで回答の助けになってますか?", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-06T09:26:15.807", "id": "93217", "last_activity_date": "2023-01-06T09:26:15.807", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56419", "parent_id": "93206", "post_type": "answer", "score": 2 } ]
93206
93217
93217
{ "accepted_answer_id": "93208", "answer_count": 1, "body": "タイトルにあるようにあるCSVデータをpd.csv_readで読み込み、 \ndataframeのcolumnsを変更するとindexの行の上に「0」が入ります。 \nそのままデータフレームのplot()を実行すると凡例に「0」が入ってしまいます。 \nこの0の削除方法をご教示お願いします。\n\nCSVデータは以下です。\n\n```\n\n import pandas as pd #pandasのインポート\n \n df = pd.read_csv('test_data.csv')\n print(df)\n \n```\n\n実行結果A(test_data.csv)\n\n```\n\n Unnamed: 0 正弦波01 0.25Hz 正弦波02 0.2Hz 正弦波03 0.3Hz 正弦波04 0.15Hz\n 0 時刻[sec] 振幅 振幅 振幅 振幅\n 1 0 0 0 0 0\n 2 0.1 0.156434465 0.062666617 0.13116692 0.047054157\n 3 0.2 0.309016994 0.124344944 0.257687187 0.093690657\n 4 0.3 0.4539905 0.184062276 0.375078756 0.139495553\n .. ... ... ... ... ...\n 97 9.6 0.587785252 -0.240876837 -0.479182974 0.184062276\n 98 9.7 0.4539905 -0.184062276 -0.375078756 0.139495553\n 99 9.8 0.309016994 -0.124344944 -0.257687187 0.093690657\n 100 9.9 0.156434465 -0.062666617 -0.13116692 0.047054157\n 101 10 6.12574E-16 -2.4503E-16 -5.14562E-16 1.83772E-16\n \n [102 rows x 5 columns]\n \n```\n\n実行コードは以下\n\n```\n\n import pandas as pd #pandasのインポート\n \n #データの1行目を読み込み。\n temp = pd.read_csv(\"test_data.csv\", header=None, nrows=1)\n #1行目をHeader作成 \n header = temp.iloc[0]\n \n #3行目以降のデータだけ読み込み\n df = pd.read_csv(\"test_data.csv\", header=None, skiprows=2)\n \n #カラム名にheaderを指定\n df.columns = header\n print(df)\n \n #結果確認 1列目を横軸に指定\n import japanize_matplotlib #日本語ライブラリのインポート\n df.plot(x=df.columns[0])\n \n \n```\n\n実行結果B\n\n```\n\n 0 NaN 正弦波01 0.25Hz 正弦波02 0.2Hz 正弦波03 0.3Hz 正弦波04 0.15Hz\n 0 0.0 0.000000e+00 0.000000e+00 0.000000e+00 0.000000e+00\n 1 0.1 1.564345e-01 6.266662e-02 1.311669e-01 4.705416e-02\n 2 0.2 3.090170e-01 1.243449e-01 2.576872e-01 9.369066e-02\n 3 0.3 4.539905e-01 1.840623e-01 3.750788e-01 1.394956e-01\n 4 0.4 5.877853e-01 2.408768e-01 4.791830e-01 1.840623e-01\n .. ... ... ... ... ...\n 96 9.6 5.877853e-01 -2.408768e-01 -4.791830e-01 1.840623e-01\n 97 9.7 4.539905e-01 -1.840623e-01 -3.750788e-01 1.394956e-01\n 98 9.8 3.090170e-01 -1.243449e-01 -2.576872e-01 9.369066e-02\n 99 9.9 1.564345e-01 -6.266662e-02 -1.311669e-01 4.705416e-02\n 100 10.0 6.125740e-16 -2.450300e-16 -5.145620e-16 1.837720e-16\n \n [101 rows x 5 columns]\n <AxesSubplot: xlabel='nan'>\n \n```\n\n[![プロットの結果](https://i.stack.imgur.com/igLv6.png)](https://i.stack.imgur.com/igLv6.png)\n\n解決したい問題は以下です。\n\n * 実行結果Bのprint(df)のdataframeの左上に「0」が出現しており削除したい。またこの正体を知りたい。\n * 実行結果Bのplotの凡例に「0」が出現しており削除したい。またこの正体を知りたい。\n\n試したこと \n実行コードの、\n\n```\n\n #3行目以降のデータだけ読み込み\n df = pd.read_csv(\"test_data.csv\", header=None, skiprows=2)\n \n```\n\nの時点でのdfをプロット「df.plot()」した場合は、 \n「0」は入りませんでした。 \n「0」が出現するのは、以下の部分が原因と思っています。\n\n```\n\n #カラム名にheaderを指定\n df.columns = header\n \n```\n\nお手数ですが、ご教示いただけると助かります。 \nよろしくお願いします。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-06T03:17:11.767", "favorite_count": 0, "id": "93207", "last_activity_date": "2023-01-06T03:46:22.763", "last_edit_date": "2023-01-06T03:30:26.493", "last_editor_user_id": "19110", "owner_user_id": "56411", "post_type": "question", "score": 1, "tags": [ "python", "pandas", "dataframe" ], "title": "dataframeのcolumnsを変更するとindexの上に0が入る", "view_count": 131 }
[ { "body": "CSV 側にヘッダー行が実質 2 行分あって、2 行目は無視したいが、そのための処理を書いたとき意図しない位置にも名前が入ってしまうということですね。\n\n`pd.read_csv` をする際に `skiprows=2` で先頭の 2 行を無視するのではなくて、`skiprows=[1]` で 2\n行目だけ無視するようにするのが早いです。\n\n```\n\n df = pd.read_csv('test_data.csv', skiprows=[1])\n \n```\n\n<https://pandas.pydata.org/docs/reference/api/pandas.read_csv.html>\n\n> **skiprows** : _list-like, int or callable, optional_ \n> Line numbers to skip (0-indexed) or number of lines to skip (int) at the\n> start of the file.\n\nなお、質問文のやり方でいくつかの場所に `0` が出現するのは、`iloc[0]` を使った関係で `df.columns` の `name` に `0`\nが設定されているためです。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-06T03:46:22.763", "id": "93208", "last_activity_date": "2023-01-06T03:46:22.763", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "19110", "parent_id": "93207", "post_type": "answer", "score": 1 } ]
93207
93208
93208
{ "accepted_answer_id": "93226", "answer_count": 1, "body": "### やりたいこと\n\n * libvipsの `vips copy`コマンドでPDFを画像化する際に、注釈を表示したい。\n * レンダーはpdfiumを使用したい。\n\n### 試したコマンド\n\n * libvipsをインストール\n\n```\n\n export PREFIX=/usr/local/vips\n export PKG_CONFIG_PATH=$PREFIX/lib/pkgconfig\n export LD_LIBRARY_PATH=$PREFIX/lib\n export PATH=$PATH:$PREFIX/bin\n \n WORKDIR=/usr/local/src\n VIPS_URL=https://github.com/libvips/libvips/releases/download\n PDFIUM_URL=https://github.com/bblanchon/pdfium-binaries/releases/download/chromium\n \n PDFIUM_VERSION=5351\n VIPS_VERSION=8.13.2\n \n # 関連ライブラリをインストール\n yum install -y \\\n libpng-devel \\\n poppler-glib-devel \\\n glib2-devel \\\n libjpeg-devel \\\n expat-devel \\\n zlib-devel \\\n orc-devel \\\n lcms2-devel \\\n libexif-devel \\\n libgsf-devel\n \n # pdftoppm\n yum install -y poppler-utils\n \n cd $WORKDIR\n \n ## install PDFIUM\n mkdir pdfium-$PDFIUM_VERSION \\\n && cd pdfium-$PDFIUM_VERSION \\\n && wget $PDFIUM_URL/$PDFIUM_VERSION/pdfium-linux-x64.tgz\n mkdir -p $PREFIX/lib/pkgconfig \\\n && cd $PREFIX \\\n && tar xf $WORKDIR/pdfium-$PDFIUM_VERSION/pdfium-linux.tgz \\\n && echo \"prefix=$PREFIX\" >> lib/pkgconfig/pdfium.pc \\\n && echo \"exec_prefix=\\${prefix}\" >> lib/pkgconfig/pdfium.pc \\\n && echo \"libdir=\\${exec_prefix}/lib\" >> lib/pkgconfig/pdfium.pc \\\n && echo \"includedir=\\${prefix}/include\" >> lib/pkgconfig/pdfium.pc \\\n && echo \"Name: pdfium\" >> lib/pkgconfig/pdfium.pc \\\n && echo \"Description: pdfium\" >> lib/pkgconfig/pdfium.pc \\\n && echo \"Version: $PDFIUM_VERSION\" >> lib/pkgconfig/pdfium.pc \\\n && echo \"Requires: \" >> lib/pkgconfig/pdfium.pc \\\n && echo \"Libs: -L\\${libdir} -lpdfium\" >> lib/pkgconfig/pdfium.pc \\\n && echo \"Cflags: -I\\${includedir}\" >> lib/pkgconfig/pdfium.pc\n \n ## install libvips\n wget $VIPS_URL/v$VIPS_VERSION/vips-$VIPS_VERSION.tar.gz \\\n && tar xf vips-$VIPS_VERSION.tar.gz \\\n && cd vips-$VIPS_VERSION \\\n && ./configure --prefix $PREFIX \\\n && make V=0 \\\n && make install\n \n```\n\n * PDFを画像化\n\n```\n\n vips copy intput.pdf[page=1,dpi=192] output_1_.jpg[Q=100]\n \n```\n\n### 試した結果\n\n * PDFの内容がjpeg画像として保存された。(OK)\n * ただし、PDFには存在する注釈が、jpeg画像には表示されていなかった。(NG)\n\n[![ghostscriptで変換すると注釈が表示される](https://i.stack.imgur.com/luiax.png)](https://i.stack.imgur.com/luiax.png) \n[![libvipsで変換すると注釈が表示されない](https://i.stack.imgur.com/9lwJ6.png)](https://i.stack.imgur.com/9lwJ6.png)", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-06T05:13:43.577", "favorite_count": 0, "id": "93210", "last_activity_date": "2023-01-07T08:08:55.783", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56414", "post_type": "question", "score": 0, "tags": [ "pdf" ], "title": "libvipsのcopyコマンドでPDFを画像化する際に、注釈を表示させる方法を知りたい", "view_count": 136 }
[ { "body": "## 結論\n\n次のように libvips をコンパイルすれば、PDFを画像化する際に注釈を表示できます。 \n4行目(sed -z ~)を追加してします。\n\n```\n\n wget $VIPS_URL/v$VIPS_VERSION/vips-$VIPS_VERSION.tar.gz \\\n && tar xf vips-$VIPS_VERSION.tar.gz \\\n && cd vips-$VIPS_VERSION \\\n && sed -z -i 's/FPDF_RenderPageBitmap[^;]*;/FPDF_RenderPageBitmap( bitmap, pdf->page, 0, 0, rect.width, rect.height, 0, 1 );/' ./libvips/foreign/pdfiumload.c \\\n && ./configure --prefix $PREFIX \\\n && make V=0 \\\n && make install\n \n```\n\nlibvips は PDFium の FPDF_RenderPageBitmap 関数を実行する際に、注釈を表示しないオプションを指定しています。\n上は注釈を表示するオプションにソースコードを書き換えてコンパイルしています。\n\n## PDFium\n\nFPDF_RenderPageBitmap関数の最後の引数に、RenderFlags.FPDF_ANNOT=1\nを指定して実行すると、PDFの注釈を表示するようです。\n\n```\n\n public static void FPDF_RenderPageBitmap(\n IntPtr bitmap,\n IntPtr page,\n int start_x,\n int start_y,\n int size_x,\n int size_y,\n PageRotate rotate,\n RenderFlags flags\n )\n \n```\n\n<https://pdfium.patagames.com/help/html/M_Patagames_Pdf_Pdfium_FPDF_RenderPageBitmap.htm>\n\n## libvips\n\nlibvips側のコードを確認すると、最後の引数が 0 になっており、アノテーションを表示しないオプションが指定されています。 最後の引数を 1\nに変更することで、目的を達成できます。\n\nlibvips/foreign/pdfiumload.c\n\n```\n\n FPDF_RenderPageBitmap( bitmap, pdf->page, \n 0, 0, rect.width, rect.height,\n 0, 0 ); \n \n```\n\n<https://github.com/libvips/libvips/blob/976db37f84b5ab2d77e85cf3b123f63f97c35d39/libvips/foreign/pdfiumload.c#L592>\n\n## libvips のコンパイル\n\n```\n\n sed -z -i 's/FPDF_RenderPageBitmap[^;]*;/FPDF_RenderPageBitmap( bitmap, pdf->page, 0, 0, rect.width, rect.height, 0, 1 );/' ./libvips/foreign/pdfiumload.c \n \n```\n\n上のコマンドで、次のように、最後の引数を 0 → 1 に変更しています。\n\n```\n\n FPDF_RenderPageBitmap( bitmap, pdf->page, \n 0, 0, rect.width, rect.height,\n 0, 0 ); \n        ↓\n FPDF_RenderPageBitmap( bitmap, pdf->page, 0, 0, rect.width, rect.height, 0, 1 );\n         \n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T08:08:55.783", "id": "93226", "last_activity_date": "2023-01-07T08:08:55.783", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56412", "parent_id": "93210", "post_type": "answer", "score": 1 } ]
93210
93226
93226
{ "accepted_answer_id": null, "answer_count": 1, "body": "**やりたいこと**\n次のようなデータフレームのtitleのColumnからyearを抽出して別にyearのColumnを設けたい。[![画像の説明をここに入力](https://i.stack.imgur.com/OvMva.jpg)](https://i.stack.imgur.com/OvMva.jpg)\n**問題点** だが、以下のようなコードを試してみると警告が表示され、yearのColumnの値が全てNaNになってしまう。\n\n```\n\n def rm_dates_from_title(df: pd.DataFrame):\n df['year'] = df.title.str.extract('(\\(\\d\\d\\d\\d\\))', expand=False)\n \n df['year'] = df.year.str.extract('(\\d\\d\\d\\d)', expand=False)\n \n df['title'] = df.loc.title.str.replace('(\\(\\d\\d\\d\\d\\))', '', regex=True)\n \n rm_dates_from_title(recommended_movies)\n recommended_movies.head(20)\n \n```\n\n[![画像の説明をここに入力](https://i.stack.imgur.com/DkEw2.jpg)](https://i.stack.imgur.com/DkEw2.jpg)", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-06T07:26:20.917", "favorite_count": 0, "id": "93212", "last_activity_date": "2023-01-06T11:20:00.467", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56418", "post_type": "question", "score": 1, "tags": [ "python", "dataframe" ], "title": "DataframeのColumnのうちの一つがNaNになってしまう", "view_count": 71 }
[ { "body": "手元の環境は Pandas 1.5.2 ですが、以下の様に記述すると問題の\n`warning`(`SettingWithCopyWarning`)は表示されません(もっとも、質問に掲示されているコードでも表示されませんけれども)。\nコメントにも書きましたが、`title` に括弧で囲まれた4桁の数字(映画の公開年)が含まれていない場合は `NaN` になります。\n\n```\n\n import pandas as pd\n import io\n \n csv_data = '''\n movieid,title,genres\n 50,\"Usual Suspects, The\",Crime|Mystery|Thriller\n 110,Braveheart,Action|Drama|War\n 260,Star Wars: Episode IV - New Hope(1977),Action|Adventure|Sci-Fi\n '''\n df = pd.read_csv(io.StringIO(csv_data))\n \n #\n rx = r'\\((\\d{4})\\)'\n df['year'] = df['title'].str.extract(rx, expand=False)\n df['title'] = df['title'].str.replace(rx, '', regex=True)\n \n print(df)\n \n```\n\nmovieid | title | genres | year \n---|---|---|--- \n50 | Usual Suspects, The | Crime|Mystery|Thriller | nan \n110 | Braveheart | Action|Drama|War | nan \n260 | Star Wars: Episode IV - New Hope | Action|Adventure|Sci-Fi | 1977", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-06T08:26:49.957", "id": "93215", "last_activity_date": "2023-01-06T11:20:00.467", "last_edit_date": "2023-01-06T11:20:00.467", "last_editor_user_id": "47127", "owner_user_id": "47127", "parent_id": "93212", "post_type": "answer", "score": 1 } ]
93212
null
93215
{ "accepted_answer_id": null, "answer_count": 1, "body": "EC-CUBEというEC系のCMSを利用してECサイトを運営している者です。 \nタイトルの通り、Webサーバがダウンする事象があり、原因究明のためにログを確認している中で、サーバサイドには知見が少なく行き詰ってしまったため質問させていただきました。\n\n## 障害内容\n\nWebサイトが閲覧できなくなる事象が発生しました。 \nサーバ監視ツールにて確認したところ、メモリやCPUの使用率は事象発生中も記録できていたので、 \nサーバーそのもののダウンではなく、Webサーバーが応答しなくなってしまっている状態でした。 \nApacheのプロセス数を監視していたため合わせて確認したところ、Apacheのプロセス数が上限に張り付いてしまっていました。 \n本番運用中の環境であった為、Apacheの再起動を実施したところ復旧しました。\n\n## 環境\n\n環境 | バージョン \n---|--- \nServer | Ubuntu20.04 \nWeb Server | Apache 2.4.41 \nDatabase | PostgreSQL 10.15 \nPHP | PHP 7.4.3 \n \n**mpm_prefork.conf**\n\n```\n\n <IfModule mpm_prefork_module>\n StartServers 50\n MinSpareServers 40\n MaxSpareServers 80\n ServerLimit 450\n MaxRequestWorkers 450\n MaxConnectionsPerChild 1000\n </IfModule>\n \n```\n\n## 質問\n\n事象発生時に、以下のApacheの`eroor.log`ログに出力されていました。 \n自分なりに調べてはみたものの、有力な情報がなく原因究明が行き詰ってしまっています。\n\n```\n\n Thu Jan 5 21:50:53 2023 (1737260): Error Cannot kill process 1728648: Success!\n Thu Jan 5 21:50:53 2023 (1737240): Error Cannot kill process 1730876: Success!\n Thu Jan 5 21:50:54 2023 (1737399): Error Cannot kill process 1726872: Success!\n Thu Jan 5 21:50:54 2023 (1737335): Error Cannot kill process 1728071: Success!\n Thu Jan 5 21:50:55 2023 (1737339): Error Cannot kill process 1734122: Success!\n Thu Jan 5 21:50:56 2023 (1737334): Error Cannot kill process 1730320: Success!\n Thu Jan 5 21:50:57 2023 (1737338): Error Cannot kill process 1733987: Success!\n Thu Jan 5 21:50:58 2023 (1737331): Error Cannot kill process 1735553: Success!\n Thu Jan 5 21:50:59 2023 (1737311): Error Cannot kill process 1735205: Success!\n Thu Jan 5 21:51:00 2023 (1737398): Error Cannot kill process 1734620: Success!\n Thu Jan 5 21:51:01 2023 (1737239): Error Cannot kill process 1729939: Success!\n Thu Jan 5 21:51:02 2023 (1737330): Error Cannot kill process 1735123: Success!\n Thu Jan 5 21:51:03 2023 (1737176): Error Cannot kill process 1729555: Success!\n Thu Jan 5 21:51:05 2023 (1737207): Error Cannot kill process 1733928: Success!\n Thu Jan 5 21:51:06 2023 (1737337): Error Cannot kill process 1735140: Success!\n Thu Jan 5 21:51:07 2023 (1737336): Error Cannot kill process 1734001: Success!\n Thu Jan 5 21:51:08 2023 (1737242): Error Cannot kill process 1725450: Success!\n Thu Jan 5 21:51:09 2023 (1737245): Error Cannot kill process 1729962: Success!\n Thu Jan 5 21:51:10 2023 (1737261): Error Cannot kill process 1727778: Success!\n Thu Jan 5 21:51:11 2023 (1737210): Error Cannot kill process 1734691: Success!\n Thu Jan 5 21:51:12 2023 (1737174): Error Cannot kill process 1733986: Success!\n Thu Jan 5 21:51:13 2023 (1737241): Error Cannot kill process 1734107: Success!\n Thu Jan 5 21:51:14 2023 (1737260): Error Cannot kill process 1734696: Success!\n ~~~ 沢山 ~~~\n \n```\n\n**Q1.** このログはどういった場合に出力されるログなのでしょうか? \nApacheの子プロセスが何らかの原因によって使用できなくなり、`mpm\nprefork`が過剰なスタンバイプロセスを`kill`しようとしたができなかったといった状況の時に発報するログなのでしょうか。\n\n**Q2.** 原因がApacheが利用できない子プロセスを`kill`できないことだとして、これを解決する設定などはあるのでしょうか?\n\n本来であれば復旧前に`systemctl status apache2`等で状態を確認しておくべきだったかと思いますが、確認できていませんでした。\n\n## 気になる点\n\n * 上記のログは事象発生から2~3分程度頻発し、その後ログの出力は無くなった。\n * 事象発生時以降のEC-CUBEのログ出力は無い。\n * ロードバランサーのアクセスログを確認したが、事象発生前に急激なアクセス増加があったわけではない。\n * Apacheのプロセス数が上限で張り付いた際も、CPUおよびメモリの使用率には若干の余裕があった。\n * 事象発生に呼応する様にCPUおよびメモリの使用率が減少していたのでメモリリークやCPUの頭打ちといったことが原因ではないと思われる。\n * 上記のログ以外に怪しいログは無く、普段通りのログの状況であった。\n\n情報が非常に少なく申し訳ございませんが、皆様のお知恵をお貸しいただければ幸いです。 \n宜しくお願い申し上げます。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-06T08:31:09.010", "favorite_count": 0, "id": "93216", "last_activity_date": "2023-01-10T13:50:34.903", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56419", "post_type": "question", "score": 1, "tags": [ "ubuntu", "apache" ], "title": "子プロセスの起動数が上限に張り付いてApacheが応答しなくなりました。", "view_count": 426 }
[ { "body": "検索すると、以下のような報告が見つかりました。 \n<https://serverfault.com/questions/963166/> \n<https://github.com/mind04/mod-ruid2/issues/17>\n\n\"Error Cannot kill process\" のログは PHP opcache モジュールで出力しているようですが、opcache\nモジュールを有効にしていますでしょうか?\n\n> Q1. このログはどういった場合に出力されるログなのでしょうか?\n\n推測ですが、処理したリクエスト数が MaxConnectionsPerChild に達し httpd 子プロセスを終了(&起動)する際に、PHP\nモジュール側に何らかの問題があり出力されているのではないでしょうか。\n\n> Q2. 原因がApacheが利用できない子プロセスをkillできないことだとして、これを解決する設定などはあるのでしょうか?\n\n(上記推測が合っているとの仮定で) \nMaxConnectionsPerChild を大きな値にすると、プロセス終了&起動の頻度が低くなり、該当ログの出力頻度も抑えられると思います。 \nまた、PHP モジュールで httpd に組み込むのではなく php-fpm (別プロセス) にすることで、httpd プロセス終了&起動が PHP\nに影響を及ぼさず、結果として \"Error Cannot kill process\" の状況にならないことが期待できます。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T13:50:34.903", "id": "93292", "last_activity_date": "2023-01-10T13:50:34.903", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "4603", "parent_id": "93216", "post_type": "answer", "score": 1 } ]
93216
null
93292
{ "accepted_answer_id": null, "answer_count": 0, "body": "Javaでselenium.htmlunit.HtmlUnitDriver (selenium-server-standalone-3.9.1\njar)を使って、あるページをスクレイプしています。\n\nページは2つのiframeで構成されています。最初にページ全体をget()してgetPageSource()を見ると内包されたiframeの内容含め全て取得されているように見えます。そして、いざそのiframe内の要素を取りに行くために、frame\nswitchをすると、何も取れなくなってしまいます。frame\nswitch自体は、例外もエラーもないので、うまく処理されているように思えます。ただframeに行った後にgetElements()で何も取れず、getPageSource()をするとからのsourceがプリントされます。\n\n```\n\n driver.switchTo().defaultContent();\n \n //下のラインはエラー例外もなく動きます。ということは’xyz’フレームも認識しているはずです\n //ちなみにここに存在しないフレーム名を入れるともちろん例外が起きますので、ここは正常に動いているはずです \n \n driver.switchTo().frame(driver.findElement(By.id(\"xyz\")));\n \n \n //ここで、driver.getPageSource()をすると下のような何も入っていないものがかえります\n //本来はきちんとしたフレームhtmlが存在していまして、そこのものを色々取りたいのです\n //<html>\n // <head/>\n // <body/>\n //</html>\n \n //また元に戻ると全体sourceはきちんと見えます\n driver.switchTo().defaultContent();\n driver.getPageSource();\n \n```\n\nちなみにJavascriptEnabledはすでにオンしています。それから、rootのページの色々な要素は問題なく取得できます。ページロードの時間の問題なのかと思い、WebDriverWait/ExpectedConditionを使い色々試しましたがうまくいきませんでした。そもそも最初のgetPageSource()でiframe内含め全部見えているので、loadの問題ではないように思えます。\n\n何がいけないのか、どなたかご教授いただけますか?", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T02:03:22.610", "favorite_count": 0, "id": "93220", "last_activity_date": "2023-01-07T02:03:22.610", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56422", "post_type": "question", "score": 0, "tags": [ "java", "selenium", "selenium-webdriver" ], "title": "HtmlUnitDriverでframe switchした後にiframe 内の要素が何も取得できない", "view_count": 32 }
[]
93220
null
null
{ "accepted_answer_id": null, "answer_count": 1, "body": "## 質問\n\nUbuntuのデスクトップPCを外付けディスプレイに接続しているのですが、解像度をWQHDの解像度にする方法を教えてください。\n\n## 環境\n\n * OS:Ubuntu 22.04.01\n * GPU\n\n```\n\n $ lspci | grep -i nvidia\n 05:00.0 VGA compatible controller: NVIDIA Corporation GA106 [GeForce RTX 3060 Lite Hash Rate] (rev a1)\n \n \n```\n\n * ドライバ \n[![画像の説明をここに入力](https://i.stack.imgur.com/z5k1c.png)](https://i.stack.imgur.com/z5k1c.png)\n\n * ディスプレイ:WQHD(2560×1440)が1枚\n\n * HDMIケーブル:4K対応しているもの([これです](https://www.amazon.co.jp/5%E7%A8%AE%E9%95%B7%E3%81%95%E3%80%91iVANKY-HDMI2-0%E8%A6%8F%E6%A0%BC-Nintendo-TV%E3%81%AA%E3%81%A9%E9%81%A9%E7%94%A818gbps-%E3%83%8F%E3%82%A4%E3%82%B9%E3%83%94%E3%83%BC%E3%83%89%E3%83%97%E3%83%AC%E3%83%9F%E3%82%A2%E3%83%A0/dp/B07RHHB1MJ/?_encoding=UTF8&pd_rd_w=D8XRr&content-id=amzn1.sym.0497a660-dd67-4204-8041-89ed368b6fd7&pf_rd_p=0497a660-dd67-4204-8041-89ed368b6fd7&pf_rd_r=0TJFJ1A0W6KVD8C61Z4X&pd_rd_wg=dRFyI&pd_rd_r=d0bd5a90-9ed4-4b1f-a7d5-184370e70efc&ref_=pd_gw_ci_mcx_mr_hp_atf_m))\n\n## やったこと\n\n 1. WQHD対応の確認 \nGPUとHDMIケーブルがWQHDに対応しているか確認しました。 \nGeforce RTX3060と私の使用しているHDMIケーブルはどちらもWQHDに対応しているようでした。\n\n 2. 設定からの変更 \nUbuntuの設定から解像度の変更をしようとしましたが、1920x1080以外が選択できない状態でした。 \n[![画像の説明をここに入力](https://i.stack.imgur.com/f3Yz8.png)](https://i.stack.imgur.com/f3Yz8.png)\n\n 3. /etc/default/grubの変更\n\n`/etc/default/grub`を編集し、 \n`GRUB_GFXMODE=2560x1440`として保存。\n\n```\n\n $ sudo update-grub\n $ reboot\n \n```\n\nを実行しましたが、再起動後はなぜか解像度が1024x768になってしまいました。なので、`GRUB_GFXMODE`の値はもともとの1920x1080に戻しました。\n\n 4. ドライバの変更 \n上でドライバの情報を載せましたが、もともとはデフォルトで「X.Org X server - Nouveau display dirverをxserver-\nxorg-video-nouveauから使用します(オープンソース)」が選択されていました。 \n軽くネットを見た限りだとこれでは対応する解像度に制限がありそうだったので、上記にキャプチャで載せているドライバに変更してみました。\n\n 5. もう一度手順3を実行しました。\n\n 6. xrandrに新しい解像度を追加する\n\n```\n\n $ cvt 2560 1440\n $ sudo xrandr --newmode \"2560x1440_60.00\" 312.25 2560 2752 3024 3488 1440 1443 1448 1493\n xrandr:Failed to get size of gamma for output default\n \n```\n\n`xrandr --newmode`で新しいモードを追加しようとすると怒られました。\n\n## その他\n\nドライバの設定等が関係あるのか?と考えていますが、その方面に詳しくないため、詳しい方にお力をいただきたいです。よろしくお願いします。\n\n参考にしたサイト \n<https://qiita.com/nsd24/items/c06294d1de40f2e9870b> \n<https://blog.capilano-fw.com/?p=1881>", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T02:16:14.483", "favorite_count": 0, "id": "93221", "last_activity_date": "2023-01-07T10:06:34.257", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56425", "post_type": "question", "score": 1, "tags": [ "ubuntu" ], "title": "Ubuntu22.04 で解像度がWQHD対応にならない", "view_count": 595 }
[ { "body": "自己解決しました。ドライバが正しくインストールできていなかったようです。\n\n参考: \n[【注意】ubuntu-drivers devicesでお薦めされたNVIDIA\nGPUドライバーをインストールしたら事故になります。](https://qiita.com/y-vectorfield/items/72bfb66d8ec85847fe2f)\n\n**インストール前:**\n\n```\n\n $ nvidia-smi\n No devices were found\n \n```\n\nドライバインストール後は以下のように出力されるようになりました。\n\n**インストール後:**\n\n```\n\n Sat Jan 7 11:43:20 2023 \n +-----------------------------------------------------------------------------+\n | NVIDIA-SMI 525.60.11 Driver Version: 525.60.11 CUDA Version: 12.0 |\n |-------------------------------+----------------------+----------------------+\n | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |\n | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |\n | | | MIG M. |\n |===============================+======================+======================|\n | 0 NVIDIA GeForce ... Off | 00000000:05:00.0 On | N/A |\n | 0% 39C P8 13W / 170W | 405MiB / 12288MiB | 0% Default |\n | | | N/A |\n +-------------------------------+----------------------+----------------------+\n \n +-----------------------------------------------------------------------------+\n | Processes: |\n | GPU GI CI PID Type Process name GPU Memory |\n | ID ID Usage |\n |=============================================================================|\n | 0 N/A N/A 1717 G /usr/lib/xorg/Xorg 185MiB |\n | 0 N/A N/A 1874 G /usr/bin/gnome-shell 90MiB |\n | 0 N/A N/A 2325 G ...RendererForSitePerProcess 25MiB |\n | 0 N/A N/A 3359 G gnome-control-center 14MiB |\n | 0 N/A N/A 3482 C+G ...160814179602901050,131072 84MiB |\n +-----------------------------------------------------------------------------+\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T02:44:36.700", "id": "93222", "last_activity_date": "2023-01-07T10:06:34.257", "last_edit_date": "2023-01-07T10:06:34.257", "last_editor_user_id": "3060", "owner_user_id": "56425", "parent_id": "93221", "post_type": "answer", "score": 4 } ]
93221
null
93222
{ "accepted_answer_id": null, "answer_count": 0, "body": "初めて質問させていただきます。 \nコーディングの勉強をしています。まだ2か月ちょっとしか勉強もしておらず、見当違いな質問になってしまうかもしれませんが教えていただけると嬉しいです。\n\nリキッドレイアウトを作成中です。これまでvwで作成していましたが初めてremでのコーディングにトライしています。htmlで以下のコードを指定していれば、vw使用時と同じように画面横幅が半分になればremで指定した数値のものpadding,font-\nsize,widthなども半分になるという理解だったのですが、横幅を変更するとレイアウトがめちゃくちゃになってしまいます。もし理解が間違っていたり、「リキッドレイアウト作成時にこういう間違いしてませんか?」など何かアドバイスあれば頂けると嬉しいです。\n\nrem,\nリキッドレイアウトなどで検索をかけ、インターネット記事を読んだりyoutubeも見たりもしましたが、どれも「viewpointやメディアクエリ」については詳しく教えてくれるのですが、横幅が中途半端なサイズになったときのレイアウト崩れについては情報がありません。\n\nどうぞよろしくお願いいたします。\n\n```\n\n html {\n //768p以上はpcリキッドレイアウト\n font-size: 1vw;\n font-size: 62.5%;\n }\n \n @media screen and (max-width: 767px) {\n html {\n font-size: calc(10 / 375 * 100vw);\n }\n }\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T03:14:30.383", "favorite_count": 0, "id": "93223", "last_activity_date": "2023-01-07T05:13:29.910", "last_edit_date": "2023-01-07T05:13:29.910", "last_editor_user_id": "3060", "owner_user_id": "56426", "post_type": "question", "score": 0, "tags": [ "html", "css" ], "title": "リキッドレイアウトにする際remでのレイアウト", "view_count": 82 }
[]
93223
null
null
{ "accepted_answer_id": "93231", "answer_count": 5, "body": "下のコードを実行すると`0.100000`と出力が得られる。 \nこの出力のうち末尾に続く`00000`を表示しないようにしたい。 \n具体的には`0.1`のように出力したい。\n\n```\n\n #include <stdio.h>\n \n int main() {\n double a = 0.1;\n printf(\"%f\", a);\n return 0;\n }\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T08:59:23.000", "favorite_count": 0, "id": "93227", "last_activity_date": "2023-01-23T11:19:35.177", "last_edit_date": "2023-01-07T09:57:55.257", "last_editor_user_id": "3060", "owner_user_id": "41059", "post_type": "question", "score": 1, "tags": [ "c" ], "title": "C言語の関数printfにおいて、実数を表示する際に小数点以下末尾の0を省くには", "view_count": 1100 }
[ { "body": "例えば、以下のように `printf` のフォーマット指定を変更することで、出力結果を小数点1桁目までにすることが出来ます。 \n(あくまで \"桁数\" の指定なので、0を省略ではない点は注意してください)\n\n```\n\n printf(\"%.1f\", a);\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T09:57:26.103", "id": "93229", "last_activity_date": "2023-01-07T09:57:26.103", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "3060", "parent_id": "93227", "post_type": "answer", "score": 0 }, { "body": "値によっては指数表記になってしまう場合もありますが、質問文の例だと`%g`で末尾の`0`を削除できます。 \n<http://tpcg.io/_EEY22Z>\n\n```\n\n printf(\"%g\", a);\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T10:34:27.317", "id": "93230", "last_activity_date": "2023-01-07T10:34:27.317", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "7291", "parent_id": "93227", "post_type": "answer", "score": 1 }, { "body": "小数点以下の数字0を削除するには変換指定子にgを指定するのがよいでしょう。 \n精度以上の場合に指数表記されますので、ある程度大きな精度を指定するのがよいと思います。 \n以下の例は精度に16を指定しています。\n\n```\n\n printf(\"%.16g\\n\", a);\n \n```\n\n[Man page of PRINTF](https://linuxjm.osdn.jp/html/LDP_man-\npages/man3/printf.3.html)からの引用です。\n\n> 変換指定子 \n> g, G \n> double 引数を f か e (G 変換の場合は F か E) の形式に変換する。 精度は表示する桁数を指定する。\n> 精度が指定されない場合は、6桁とみなされる。 精度が 0 の場合は、1桁とみなされる。 変換される値の指数が、 -4 より小さいか、精度以上の場合に、\n> e 形式が使用される。 変換された結果の小数部分の末尾の 0 は削除される。小数点が表示されるのは、\n> 小数点以下に数字が少なくとも一つある場合にだけである。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T10:50:42.507", "id": "93231", "last_activity_date": "2023-01-07T10:50:42.507", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "35558", "parent_id": "93227", "post_type": "answer", "score": 1 }, { "body": "akira ejiriさんの回答にも\n\n> 変換される値の指数が、 -4 より小さいか、精度以上の場合に、 e 形式が使用される。\n\nとあるように、\n\n```\n\n printf(\"%.16g\", 0.00001);\n \n```\n\nはe形式に切り替わり、 `1e-05` と表現されてしまうため、望まない結果の可能性があります。\n\n`printf`\nのマニュアルを読み、望む形式がない場合は、`sprintf`等を使用し一旦文字列を作成した後、望む形式に編集し、`%s`でその文字列を出力する方法があることは覚えておくとよいでしょう。\n\n```\n\n double a = 0.00001;\n char buffer[256];\n int len = snprintf(buffer, sizeof buffer, \"%f\", a);\n while (0 < --len && (buffer[len] == '0' || buffer[len] == '.'))\n buffer[len] = '\\0';\n printf(\"%s\", buffer);\n \n```\n\n質問文は厳密には末尾の`0`の削除しか触れられていませんが、では`0.0`ちょうどの場合、`0.`となり不格好なので、意図を汲んで末尾の`0`および`.`を削除し、`0`となるようにしています。この辺りは、文字列をどのように編集したいかに合わせればよいでしょう。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T00:22:53.817", "id": "93236", "last_activity_date": "2023-01-08T00:22:53.817", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "4236", "parent_id": "93227", "post_type": "answer", "score": 2 }, { "body": "printfには桁数の指定や、左詰め・右詰めなど色々な書式があります。 \nます、それを理解された方が良いと思います。 \nよろしかったら↓をみてみてください。 \n<https://nijinatu.com/clang-0303-printf/>", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-23T11:19:35.177", "id": "93525", "last_activity_date": "2023-01-23T11:19:35.177", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56727", "parent_id": "93227", "post_type": "answer", "score": -4 } ]
93227
93231
93236
{ "accepted_answer_id": null, "answer_count": 0, "body": "どこを見直すべきでしょうか?\n\n```\n\n [end of output]\n \n note: This error originates from a subprocess, and is likely not a problem with pip.\n error: metadata-generation-failed\n \n × Encountered error while generating package metadata.\n ╰─> See above for output.\n \n note: This is an issue with the package mentioned above, not pip.\n hint: See above for details.\n \n```\n\nos は windows で、 \n仮想環境、IDEは無しで \nPython 3.11.1です。 \nコマンドプロンプトからの実行をやってみようと試みた際にできなかったので、質問させていただきました。 \n最近からプログラミングを始めたため、 \nまだpip をインストールしたことがありません。 \n本を参考にしてコマンドを実行したらこうなりまして、 \npipがインストールができないと何もできないプログラムを組んでみたので困っているところです。", "comment_count": 9, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T09:09:03.353", "favorite_count": 0, "id": "93228", "last_activity_date": "2023-01-08T05:28:53.357", "last_edit_date": "2023-01-08T05:28:53.357", "last_editor_user_id": "56432", "owner_user_id": "56432", "post_type": "question", "score": 0, "tags": [ "python", "python3", "pip", "pygame" ], "title": "pygame がインストールできません", "view_count": 715 }
[]
93228
null
null
{ "accepted_answer_id": "93253", "answer_count": 1, "body": "dockerを用いてpythonとmysqlのコンテナをそれぞれ作成し、pythonからmysqlに接続しfetchallでテーブルを表示しようとすると日本語が文字化けしました。\n\nMySQLイメージ: mysql:5.7 \nPythonイメージ: 3.7 \nmysql-connector-python: 8.0.31 \nサーバーとクライアントのIP: 異なる\n\n[docker-compose_yml]\n\n```\n\n version: '3'\n \n services:\n # MySQL\n db:\n build:\n context: .\n dockerfile: ./db/Dockerfile\n container_name: mysql_host\n environment:\n MYSQL_ROOT_PASSWORD: pass\n MYSQL_DATABASE: test_database\n MYSQL_USER: user\n MYSQL_PASSWORD: pass\n TZ: 'Asia/Tokyo'\n volumes:\n - ./db/data:/var/lib/mysql\n - ./log/mysql:/var/log/mysql\n - ./db/my.cnf:/etc/mysql/conf.d/my.cnf\n ports:\n - 3306:3306\n ## For static IP address\n networks:\n python_network:\n ipv4_address: 192.168.2.2 \n \n ## python3 \n python3:\n restart: always\n build:\n context: .\n dockerfile: ./python/Dockerfile\n container_name: \"python3\"\n working_dir: \"/root/src\"\n tty: true\n volumes:\n - ./python:/root/src\n links:\n - db \n networks:\n - python_network\n \n networks: \n python_network:\n driver: bridge\n ipam:\n driver: default\n config:\n - subnet: 192.168.2.0/24\n gateway: 192.168.2.1\n \n \n```\n\n[/db/Dockerfile]\n\n```\n\n FROM mysql:5.7\n ADD ./db/my.cnf /etc/mysql/conf.d/my.cnf\n RUN chmod 644 /etc/mysql/conf.d/my.cnf\n \n```\n\n[/python/Dockerfile]\n\n```\n\n FROM python:3.7\n \n RUN pip install --upgrade pip\n RUN pip install --upgrade setuptools\n RUN pip install mysql-connector-python\n \n```\n\n[my.cnf](latin1;utf8mb4,utf8でそれぞれ試した。\n\n```\n\n [mysqld]\n # 文字コード、整合順序の設定\n character-set-server=utf8mb4\n collation-server=utf8mb4_unicode_ci\n secure-file-priv=\"\"\n \n [mysql]\n default-character-set=utf8mb4\n \n [client]\n default-character-set=utf8mb4\n user = user\n password = pass\n \n```\n\nmysqlコンテナに入り直接表示してみた所、文字コードの設定により文字化けしたりしなかったりします。\n\n```\n\n select * from sample;\n \n```\n\n**文字化けする場合:**\n\n```\n\n +--------------------------+----------------------------+\n | Variable_name | Value |\n +--------------------------+----------------------------+\n | character_set_client | utf8mb4 |\n | character_set_connection | utf8mb4 |\n | character_set_database | utf8mb4 |\n | character_set_filesystem | binary |\n | character_set_results | utf8mb4 |\n | character_set_server | utf8mb4 |\n | character_set_system | utf8 |\n | character_sets_dir | /usr/share/mysql/charsets/ |\n +--------------------------+----------------------------+\n \n```\n\n**文字化けしない場合:**\n\n```\n\n +--------------------------+----------------------------+\n | Variable_name | Value |\n +--------------------------+----------------------------+\n | character_set_client | latin1 |\n | character_set_connection | utf8mb4 |\n | character_set_database | utf8mb4 |\n | character_set_filesystem | binary |\n | character_set_results | latin1 |\n | character_set_server | utf8mb4 |\n | character_set_system | utf8 |\n | character_sets_dir | /usr/share/mysql/charsets/ |\n +--------------------------+----------------------------+\n \n```\n\n扱うデータの都合上、latin1で取得すると正しく表示されるようです。 \nまた、メモ帳(utf8)でレコードを開くと文字化けしていました。\n\nそこでpythonのコードから文字コードを変更し、設定を表示しつつ再度試した所、\n\n```\n\n ('character_set_client', 'latin1')\n ('character_set_connection', 'utf8mb4')\n ('character_set_database', 'utf8mb4')\n ('character_set_filesystem', 'binary')\n ('character_set_results', 'latin1')\n ('character_set_server', 'utf8mb4')\n ('character_set_system', 'utf8')\n ('character_sets_dir', '/usr/share/mysql/charsets/')\n \n```\n\nと文字コードの設定は同じなのにpythonから読むと文字化けしてしまいした。charsetや文字コードの変更(全てutf8mb4またはutf8にする等)、色々試しましたが文字化けします。\n\n```\n\n # coding: latin1\n import mysql.connector\n \n #pythonからmysqlに接続\n cnx = mysql.connector.connect(\n host='',\n port='3306',\n user='user',\n password='pass',\n database='test_database',\n charset='latin1'\n )\n cursor_=cnx.cursor()\n \n cursor_.execute(\"use test_database;\")\n \n #文字コードを変更し設定の状況を取得\n query1 = \"SET CHARACTER SET latin1;\"\n cursor_.execute(query1)\n \n cursor_.execute(\"show variables like 'chara%';\")\n rows = cursor_.fetchall()\n for row in rows:\n print (row)\n \n cursor_.execute(\"select * from test;\")\n rows = cursor_.fetchall()\n for row in rows:\n print (row)\n \n```\n\nまた、printにcordingを付ける試みはtuple型であった為に失敗しました。これの解決法も不明です。\n\n```\n\n for row in rows:\n print (row.cording(utf8やlatin1))\n \n```\n\n```\n\n 'tuple' object has no attribute 'encord'\n \n```\n\nどなたかlatin1で取得したデータをpythonから表示する方法をご存知ないでしょうか", "comment_count": 5, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T17:11:09.463", "favorite_count": 0, "id": "93233", "last_activity_date": "2023-01-09T06:19:50.987", "last_edit_date": "2023-01-09T06:19:50.987", "last_editor_user_id": "55611", "owner_user_id": "55611", "post_type": "question", "score": 0, "tags": [ "python", "mysql", "docker" ], "title": "pythonからmysqlに接続すると日本語が文字化けする", "view_count": 425 }
[ { "body": "# 回答ではありません\n\n質問が全く正確でないため、また原因が不明なため、回答にはなっていません。\n\n## 前提\n\n質問が以下のコードで構築される環境だと仮定します。\n\nMySQLイメージ: mysql:8.0.31 \nPython: 3.10.9 \nmysql-connector-python: 8.0.31 \nPyMySQL: 1.0.2 \nサーバーとクライアントのIP: 異なる\n\n### コード\n\n※空のディレクトリで実行すること \n**create_env.sh**\n\n```\n\n WAIT_SETUP_MYSQL=10\n cat >my.cnf <<EOF\n [mysqld]\n character-set-server = utf8mb4\n collation-server = utf8mb4_unicode_ci\n #[client]\n #default-character-set=utf8mb4\n EOF\n cat >docker-compose.yml <<EOF\n version: '3.1'\n services:\n db:\n image: mysql:8\n command: --default-authentication-plugin=mysql_native_password \n volumes:\n - ./data:/var/lib/mysql\n - ./logs:/var/log/mysql\n - ./my.cnf:/etc/mysql/conf.d/my.cnf\n ports:\n - 3306:3306\n environment:\n MYSQL_ROOT_PASSWORD: example\n TZ: 'Asia/Tokyo'\n python:\n image: python:3.10\n volumes:\n - ./python/:/opt/project/\n EOF\n docker-compose up -d db\n docker-compose exec -T db bash <<EOF\n while sleep 1;do if [ -S /var/run/mysqld/mysqld.sock ];then break;fi;done\n sleep $WAIT_SETUP_MYSQL\n EOF\n docker-compose exec -T db bash <<EOF\n mysql --user=root --password=example\n use mysql\n create user \\`user\\`@\\`%\\` IDENTIFIED BY 'python';\n create database sampledb character set utf8mb4 collate utf8mb4_bin;\n grant all on sampledb.* to user;\n use sampledb\n create table sample(\n id varchar(20) primary key,\n name varchar(1024)\n );\n insert into sample values('1001', 'dockerを用いてpythonからmysqlに接続すると日本語が文字化けする');\n insert into sample values('1002', 'dockerを用いてpythonとmysqlのコンテナをそれぞれ作成し');\n insert into sample values('1003', 'pythonからmysqlに接続しfetchallでテーブルを表示しようとすると');\n insert into sample values('1004', ' ');\n exit\n EOF\n docker-compose exec -T db bash <<EOF\n mysql --user=user --password=python --database=sampledb\n show variables like 'chara%';\n select * from sample;\n exit\n EOF\n docker-compose exec -T db bash <<EOF\n mysql --user=user --password=python --database=sampledb --default-character-set=utf8mb4\n show variables like 'chara%';\n select * from sample;\n exit\n EOF\n docker-compose run --rm python bash <<EOF\n cd /opt/project\n python -m venv env\n ./env/bin/python -m pip install mysql-connector-python PyMySQL\n cat >sample.py <<INNER_EOF\n import mysql.connector\n cnx = mysql.connector.connect(\n host='db',\n port='3306',\n user='user',\n password='python',\n database='sampledb',\n charset='utf8mb4'\n )\n cursor_=cnx.cursor()\n cursor_.execute(\"show variables like 'chara%';\")\n rows = cursor_.fetchall()\n for row in rows:\n print (row)\n cursor_.execute(\"select * from sample;\")\n rows = cursor_.fetchall()\n for row in rows:\n print (row)\n INNER_EOF\n cat >sample2.py <<INNER_EOF\n import pymysql.cursors\n cnx = pymysql.connect(\n host='db',\n port=3306,\n user='user',\n password='python',\n database='sampledb',\n charset='utf8mb4'\n )\n cursor_=cnx.cursor()\n cursor_.execute(\"show variables like 'chara%';\")\n rows = cursor_.fetchall()\n for row in rows:\n print (row)\n cursor_.execute(\"select * from sample;\")\n rows = cursor_.fetchall()\n for row in rows:\n print (row)\n INNER_EOF\n ./env/bin/python sample.py\n ./env/bin/python sample2.py\n EOF\n docker-compose down\n \n```\n\n### 出力\n\n```\n\n $ sh ../create_env.sh \n Creating network \"tmp_default\" with the default driver\n Creating tmp_db_1 ... done\n mysql: [Warning] Using a password on the command line interface can be insecure.\n ERROR 1396 (HY000) at line 2: Operation CREATE USER failed for 'user'@'%'\n mysql: [Warning] Using a password on the command line interface can be insecure.\n Variable_name Value\n character_set_client latin1\n character_set_connection latin1\n character_set_database utf8mb4\n character_set_filesystem binary\n character_set_results latin1\n character_set_server utf8mb4\n character_set_system utf8mb3\n character_sets_dir /usr/share/mysql-8.0/charsets/\n id name\n 1001 dockerを用いてpythonからmysqlに接続すると日本語が文字化けする\n 1002 dockerを用いてpythonとmysqlのコンテナをそれぞれ作成し\n 1003 pythonからmysqlに接続しfetchallでテーブルを表示しようとすると\n 1004 \n mysql: [Warning] Using a password on the command line interface can be insecure.\n Variable_name Value\n character_set_client utf8mb4\n character_set_connection utf8mb4\n character_set_database utf8mb4\n character_set_filesystem binary\n character_set_results utf8mb4\n character_set_server utf8mb4\n character_set_system utf8mb3\n character_sets_dir /usr/share/mysql-8.0/charsets/\n id name\n 1001 dockerを用ã„ã¦pythonã‹ã‚‰mysqlã«æŽ¥ç¶šã™ã‚‹ã¨æ—¥æœ¬èªžãŒæ–‡å­—化ã‘ã™ã‚‹\n 1002 dockerを用ã„ã¦pythonã¨mysqlã®ã‚³ãƒ³ãƒ†ãƒŠã‚’ãã‚Œãžã‚Œä½œæˆã—\n 1003 pythonã‹ã‚‰mysqlã«æŽ¥ç¶šã—fetchallã§ãƒ†ãƒ¼ãƒ–ルを表示ã—よã†ã¨ã™ã‚‹ã¨\n 1004 🤧 😷 🤒 🤕 🤑 🤠 😈 👿 👹 👺 🤡 💩 👻 💀\n Requirement already satisfied: mysql-connector-python in ./env/lib/python3.10/site-packages (8.0.31)\n Requirement already satisfied: PyMySQL in ./env/lib/python3.10/site-packages (1.0.2)\n Requirement already satisfied: protobuf<=3.20.1,>=3.11.0 in ./env/lib/python3.10/site-packages (from mysql-connector-python) (3.20.1)\n ('character_set_client', 'utf8mb4')\n ('character_set_connection', 'utf8mb4')\n ('character_set_database', 'utf8mb4')\n ('character_set_filesystem', 'binary')\n ('character_set_results', 'utf8mb4')\n ('character_set_server', 'utf8mb4')\n ('character_set_system', 'utf8mb3')\n ('character_sets_dir', '/usr/share/mysql-8.0/charsets/')\n ('1001', 'dockerを用ã\\x81„ã\\x81¦pythonã\\x81‹ã‚‰mysqlã\\x81«æŽ¥ç¶šã\\x81™ã‚‹ã\\x81¨æ—¥æœ¬èªžã\\x81Œæ–‡å\\xad—化ã\\x81‘ã\\x81™ã‚‹')\n ('1002', 'dockerを用ã\\x81„ã\\x81¦pythonã\\x81¨mysqlã\\x81®ã‚³ãƒ³ãƒ†ãƒŠã‚’ã\\x81\\x9dã‚Œã\\x81žã‚Œä½œæˆ\\x90ã\\x81—')\n ('1003', 'pythonã\\x81‹ã‚‰mysqlã\\x81«æŽ¥ç¶šã\\x81—fetchallã\\x81§ãƒ†ãƒ¼ãƒ–ルを表示ã\\x81—よã\\x81†ã\\x81¨ã\\x81™ã‚‹ã\\x81¨')\n ('1004', '🤧 😷 🤒 🤕 🤑 ðŸ¤\\xa0 😈 👿 👹 👺 🤡 💩 👻 💀')\n ('character_set_client', 'utf8mb4')\n ('character_set_connection', 'utf8mb4')\n ('character_set_database', 'utf8mb4')\n ('character_set_filesystem', 'binary')\n ('character_set_results', 'utf8mb4')\n ('character_set_server', 'utf8mb4')\n ('character_set_system', 'utf8mb3')\n ('character_sets_dir', '/usr/share/mysql-8.0/charsets/')\n ('1001', 'dockerを用ã\\x81„ã\\x81¦pythonã\\x81‹ã‚‰mysqlã\\x81«æŽ¥ç¶šã\\x81™ã‚‹ã\\x81¨æ—¥æœ¬èªžã\\x81Œæ–‡å\\xad—化ã\\x81‘ã\\x81™ã‚‹')\n ('1002', 'dockerを用ã\\x81„ã\\x81¦pythonã\\x81¨mysqlã\\x81®ã‚³ãƒ³ãƒ†ãƒŠã‚’ã\\x81\\x9dã‚Œã\\x81žã‚Œä½œæˆ\\x90ã\\x81—')\n ('1003', 'pythonã\\x81‹ã‚‰mysqlã\\x81«æŽ¥ç¶šã\\x81—fetchallã\\x81§ãƒ†ãƒ¼ãƒ–ルを表示ã\\x81—よã\\x81†ã\\x81¨ã\\x81™ã‚‹ã\\x81¨')\n ('1004', '🤧 😷 🤒 🤕 🤑 ðŸ¤\\xa0 😈 👿 👹 👺 🤡 💩 👻 💀')\n Stopping tmp_db_1 ... done\n Removing tmp_db_1 ... done\n Removing network tmp_default\n $ \n \n```\n\n## 原因\n\n不明。 \n`character_set_system`がクライアント側の`default_character_set`と異なるためなのか、なぜかlatin1で処理された。\n\n## 対策\n\nmy.cnfのコメントを外す\n\n### 出力\n\n```\n\n $ sh ../create_env.sh \n Creating network \"tmp_default\" with the default driver\n Creating tmp_db_1 ... done\n mysql: [Warning] Using a password on the command line interface can be insecure.\n mysql: [Warning] Using a password on the command line interface can be insecure.\n Variable_name Value\n character_set_client utf8mb4\n character_set_connection utf8mb4\n character_set_database utf8mb4\n character_set_filesystem binary\n character_set_results utf8mb4\n character_set_server utf8mb4\n character_set_system utf8mb3\n character_sets_dir /usr/share/mysql-8.0/charsets/\n id name\n 1001 dockerを用いてpythonからmysqlに接続すると日本語が文字化けする\n 1002 dockerを用いてpythonとmysqlのコンテナをそれぞれ作成し\n 1003 pythonからmysqlに接続しfetchallでテーブルを表示しようとすると\n 1004 \n mysql: [Warning] Using a password on the command line interface can be insecure.\n Variable_name Value\n character_set_client utf8mb4\n character_set_connection utf8mb4\n character_set_database utf8mb4\n character_set_filesystem binary\n character_set_results utf8mb4\n character_set_server utf8mb4\n character_set_system utf8mb3\n character_sets_dir /usr/share/mysql-8.0/charsets/\n id name\n 1001 dockerを用いてpythonからmysqlに接続すると日本語が文字化けする\n 1002 dockerを用いてpythonとmysqlのコンテナをそれぞれ作成し\n 1003 pythonからmysqlに接続しfetchallでテーブルを表示しようとすると\n 1004 \n Collecting mysql-connector-python\n Downloading mysql_connector_python-8.0.31-cp310-cp310-manylinux1_x86_64.whl (23.5 MB)\n ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 23.5/23.5 MB 27.1 MB/s eta 0:00:00\n Collecting PyMySQL\n Downloading PyMySQL-1.0.2-py3-none-any.whl (43 kB)\n ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 43.8/43.8 kB 5.7 MB/s eta 0:00:00\n Collecting protobuf<=3.20.1,>=3.11.0\n Downloading protobuf-3.20.1-cp310-cp310-manylinux_2_12_x86_64.manylinux2010_x86_64.whl (1.1 MB)\n ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 1.1/1.1 MB 12.6 MB/s eta 0:00:00\n Installing collected packages: PyMySQL, protobuf, mysql-connector-python\n Successfully installed PyMySQL-1.0.2 mysql-connector-python-8.0.31 protobuf-3.20.1\n ('character_set_client', 'utf8mb4')\n ('character_set_connection', 'utf8mb4')\n ('character_set_database', 'utf8mb4')\n ('character_set_filesystem', 'binary')\n ('character_set_results', 'utf8mb4')\n ('character_set_server', 'utf8mb4')\n ('character_set_system', 'utf8mb3')\n ('character_sets_dir', '/usr/share/mysql-8.0/charsets/')\n ('1001', 'dockerを用いてpythonからmysqlに接続すると日本語が文字化けする')\n ('1002', 'dockerを用いてpythonとmysqlのコンテナをそれぞれ作成し')\n ('1003', 'pythonからmysqlに接続しfetchallでテーブルを表示しようとすると')\n ('1004', ' ')\n ('character_set_client', 'utf8mb4')\n ('character_set_connection', 'utf8mb4')\n ('character_set_database', 'utf8mb4')\n ('character_set_filesystem', 'binary')\n ('character_set_results', 'utf8mb4')\n ('character_set_server', 'utf8mb4')\n ('character_set_system', 'utf8mb3')\n ('character_sets_dir', '/usr/share/mysql-8.0/charsets/')\n ('1001', 'dockerを用いてpythonからmysqlに接続すると日本語が文字化けする')\n ('1002', 'dockerを用いてpythonとmysqlのコンテナをそれぞれ作成し')\n ('1003', 'pythonからmysqlに接続しfetchallでテーブルを表示しようとすると')\n ('1004', ' ')\n Stopping tmp_db_1 ... done\n Removing tmp_db_1 ... done\n Removing network tmp_default\n $ \n \n```", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T14:42:54.247", "id": "93253", "last_activity_date": "2023-01-08T14:42:54.247", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "54957", "parent_id": "93233", "post_type": "answer", "score": 0 } ]
93233
93253
93253
{ "accepted_answer_id": null, "answer_count": 5, "body": "2TBの外付けHDD1台にメディアファイルを保存しています \n過去にHDDの故障でデータを紛失した経験があり外付けHDDが1台故障したとしても復旧できるようにバックアップしたいと考えました\n\n調べるとRAID1という方法を知りましたがRAID1はバックアップにならないという記事を見かけ不安になったため質問した次第です \n記事には下にように書かれており、これを私は「データは2つのHDDで同期されるからもう片方のデータが失われればそれがもう片方にも反映される。つまりバックアップにはならない」ということだと把握しました\n\n上の調査を元に質問があるのですが、RAID1は何等かの原因で片方のHDDが故障してデータが破損した時に、もう片方のHDDにも壊れたデータが同期されてしまうのでしょうか? \n私はHDDの故障に対してのバックアップが欲しいと考えてるのですがRAID1ではバックアップになりませんか?\n\n<https://pasokon110.com/data/sp2019032809/#outline__4_1>\n\n> RAID1自体は“バックアップ”ではない\n>\n>\n> RAID1は同じデータの複製=ミラーリングになっているので、「ここに保存しておけばバックアップは完璧!」と、思われるかもしれません。しかし、実際にはHDD1と2にそれぞれ同じデータが“同時に”保存されます。データを間違えて上書き保存し足り消してしまった場合、同時に上書きされるので「間違えたからバックアップから戻す」ということはできません。つまり、バックアップとしては機能しないということになります。", "comment_count": 5, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T17:22:25.333", "favorite_count": 0, "id": "93234", "last_activity_date": "2023-01-11T02:39:31.840", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "45076", "post_type": "question", "score": 1, "tags": [ "ハードウェア" ], "title": "RAID1はバックアップにはならないですか?", "view_count": 501 }
[ { "body": "質問者さんの中でのバックアップの語が曖昧なのでしょう。[Wikipediaのバックアップの項](https://ja.wikipedia.org/wiki/%E3%83%90%E3%83%83%E3%82%AF%E3%82%A2%E3%83%83%E3%83%97)によると\n\n> バックアップとは、コンピュータシステムで主にデータやシステムの状態を複製し、問題発生時の復旧(リストア)に備えることを意味する。\n\nとあり、リストアできないRAID1はバックアップではありません。\n\nしかし、「バックアップ」や「RAID1」といった言葉遊びは本質的ではありません。質問者さん(や閲覧者さんそれぞれ)の中で、どのような機能が必要か、より具体的にどのような場面でどのような動作を求めるか、でしかありません。\n\n「過去にHDDの故障でデータを紛失した経験があり外付けHDDが1台故障したとしても復旧できるようにXXXしたい」であれば、 **耐障害性**\nを求めているだけで、バックアップはその手段の1つでしかありません。バックアップではないものの耐障害性のあるRAID1で満足できるのであれば、それが答えなのではないでしょうか。", "comment_count": 4, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-07T22:56:39.807", "id": "93235", "last_activity_date": "2023-01-07T22:56:39.807", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "4236", "parent_id": "93234", "post_type": "answer", "score": 4 }, { "body": "RAID という仕組みは、如何にデータを安全に保つか = 安全性・耐障害性を高めるための仕組みであり、バックアップとは視点が違います。 \n確かにハード的な障害には強いかもしれないけれど、ユーザーが誤って削除したファイル等を復旧できるわけではありません。\n\nバックアップが必要であるなら、素直に別媒体へのコピー等を検討すべきです。\n\n外付けのHDDやNASは、「バックアップの保存先で、データが壊れては困るもの」なので RIAD 構成を取る場合が多いです。\n\n[RAID(レイド)だからって過信は禁物!構造を理解してマメにバックアップを取ろう!](https://www.buffalo.jp/topics/trouble/detail/recovery_0005.html)\n\n>\n> 冗長性のあるRAIDだとしてもデータを誤って削除してしまったり、ウィルス感染、ファイルの破損等によるデータの損失は一般のパソコンや外付けHDDと同じリスクで常に存在しています。\n>\n> (中略)\n>\n> RAIDを構成したNASなどを使用していたとしても、外付けHDDなどの記憶媒体を使って定期的にバックアップを取ることが重要です。", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T05:41:48.073", "id": "93240", "last_activity_date": "2023-01-08T08:19:33.973", "last_edit_date": "2023-01-08T08:19:33.973", "last_editor_user_id": "3060", "owner_user_id": "3060", "parent_id": "93234", "post_type": "answer", "score": 3 }, { "body": "## 先に回答\n\n>\n> 上の調査を元に質問があるのですが、RAID1は何等かの原因で片方のHDDが故障してデータが破損した時に、もう片方のHDDにも壊れたデータが同期されてしまうのでしょうか?\n\nA.されません。安心してください。(ただし、壊れたデータで上書き保存してしまった場合は別です)\n\n> 私はHDDの故障に対してのバックアップが欲しいと考えてるのですがRAID1ではバックアップになりませんか?\n\nA.なりません。今回の要件であればRAIDのメリットは必要なさそうなので素直にバックアップを取る方がいいでしょう。 \n一応、RAID1でも質問者の望みは99%叶えられます。(1%については以下余談を参照ください)\n\n## 以下余談(個人的見解)\n\n> RAID1はバックアップにならないという記事を見かけ不安になったため質問した次第です\n\n他の方も言及されていますが、そもそも **バックアップとRAIDでは厳密には趣旨が違う** ので混乱されているのではないでしょうか。\n\n個人的な解釈ですが、 \nバックアップ「間違って作業データ消しちまった!今日の作業は消えちまったけど **昨日までのデータはバックアップしてあったから復旧できるぞ** 」 \n・完全性重視 \nメリット:バックアップ済み範囲はデータが保証される( **バックアップ自体を消してしまわない限り、完全に当時の状況に戻せる** ) \nデメリット:バックアップ範囲外は保証できない、 **故障すると復旧まで稼働できない** ←24H稼働させたいサーバーでは致命的\n\nRAID1「相方が壊れちまった! **ここは俺が何とかするから今のうちにもう片方を交換してくれ!** 」 \n・稼働率重視 \nメリット: **片方が壊れても稼働を続けられる** (その間に故障したほうを交換する) \nデメリット:リアルタイム性を重視したため、 **対応できるリスク範囲を削っている** (ユーザーの誤操作などの場合は対応できない。など)、\n**両方同時に壊れたら意味ない**\n\nといった感じです。 **絶対にデータを失いたくないからバックアップを取り** 、 **可能な限りシステムを止めたくないからRAIDを使う**\nので、最優先事項が違うのです。\n\nユーザーの誤操作に対応出来ないのはRAIDでは実質的にバックアップデータ自体を同時に操作しているのと同じ状態だからです。\n\nしかし、どちらの手法でも質問者さんの要望には応えられます。 **最優先事項が違うだけで、やろうとしてることはほぼ同じなので。** \nどちらのメリットを優先するかで選ばれてはどうでしょうか。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-09T05:47:44.200", "id": "93264", "last_activity_date": "2023-01-09T06:03:21.497", "last_edit_date": "2023-01-09T06:03:21.497", "last_editor_user_id": "56458", "owner_user_id": "56458", "parent_id": "93234", "post_type": "answer", "score": 2 }, { "body": "質問者氏の「バックアップ」と、読者の「バックアップ」の用語が使い方が違っているので混乱を招いているだけかと\n\n * 読者一般にとってのバックアップ=過去のファイルを復活させる手段\n * 質問者氏のバックアップ=現在ファイルの可用性・対障害性の向上のこと\n\nランサムウエア(デジタル身代金要求)の被害があったとき RAID では対処できない、バックアップが別途オフライン保存してあれば対処できる、という意味で\nRAID はバックアップの代わりになりません。 RAID1 でも RAID5 でも RAID6\nでも暗号化されたデータによって上書きされちゃうからです。オンラインバックアップも暗号化されちゃったら意味がないですが、例えばウチなんかだと LTO\n(テープメディア)\nに取ったバックアップは不慮の事故で消さないように装置から外してオフライン保管していますので、こういう攻撃には「正しく運用されているバックアップ」があれば、強いはず。\n\nあと質問者氏の訊きたいことは実はこっちなのでは?と妄想\n\nQ1. RAID1 で片方の記憶装置だけに誤ったデータを書き込むことがあるか? \nA1. 片方だけに誤ったデータを書き込むとは RAID1\nカードの中で、あるいはカード→記憶装置への転送中、あるいは記憶装置の中で実媒体に書き込む際にデータが化けた場合であるはず。そういう化けが起こるとしたら\nRAID 構成でなくても起きるわけです。あとはその信頼性をどの程度に見積もるかだけ。 RAID1\nカードという物理装置が1つ増えた分、化けの発生確率は上がっているが、実用上は発生しないと考えてよいだろうと推定してよいでしょう\n\nQ2. RAID1 で片方の記憶装置のデータが化けている(=物理故障と判断されないレベル)とき、どちらの結果が OS に返されるか \nA2. カードの実装によるでしょうが、たいていは下記のどちらかでしょう\n\n * 先に応答が完了した装置の応答だけが OS に返される\n * RAID1 カードが定めた1台の装置の応答だけが OS に返される\n\n実際、2台の記憶装置しかないときはどっちが **化けている** のかは誰にも判断できません( RAID1\nカードにとっても、人間にとっても)なのでこれを検出・訂正するには3台以上の記憶装置が必要です(多数決一致ではじくことができる)。3台以上の記憶装置を設置することができる状況では\nRAID5 に、4台以上設置可能なら RAID6 にしますので RAID1 で多数決一致判断するようなカードはまずないです。\n\nQ3. RAID1 において片方の装置が「壊れている」とはどういうことか \nA3. それはそのカード(とドライバ)の仕様次第なので、事前確認のこと \nSMART 値を見ているかもしれないし READ/WRITE コマンドに対する応答時間で判断しているかもしれないし READ/WRITE\nコマンドに対する失敗応答を見ているかもしれないです。ハードディスク装置の壊れかけ状況では READ RETRY\nを数回繰り返さないと値が得られないことがあるなんてのが普通にありますが、片肺が健全ならそっちから先にデータを得られるので Q2 な状況にて対処できます。\n\nRAID をどれだけ信頼して良いか・どのレベルの RAIDn が必要かは事前の検討が必要です。コストと可用性のバランス面で RAID1\nは悪くない選択肢です。が RAID は過去ファイルを別途保存するものではないのでバックアップの代わりにはなりません。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T01:18:33.180", "id": "93276", "last_activity_date": "2023-01-10T06:51:43.953", "last_edit_date": "2023-01-10T06:51:43.953", "last_editor_user_id": "8589", "owner_user_id": "8589", "parent_id": "93234", "post_type": "answer", "score": 3 }, { "body": "RAID1とバックアップの違いが気になっているようですので、その観点を中心に回答します。\n\nまず、バックアップとは何かという点を定義します。本回答ではISO/IEC\n2382における次の定義に従うものとします。するとRAID1はこの定義に当てはまるため、 **バックアップである**\nといえます。さらに既に廃止された規格ですが、JIS X\n0008におけるバックアップの定義に従った場合もRAID1はバックアップの一手段であると解釈できます。\n\n> **backup** \n> pertaining to a procedure, technique, or hardware used to help recover lost\n> or destroyed data or to keep a system operating\n\nその一方で、質問中の記事や一般論などで広く用いられている意味でのバックアップは、実務上の運用方法を前提として、スナップショットをn世代分保存しておくようなものを指すことが多いという背景があり、「RAID1はバックアップとしては不十分、ないしバックアップではない」という主張が出てくることになるわけです。\n\nこのように「RAID1がバックアップかどうか」という論点は単語の解釈や言葉の使いようなどで如何様にも結論が変わるものなので、 **本質ではない**\nと考えて差し支えないと思います。\n\n本件で重要な点は運用する立場として、想定した構成によって要求される条件を満たせているかどうかです。これを念頭に置いて他回答を改めて読むと有益な情報を得られると思います。\n\nご参考になれば幸いです。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-11T02:39:31.840", "id": "93302", "last_activity_date": "2023-01-11T02:39:31.840", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56499", "parent_id": "93234", "post_type": "answer", "score": 4 } ]
93234
null
93235
{ "accepted_answer_id": null, "answer_count": 0, "body": "flaskでページネーションの実装をおこなっていましたが、 \nどうしても、下記のエラーが解決できません。\n\nuser_maintenance.html内のfor文やif文のブロックに問題があるようですが、 \n{% endfor %}や{% endif %}はじっかりとfor文、if文に対応できていると思っております。 \nエラー文の \n**閉じる必要がある最も内側のブロックは「for」です。** \nという箇所も、しっかりと、for文は、閉じております。\n\nこの様なエラーで、他に確認すべきこと、解決策をご教示いただければと思います。\n\n```\n\n jinja2.exceptions.TemplateSyntaxError: 不明なタグ 'endblock' が見つかりました。あなたはおそらく入れ子の間違いを犯しました。Jinja はこのタグを期待していますが、現在 'endfor' または 'else' を探しています。閉じる必要がある最も内側のブロックは「for」です。\n \n```\n\n```\n\n # app.py\n \n @app.route('/user_maintenance')\n def user_maintenance():\n \n page = request.args.get('page', 1, type=int)\n users = User.query.order_by(User.id).paginate(page=page, per_page=10)\n return render_template('user_maintenance.html', users=users)\n \n```\n\n```\n\n <!-- user_maintenance.html -->\n \n <nav class=\"my-2\" aria-label=\"Page navigation\">\n <ul class=\"pagination justify-content-center\">\n <li {% if users.has_prev %}class=\"page-item\"{% else %} class=\"page-item disabled\"{% endif %}><a class=\"page-link\" href=\"{% if users.has_prev %}{{ url_for('user_maintenance', page=users.prev_num) }}{% else %}#{% endif %}\">前へ</a></li>\n \n \n {% for page_num in users.iter_pages(left_edge=1, right_edge=1, left_current=1, right_current=2) %} \n {% if page_num %}\n {% if users.page == page_num %}\n <li class=\"page-item disabled\"><a class=\"page-link\" href=\"#\">{{ page_num }}</a></li>\n {% else %}\n <li class=\"page-item\"><a class=\"page-link\" href=\"{{ url_for('user_maintenance', page=page_num) }}\">{{ page_num }}</a></li>\n {% endif %}\n {% else %}\n <li class=\"page-item disabled\"><a class=\"page-link\" href=\"#\">&hellip;</a></li>\n {% endif %}\n {% endfor %}\n \n <li {% if users.has_next %}class=\"page-item\"{% else %} class=\"page-item disabled\"{% endif %}><a class=\"page-link\" href=\"{% if users.has_next %}{{ url_for('user_maintenance', page=users.next_num) }}{% else %}#{% endif %}\">次へ</a></li>\n </ul>\n </nav> \n \n \n```", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T00:58:19.477", "favorite_count": 0, "id": "93237", "last_activity_date": "2023-01-08T00:58:19.477", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": null, "post_type": "question", "score": 0, "tags": [ "python", "python3", "html5", "flask" ], "title": "flask jinjaテンプレート内での制御文エラーについて", "view_count": 74 }
[]
93237
null
null
{ "accepted_answer_id": null, "answer_count": 1, "body": "現在、\n[ALDS1_8_A](https://onlinejudge.u-aizu.ac.jp/courses/lesson/1/ALDS1/8/ALDS1_8_A)を行っています。2分探索木です。\n\n解答コードは、以下のような形です。\n\ninsert関数の中で、`x`を現在の比べるノード,`y`を親のノード,`z`を挿入するノード \nとして考えていると思うのですが、xに対して初期値の`root`ポインタを入れている挙動が分かりません。 \n具体的には、While文の条件文です。 \n`x`が`Nil`ではない条件だと思うのですが、そもそもxに最初から`Nil`なんて入っているのでしょうか? \nxに入っている初期の値は、Nilではなく`root`だと思います。 \n`root`は、Nodeポインタ型だと思うのですが、`root`は`Nil`ではないと思います。 \nC/C++では、変数は定義したが実際にはその中に値が入っていない場合は`Nil`となるのでしょうか?\n\nご教授よろしくお願い致します。\n\n```\n\n struct Node {\n int key;\n Node *right, *left;\n };\n \n Node *root, *NIL;\n \n void insert(int k) {\n Node *y = NIL;\n Node *x = root;\n Node *z;\n \n z = (Node *)malloc(sizeof(Node));\n z->key = k;\n z->left = NIL;\n z->right = NIL;\n \n while ( x != NIL ) {\n y = x;\n if ( z->key < x->key )\n x = x->left;\n else\n x = x->right;\n }\n \n if ( y == NIL ) {\n root = z;\n } else {\n if ( z->key < y->key )\n y->left = z;\n else\n y->right = z;\n }\n }\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T04:21:50.043", "favorite_count": 0, "id": "93238", "last_activity_date": "2023-01-08T07:35:56.987", "last_edit_date": "2023-01-08T07:35:56.987", "last_editor_user_id": "3060", "owner_user_id": "47147", "post_type": "question", "score": 1, "tags": [ "c++", "c" ], "title": "C/C++において、変数定義のみの場合はNilとなるのか?", "view_count": 173 }
[ { "body": "```\n\n Node *root, *NIL;\n \n```\n\n`root`、`NIL` はグローバル変数なので、初期値は 0 になります。よって、ローカル変数 `x` も `y` も初期値は 0 です。`NIL`\nとの比較は 0 と比較していることになります。\n\n* * *\n\nC言語のまともなコードなら、`NIL` という変数は作らずに `NULL` を使うのが普通でしょう。C++のまともなコードなら、`NIL`\nという変数は作らずに `nullptr` を使うのが普通でしょう。", "comment_count": 4, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T04:39:48.957", "id": "93239", "last_activity_date": "2023-01-08T05:10:40.227", "last_edit_date": "2023-01-08T05:10:40.227", "last_editor_user_id": "3475", "owner_user_id": "3475", "parent_id": "93238", "post_type": "answer", "score": 4 } ]
93238
null
93239
{ "accepted_answer_id": null, "answer_count": 1, "body": "## 目的\n\n作成したカウント機能を使ってカスタムフックの作り方を学びたい。\n\n## 状況\n\n現在Reactを学習中で、コンポーネントの中でのuseStateの使い方を学びました。 \n次は作成した処理をカスタムフックとして作成したいのですが、webで調べても作り方がいまいちわからなかったので自分のコードをを使うとどうなるのかをお聞きしたいです。\n\n## 聞きたいこと\n\n下記のコードのカウントダウン機能・アラート表示機能のロジックを分離させる際、どのように分割すれば良いのでしょうか?\n\n## コード\n\n```\n\n import { Link } from \"react-router-dom\";\n import { useState } from \"react\";\n \n export const CountPage = () => {\n const [count, setCount] = useState(0);\n const [alert, setAlert] = useState(false);\n \n const increment = () => {\n setCount(count + 1);\n setAlert(false);\n };\n \n const decrement = () => {\n if (0 < count) {\n setCount(count - 1);\n } else {\n setAlert(true);\n }\n };\n \n return (\n <>\n <div className=\"text-center\">\n <h2>カウント画面</h2>\n <p>現在の値:{count}</p>\n </div>\n <div className=\"m-4 text-center\">\n <button\n className=\"m-4 bg-blue-400 hover:bg-blue-500 text-white font-bold py-2 px-4 rounded\"\n onClick={increment}\n >\n +\n </button>\n <button\n className=\"m-4 bg-red-400 hover:bg-red-500 text-white font-bold py-2 px-4 rounded\"\n onClick={decrement}\n >\n -\n </button>\n </div>\n {alert ? (\n <p className=\"bg-red-100 border border-red-400 text-red-700 m-4 px-4 py-3 rounded relative\">\n 値を0以下にはできません。\n </p>\n ) : (\n \"\"\n )}\n </>\n );\n };\n \n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T07:34:01.970", "favorite_count": 0, "id": "93242", "last_activity_date": "2023-01-10T00:02:12.813", "last_edit_date": "2023-01-08T13:30:36.260", "last_editor_user_id": "46713", "owner_user_id": "46713", "post_type": "question", "score": 0, "tags": [ "reactjs" ], "title": "Reactで既存の処理をカスタムフックに分離させる方法を知りたい", "view_count": 54 }
[ { "body": "`increment()` と `decrement()` で `alert` state\nを更新しているところが、複雑さをもたらしているのではないかと思います。\n\n`alert` state は `count` state より計算可能なため、 state ではなく `count`\nを使って計算してしまってはどうでしょうか?\n\n```\n\n const isNegative = count < 0;\n \n```\n\n何を state として保持するかについては、以下記事がとてもわかりやすいのでおすすめです。 \n<https://beta.reactjs.org/learn/you-might-not-need-an-effect>\n\nそうすると複雑さが消えて、本題のカスタムフックへの抽出もシンプルになるかと思います。 \n以下が抽出できそうですね。 \nカスタムフックの作り方は以下記事を参考にしてみてください。 \n<https://ja.reactjs.org/docs/hooks-custom.html>\n\n```\n\n const [count, setCount] = useState(0);\n const increment = () => {\n setCount((prevCount) => prevCount + 1);\n };\n const decrement = () => {\n setCount((prevCount) => prevCount - 1);\n };\n \n```\n\nもう一点、補足で指摘させていただきますと、 `setCount(count + 1)` のところ以下のようにした方が良いです。 \n参照: \n<https://zenn.dev/stin/articles/use-appropriate-api>\n\n```\n\n setCount((prevCount) => prevCount + 1);\n \n```\n\n参考までに、私が試してみた Sandbox のリンクも貼っておきますね。 \n<https://codesandbox.io/s/youthful-\nshape-5nfsb2?file=/src/useCounter.jsx:143-182>\n\n勉強頑張ってください!", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T00:02:12.813", "id": "93273", "last_activity_date": "2023-01-10T00:02:12.813", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "53321", "parent_id": "93242", "post_type": "answer", "score": 1 } ]
93242
null
93273
{ "accepted_answer_id": null, "answer_count": 1, "body": "これらのコードを動作させることを目標としています。現段階では特定のタグを消滅を可能にすれば問題ないです。\n\n今後の事を含めた解決も可能である場合は、タグを消滅するボタンに更に登録機能を付けたいと考えています。\n\n★便宜上、下記で記述したリンクにおいてbunndle.jsを作成しており、その記述は今回は問題が多面化するため、削除しています。 \nまた、bunndle.js単体での機能は動作しております。\n\n<中核コード(今後結合予定)> \n<https://qiita.com/dsk_datadog/items/6dfc55f35db24614107d>\n\n対処方法などありましたら、よろしくお願いします。\n\n現在参考中のリファレンス \n<中核コード> \n<https://dojotoolkit.org/documentation/tutorials/1.10/modern_dojo/index.html> \n<中核コード→実際に動くサンプルコード> \n<https://dojotoolkit.org/documentation/tutorials/1.10/modern_dojo/demo/modern_dojo-\nparser.html>\n\n<中核コード(今後結合予定)> \n<https://qiita.com/dsk_datadog/items/6dfc55f35db24614107d>\n\n<機能実装に従い参考にしている最中のコード達> \n<https://dojotoolkit.org/documentation/tutorials/1.10/dom_functions/index.html> \n<https://gis.stackexchange.com/questions/182364/uncaught-typeerror-cannot-\nread-property-on-of-undefined> \n<https://dojotoolkit.org/documentation/tutorials/1.10/using_query/index.html>\n\n* * *\n\nエラーメッセージ\n\n```\n\n Uncaught TypeError: Cannot read properties of undefined (reading 'on')\n at l (dojo.js.uncompressed.js:8613:13)\n at index.html:45:6\n at ja (dojo.js.uncompressed.js:1164:35)\n at dojo.js.uncompressed.js:1330:6\n at ka (dojo.js.uncompressed.js:1307:5)\n at ha (dojo.js.uncompressed.js:1325:4)\n at r (dojo.js.uncompressed.js:1492:7)\n at HTMLScriptElement.<anonymous> (dojo.js.uncompressed.js:1745:20)\n button.png:1 Failed to load resource: net::ERR_FILE_NOT_FOUND\n \n```\n\ndemo.css\n\n```\n\n * {\n outline: none !important;\n }\n \n body {\n margin: 0;\n padding: 2em;\n font-family: Lucida Sans,Lucida Grande,Arial !important;\n font-size: 13px !important;\n background: white;\n color: #333;\n }\n \n button {\n -webkit-transition: background-color 0.2s linear;\n border-radius:4px;\n -moz-border-radius: 4px 4px 4px 4px;\n -moz-box-shadow: 0 1px 1px rgba(0, 0, 0, 0.15);\n background-color: #E4F2FF;\n background-image: url(\"//ajax.googleapis.com/ajax/libs/dojo/1.7.4/dijit/themes/claro/form/images/button.png\");\n background-position: center top;\n background-repeat: repeat-x;\n border: 1px solid #769DC0;\n padding: 2px 8px 4px;\n font-size:1em;\n }\n \n button:hover {\n background-color: #AFD9FF;\n color: #000000;\n }\n \n h1 {\n font-size:1.5em;\n }\n \n .break\n {\n float:none;\n clear:both;\n }\n \n```\n\nindex.html\n\n```\n\n <!DOCTYPE html>\n <html lang=\"ja\">\n <head>\n <meta charset=\"UTF-8\" />\n <title>Web SQL Database</title>\n <link rel=\"stylesheet\" href=\"demo.css\" media=\"screen\" type=\"text/css\">\n <link rel=\"stylesheet\" href=\"https://ajax.googleapis.com/ajax/libs/dojo/1.13.0/dijit/themes/claro/claro.css\" media=\"screen\">\n </head>\n <body class=\"claro\">\n <input type=\"text\" name=\"todo\" />\n \n \n \n <button data-dojo-type=\"dijit/form/Button\" type=\"button\" name=\"register\" id=\"Button1\">\n <span>登録</span>\n \n \n </button>\n \n <table id=\"table\">\n <thead>\n <tr>\n <span id=\"test\">No Todo</span>\n \n \n <th></th>\n <th></th>\n </tr>\n </thead>\n <tbody>\n <!-- TODOを追加していく -->\n </tbody>\n </table>\n \n \n <script src=\"https://ajax.googleapis.com/ajax/libs/dojo/1.13.0/dojo/dojo.js\" data-dojo-config=\"isDebug: 1, async: 1, parseOnLoad: 1\"></script>\n <script>\n require([\"dojo/parser\", \"dojo/dom\", \"dojo/dom-construct\", \"dojo/on\",\"dijit/registry\",\"dijit/form/Button\", \"dojo/domReady!\"], function(parser,dom, domConstruct, on,registry){\n var myClick = function(evt){\n var test = dom.byId(\"test\");\n domConstruct.empty(\"test\");\n \n };\n \n on(registry.byId(\"button1\"), \"click\", myClick);\n parser.parse();\n \n });\n </script>\n \n </body>\n </html>\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T08:23:39.957", "favorite_count": 0, "id": "93243", "last_activity_date": "2023-01-08T14:41:49.293", "last_edit_date": "2023-01-08T11:26:19.927", "last_editor_user_id": "4236", "owner_user_id": "56443", "post_type": "question", "score": 0, "tags": [ "javascript" ], "title": "DOJOでボタンを押すと消えるタグを作る際の ONに関する問題", "view_count": 51 }
[ { "body": ">\n```\n\n> on(registry.byId(\"button1\"), \"click\", myClick);\n> parser.parse();\n> \n```\n\n[`dojo/parser`](https://dojotoolkit.org/reference-\nguide/1.10/dojo/parser.html)の`parser.parse()`が`data-dojo-\ntype`によるWidgetの作成を行うことに注意してください。前行であればまだ`parser.parse()`の実行前なので`button1`\nWidgetは作成されておらず、もちろん`registry.byId()`で取得することもできません。\n\n```\n\n parser.parse().then(function(){\n on(registry.byId(\"button1\"), \"click\", myClick);\n });\n \n```\n\nと`parser.parse()`の完了を待って実行するのはどうでしょうか。\n\n* * *\n\nもう1点見逃していました。\n\n>\n```\n\n> <script\n> src=\"https://ajax.googleapis.com/ajax/libs/dojo/1.13.0/dojo/dojo.js\" data-\n> dojo-config=\"isDebug: 1, async: 1, parseOnLoad: 1\"></script>\n> \n```\n\n`dojo/parser`ですが、\n\n * `data-dojo-config=\"parseOnLoad: 1\"` の指定により暗黙的に開始されています。\n * `parser.parse()`により明示的に開始されています。\n\n詳しい挙動は把握していませんが、2つの実行は競合するように思われます。前述の通り、`parser.parse()`の完了後に`on()`を実行したいため、`parseOnLoad:\nfalse` とし、`parser.parse()` のみにするのはどうでしょうか。", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T11:22:41.267", "id": "93249", "last_activity_date": "2023-01-08T14:41:49.293", "last_edit_date": "2023-01-08T14:41:49.293", "last_editor_user_id": "4236", "owner_user_id": "4236", "parent_id": "93243", "post_type": "answer", "score": 1 } ]
93243
null
93249
{ "accepted_answer_id": "93246", "answer_count": 2, "body": "例えば、EC2インスタンスでnode.jsのアプリケーションが動いていて、RDSインスタンスとデータのやり取りをする場合、EC2インスタンスとRDSインスタンスはどのような通信プロトコルになるのでしょうか?\n\nローカルで開発している時は同じホストマシンの中でアプリケーションとDBが動いていて、ローカルとの違いも気になります(パフォーマンスの違いなど)。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T09:33:41.667", "favorite_count": 0, "id": "93245", "last_activity_date": "2023-01-10T05:45:57.203", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "41605", "post_type": "question", "score": 0, "tags": [ "database" ], "title": "アプリケーションサーバとDBサーバの通信プロトコルについて", "view_count": 380 }
[ { "body": ">\n> 例えば、EC2インスタンスでnode.jsのアプリケーションが動いていて、RDSインスタンスとデータのやり取りをする場合、EC2インスタンスとRDSインスタンスはどのような通信プロトコルになるのでしょうか?\n\nどのデータベースエンジンを選択するかによります。例えば、Amazon RDS for\nPostgreSQLを選択した場合は、PostgreSQLの通信プロトコルが使われます。\n\n選択できるデータベースエンジンのリストです。[よくある質問 - Amazon RDS |\nAWS](https://aws.amazon.com/jp/rds/faqs/)\n\n> ローカルで開発している時は同じホストマシンの中でアプリケーションとDBが動いていて、ローカルとの違いも気になります(パフォーマンスの違いなど)。\n\n~~パフォーマンスに絞って回答しますが、様々な要素から違いはあります。2つ挙げておきます。\n\n * インターネットを経由するアクセスである\n * ローカルのホストマシンとのスペックの差異 \n~~\n\nパフォーマンスに絞って回答しますが、RDSはAWSのデータセンターからインターネット越しに提供するサービスなので、インフラが全く異なり、ローカルで立てたデータベースと比較することに無理があると思います。\n\nしかしながら、本番環境のデータベースと同等のパフォーマンスを、開発用途で求められるケースはあまり知りません。開発用のRDSを用意する場合でも、コスト面の理由から、本番環境より低スペックにすることが多いです。ローカルのホストマシンでデータベースを立てるなら、尚更だと思います。", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T10:49:36.187", "id": "93246", "last_activity_date": "2023-01-08T11:07:39.213", "last_edit_date": "2023-01-08T11:07:39.213", "last_editor_user_id": "4982", "owner_user_id": "4982", "parent_id": "93245", "post_type": "answer", "score": 0 }, { "body": "EC2 使っていないので, EC2特有のことはわかりませんが ・・・\n\nAmazon RDSは 6つのデータベースエンジンから選択できるようです。 \n接続する場合たいてい \n[Open Database Connectivity\n(ODBC)](https://ja.wikipedia.org/wiki/Open_Database_Connectivity), \n[Java Database Connectivity\n(JDBC)](https://ja.wikipedia.org/wiki/Java_Database_Connectivity) \nなど開発言語に合わせた共通インタフェースを使用することになるはず。 \n(例えば Pythonならば [DB-API 2.0](https://docs.python.org/ja/3/library/sqlite3.html)\n([PEP 249](https://peps.python.org/pep-0249/)) のように)\n\n(Node.jsであれば ODBC利用できそう?)\n\n共通インタフェースを利用することで\n\n * 別の RDBMSを利用する場合でも, 比較的同じように開発できる\n * デメリットとしては, 対象の RDBMSの本来の力を発揮できない **かも** しれない\n\nそしてその「ドライバー」が, RDBMSのサーバーとのやりとりを行なうので,\nプロトコルを意識する必要はないでしょう。[TCPやUDPにおけるポート番号の一覧](https://ja.wikipedia.org/wiki/TCP%E3%82%84UDP%E3%81%AB%E3%81%8A%E3%81%91%E3%82%8B%E3%83%9D%E3%83%BC%E3%83%88%E7%95%AA%E5%8F%B7%E3%81%AE%E4%B8%80%E8%A6%A7)\nによるとポート番号も RDBMS毎にそれぞれ異なり, また TCP,UDP 使うのもあれば TCPのみもある模様。\n\nプロトコルを比較してみた方もいるようで, (あくまで 記事書いた方の印象として, だけど)\n\n> 端的に言えば、PostgreSQLは高速かつ合成的で合理的、対するMySQLの仕様は厳密で冗長的な設計の印象を持ちました。\n\n参考:\n[POSTGRESQL・MYSQLの問い合わせ(QUERY)プロトコルの比較](http://www.cybergarage.org/memo/rdbms_query_protocols/)\n\n* * *\n\n> ローカルとの違いも気になります(パフォーマンスの違いなど)\n\nRDBMSが専用サーバーで動くのなら, 各種のリソース (CPU / memory / HDD など)を フロントエンドと奪い合うことなく利用できるので,\n理論的にはパフォーマンスはよくなるでしょう。 \n通信を行なうことでの IPCとの速度差は, 場合によっては無視できるはず \n(クエリーの違いで, パフォーマンスは異なるかもしれない)", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T05:45:57.203", "id": "93282", "last_activity_date": "2023-01-10T05:45:57.203", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "43025", "parent_id": "93245", "post_type": "answer", "score": -1 } ]
93245
93246
93246
{ "accepted_answer_id": "93251", "answer_count": 1, "body": "`brew install neovim` \nを実行すると\n\n```\n\n Cannot install in Homebrew on ARM processor in Intel default prefix (/usr/local)!\n Please create a new installation in /opt/homebrew using one of the\n \"Alternative Installs\" from:\n https://docs.brew.sh/Installation\n You can migrate your previously installed formula list with:\n brew bundle dump\n \n```\n\nとエラーが出ました。 \nHomebrewのインストール推奨先が/local/bin配下でしたが、M1 MacOS\nARMからはインストール推奨先がopt/homebrewへ変更になり、パスの変更が必要らしいです。\n\nパスを変更する手順を教えていただきたいです。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T10:53:35.497", "favorite_count": 0, "id": "93247", "last_activity_date": "2023-01-08T13:45:09.253", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "55232", "post_type": "question", "score": 0, "tags": [ "macos", "homebrew", "neovim" ], "title": "M1でCannot install in Homebrew on ARM processorエラー", "view_count": 226 }
[ { "body": "Homebrewの初期設定を.zprofileファイルに追記してください。 \nターミナルを再起動すれば、環境変数PATHが設定されます。\n\n```\n\n eval \"$(/opt/homebrew/bin/brew shellenv)\"\n \n```", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T13:45:09.253", "id": "93251", "last_activity_date": "2023-01-08T13:45:09.253", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "43005", "parent_id": "93247", "post_type": "answer", "score": 0 } ]
93247
93251
93251
{ "accepted_answer_id": "93258", "answer_count": 3, "body": "以下のようなURLのサービスを作っているとします。 \n<https://example.com/hoge-service/> ←ここがトップ画面 \n<https://example.com/hoge-service/favorite> \n<https://example.com/hoge-service/user/123456> ユーザーページ \n<https://example.com/hoge-service/js/common.js> \n<https://example.com/hoge-service/image/banner.png>\n\n<https://example.com/hoge-service/> がトップページで、そこより上へアクセスする事はありません \n<https://example.com/hoge-service-help> ←これは無い\n\nこの時、どのページを表示していても任意のURL、例えば `/hoge-service/js/common.js`への相対パスを作る方法を教えてください。\n\n例えばトップページを基準に考えれば`<script src=\"./js/common.js\">`で良いですが \nユーザーページでは`<script src=\"./../js/common.js\">`と記載する必要があります。 \nscriptタグだけならテンプレートエンジンを書く時に注意する事も出来ますが、 \n実際にはjsの中からfetchでapiをコールする時とか、 \nスタイルシートの中でurl(./image/banner.png) にアクセスする時とか、 \nhtmlの中でimgタグを書く時とか、 \nパスを書く場所は無数にあるので、そこを全てサーバー側で動的に作るのは骨が折れます。\n\n`hoge-service`の部分は環境変数で動的に変更されるとします。 \nサーバー側はnode+express+ejsである程度の自由は効きますが、 \nhtml css jsの中の全てのパスをレスポンス時動的に差し替える というのは避けたいです。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T12:50:45.843", "favorite_count": 0, "id": "93250", "last_activity_date": "2023-01-08T22:16:44.767", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "805", "post_type": "question", "score": 0, "tags": [ "javascript", "html", "node.js", "express.js" ], "title": "webサイトの中で複数のページ共通の処理を書く時に相対パスはどう記述すれば良い?", "view_count": 137 }
[ { "body": "私自身は試した事がなく、今回少し調べた程度なのですが、「絶対パス」「相対パス」の他に \n**ルート相対パス** という記述方法があるようです。\n\nドメイン名をルートとして、`/` 始まりでパスを記述します。 \n対象ファイルの絶対パスが `https:/example.com/hoge-service/js/common.js` であるなら、ルート相対パスは\n`/hoge-service/js/common.js` になります。\n\n**参考:** \n[絶対パス、相対パス、ルート相対パスをわかりやすく解説!まずはイメージをつかもう!](https://d-fount.com/absolute-path-\nand-relative-path/)", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T16:45:31.770", "id": "93255", "last_activity_date": "2023-01-08T16:45:31.770", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "3060", "parent_id": "93250", "post_type": "answer", "score": 0 }, { "body": "フロントエンドは専門外ですが、こちらは使えますか?\n\n[未経験からのExpress.js入門|静的ファイル -\nwiblok](https://wiblok.com/js/node/express/express-static/)\n\n[node.js - EJS include file relative to project root - Stack\nOverflow](https://stackoverflow.com/questions/38487980/ejs-include-file-\nrelative-to-project-root)", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T21:28:54.903", "id": "93257", "last_activity_date": "2023-01-08T21:54:18.897", "last_edit_date": "2023-01-08T21:54:18.897", "last_editor_user_id": "4982", "owner_user_id": "4982", "parent_id": "93250", "post_type": "answer", "score": 0 }, { "body": "ものすごくマイナーですが、HTMLには1.0からずっと[`<base>`: 文書の基底 URL\n要素](https://developer.mozilla.org/ja/docs/Web/HTML/Element/base)があります。 \n質問の例では、`<head>`の前の方(他に相対パスが出現するより前)に\n\n```\n\n <base href=\"/hoge-service/\">\n \n```\n\nと書いておけば、html css js上の全ての相対パスは `/hoge-service/` を起点に処理されます。\n\nただし、MDNでも指摘されているように、ページ内アンカーまでもが文書の基底 URLに従ってしまい別ページへのリンクと解釈されるため注意が必要です。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T22:16:44.767", "id": "93258", "last_activity_date": "2023-01-08T22:16:44.767", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "4236", "parent_id": "93250", "post_type": "answer", "score": 0 } ]
93250
93258
93255
{ "accepted_answer_id": null, "answer_count": 1, "body": "PowerShellで `$form.ShowDialog()` すると、そこで処理が完全に止まってしまいます。 \nShowDialogの1秒後にWrite-Host \"hoge\"を処理するには、どうすればよいでしょうか?\n\nShowDialogの代わりにShow()を使うと、フォームのウィンドウがフリーズしました。\n\n・やりたいこと \nメインとなるフォームを表示させ、1秒後に、コンソールにhogeと表示する。", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T16:46:57.043", "favorite_count": 0, "id": "93256", "last_activity_date": "2023-01-09T04:15:54.013", "last_edit_date": "2023-01-09T04:15:54.013", "last_editor_user_id": "3060", "owner_user_id": "56253", "post_type": "question", "score": 0, "tags": [ "powershell" ], "title": "ShowDialogの後に処理する方法", "view_count": 151 }
[ { "body": "特にWinFormsの場合、いきなりPowerShellで試行錯誤するのではなく、C#で実装してからPowerShellに移植することをお勧めします。\n\n今回の質問でも`Form.Show()`、`Form.ShowDialog()`が取り上げられていますが、C#で実装すれば、`Program.cs`の`Main()`メソッドに\n\n```\n\n Application.Run(new Form1());\n \n```\n\nと書かれるわけで、PowerShellでも対応する処理を書く必要があることに気づけるはずですし、この行を実行するとフォームが閉じられるまで返ってこないことも理解できるはずです。\n\n> メインとなるフォームを表示させ、1秒後に、コンソールにhogeと表示する。\n\n上記の通りなので、フォーム内のいずれかのメソッドで出力する必要があります。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-08T22:35:11.313", "id": "93259", "last_activity_date": "2023-01-08T22:35:11.313", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "4236", "parent_id": "93256", "post_type": "answer", "score": 1 } ]
93256
null
93259
{ "accepted_answer_id": "93262", "answer_count": 1, "body": "以下で公開されている解答例について、Pythonの代入ルールに関する質問がございます。 \n<https://leetcode.com/problems/remove-nth-node-from-end-of-\nlist/solutions/1164537/short-simple-one-pass-solution-w-explanation-\nbeats-100-no-dummy-node-required/?orderBy=most_votes>\n\nいくつかの解法の中で、以下のようなコードがあります。\n\n```\n\n def removeNthFromEnd(self, head: ListNode, n: int) -> ListNode:\n ptr, length = head, 0\n while ptr:\n ptr, length = ptr.next, length + 1\n if length == n : return head.next\n ptr = head\n for i in range(1, length - n):\n ptr = ptr.next\n ptr.next = ptr.next.next\n return head\n \n```\n\n解法の考え方は理解しているのですが、以下のコードでなぜheadの中身が変更されることになるのかが理解できません。pythonでの代入はcopyとは異なるため、ptrの変更もheadに反映されるのだとしても、以下のコードでは最終的にptrは\"インデックスがlength-\nn番目から始まる線形リスト\"になっており、\"元の線形リストの後ろからn番目を飛ばしたもの\"にはなっていないのではないかと思います。\n\n```\n\n ptr = head\n for i in range(1, length - n):\n ptr = ptr.next\n ptr.next = ptr.next.next\n \n```\n\n上記コードによりなぜ正しい答えが得られるのか、どなたかご教授いただけるとありがたいです。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-09T03:10:51.370", "favorite_count": 0, "id": "93261", "last_activity_date": "2023-01-09T04:23:21.947", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56454", "post_type": "question", "score": 0, "tags": [ "python" ], "title": "leetcodeの問題19. Remove Nth Node From End of Listのとある解答についてです。", "view_count": 75 }
[ { "body": "`head`が線形リスト全体を表すデータと勘違いされているのではないかと予想します。\n\n問題文に記載されている前提を読むとわかりますが、`ListNode`は、線形リストの1要素を示すものです。\n\n```\n\n # Definition for singly-linked list.\n # class ListNode:\n # def __init__(self, val=0, next=None):\n # self.val = val\n # self.next = next\n \n```\n\n`head`はその先頭要素を指しており便宜上線形リスト全体を示しています。そのため、関数の戻り値として`head`を返しています。 \n(例外として、`n == length`(先頭要素を削除する)ケースだけ`head.next`を返してます)\n\nですので、\n\n> 最終的にptrは\"インデックスがlength-n番目から始まる線形リスト\"になっており、\"元の線形リストの後ろからn番目を飛ばしたもの\"にはなっていない\n\nという理解は正しいですが、関数内でしか使っていないので、処理結果として捉えるのは間違っていると思います。\n\n#\"元の線形リストの後ろからn番目を飛ばしたもの\"にするための処理は質問文で抽出している箇所で行ってますね。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-09T04:23:21.947", "id": "93262", "last_activity_date": "2023-01-09T04:23:21.947", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "20098", "parent_id": "93261", "post_type": "answer", "score": 0 } ]
93261
93262
93262
{ "accepted_answer_id": "93266", "answer_count": 1, "body": "vsocdeで vue3 と typescriptでコードを書いています。 \n次のようなコードで typeで型指定後に obj から itemObj に値を移そうとするとエラーになります。\n\n```\n\n type Obj = {\n Timeline: {\n Items: ItemsObj[];\n };\n };\n type ItemsObj = {\n [key: string]: { \n CharacterName: string;\n };\n };\n \n //略\n \n const obj= ref<Obj>();\n const itemsObj= ref<ItemsObj>();\n \n \n //略\n \n itemsObj.value = obj.value?.Timeline?.Items;\n \n```\n\nvscodeが `itemsObj.value` の部分で下記のようなエラーを出力します。 \n`型 'itemsObj[] | undefined' を型 'itemsObj | undefined' に割り当てることはできません。`\n\ntype obj の中で itemsObj[] となっていますので、配列指定されています \ntype itemObj の中では `[key:string]:{` と配列を受け入れられる状態だと思います。\n\ntype itemObj の設定方法が間違っているような気はするのですが、 \nどのように書くことが正しいのかがわからずにいます。\n\n修正すべきところを教えていただけると嬉しいです。 \nよろしくお願いします。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-09T05:33:02.227", "favorite_count": 0, "id": "93263", "last_activity_date": "2023-01-18T12:09:51.803", "last_edit_date": "2023-01-18T12:09:51.803", "last_editor_user_id": "3060", "owner_user_id": "7980", "post_type": "question", "score": 0, "tags": [ "javascript", "typescript", "vue.js" ], "title": "typescript にて typeで指定した型に代入にしようとすると配列を受け付けない", "view_count": 102 }
[ { "body": "下記の修正で問題がなくなりました\n\n```\n\n type Obj = {\n Timeline: {\n Items: ItemsObj[];\n };\n };\n type ItemObj = {\n CharacterName: string; // 1)[key:string] を削除\n };\n \n //略\n \n const obj= ref<Obj>();\n const itemsObj= ref<ItemObj[]>([]); // 2)<>内を配列化 & 初期値空配列指定\n \n \n //略\n \n itemsObj.value = obj.value.Timeline.Items; // 3)? 削除\n \n```\n\n 1. 配列のためのkeyとして設定していましたが、元データが連想配列ではなかったので削除\n\n 2. ジェネリックの中を配列として指定。これをしないと 1:1 の関係になりますね。更に初期化をしておかないと、typescriptが「undefinedの可能性あり」と判断します\n\n 3. 同様に変数の後ろに ? がある。ということは「undefinedの可能性あり」 と判断される\n\n上記の修正によって、型を一致(あるいは認識)させることができるようになりエラーがなくなりました。\n\n一つ一つをとってみると「そりゃそうだ」なのですが、同時に間違いがあるとお手上げになります。 \nこれでまた一つの経験を得たので、同じミスはしないと思います(ちゃんと覚えておこう)", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-09T08:27:37.213", "id": "93266", "last_activity_date": "2023-01-09T08:27:37.213", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "7980", "parent_id": "93263", "post_type": "answer", "score": 0 } ]
93263
93266
93266
{ "accepted_answer_id": null, "answer_count": 0, "body": "Google Colaboratory を使用しています。\n\n`pip install pylinac` でインストールし、以下のデモを走らせたところ、エラーが発生しました。\n\n**デモのコード:**\n\n```\n\n from pylinac import Starshot\n \n Starshot.run_demo()\n \n```\n\n**エラーメッセージ:**\n\n```\n\n ---------------------------------------------------------------------------\n TypeError Traceback (most recent call last)\n <ipython-input-3-ede644869295> in <module>\n ----> 1 from pylinac import Starshot\n 2 \n 3 Starshot.run_demo()\n \n 3 frames\n /usr/local/lib/python3.8/dist-packages/pylinac/ct.py in CatPhanBase()\n 2041 )\n 2042 \n -> 2043 def results(self, as_list: bool = False) -> Union[str, list[list[str]]]:\n 2044 \"\"\"Return the results of the analysis as a string. Use with print().\n 2045 \n \n TypeError: 'type' object is not subscriptable\n \n```\n\n調べたところ、pythonのversionは3.9から動作するようなので、\n\nWhat’s New In Python 3.9 — Python 3.11.1 documentation \n[pylinacのサイト](https://docs.python.org/3/whatsnew/3.9.html#type-hinting-\ngenerics-in-standard-collections)\n\n以下の手順で update したところ、ModuleNotFoundError\nが表示されます。確認するとpylinacはインストールしているようなので困っています。どなたか解決方法をご教授いただけないでしょうか? \nよろしくお願いします。\n\n```\n\n !wget -O mini.sh https://repo.anaconda.com/miniconda/Miniconda3-py39_4.9.2-Linux-x86_64.sh\n !chmod +x mini.sh\n !bash ./mini.sh -b -f -p /usr/local\n !conda install -q -y jupyter\n !conda install -q -y google-colab -c conda-forge\n !python -m ipykernel install --name \"py39\" --user\n \n```\n\n```\n\n ---------------------------------------------------------------------------\n ModuleNotFoundError Traceback (most recent call last)\n <ipython-input-4-ede644869295> in <module>\n ----> 1 from pylinac import Starshot\n 2 \n 3 Starshot.run_demo()\n \n ModuleNotFoundError: No module named 'pylinac'\n \n ---------------------------------------------------------------------------\n NOTE: If your import is failing due to a missing package, you can\n manually install dependencies using either !pip or !apt.\n \n To view examples of installing some common dependencies, click the\n \"Open Examples\" button below.\n ---------------------------------------------------------------------------\n \n```", "comment_count": 7, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-09T13:32:26.090", "favorite_count": 0, "id": "93267", "last_activity_date": "2023-01-09T16:33:47.437", "last_edit_date": "2023-01-09T16:33:47.437", "last_editor_user_id": "3060", "owner_user_id": "41571", "post_type": "question", "score": 0, "tags": [ "python", "google-colaboratory" ], "title": "ModuleNotFoundErrorが発生する", "view_count": 155 }
[]
93267
null
null
{ "accepted_answer_id": null, "answer_count": 0, "body": "オライリー社の\"実践 時系列解析\"という本で学習を進めています。 \nこの本のgithubリンクです -> <https://github.com/PracticalTimeSeriesAnalysis/BookRepo>\n\n一番下に添付したコードの通り、この本ではエポックごとに更新される重みと結果を記録する管理システムとしてperfライブラリの\n`perf.write_val()` を用いているのですが、perfライブラリのインストールがうまくいきません。\n\nまず、そのまま`import perf`を実行すると、`no module named`となるので\n\n```\n\n !pip install perf\n \n```\n\nとgoogle colab上で実行するのですが、その際\n\n```\n\n Looking in indexes: https://pypi.org/simple, https://us-python.pkg.dev/colab-wheels/public/simple/\n ERROR: Could not find a version that satisfies the requirement perf (from versions: none)\n ERROR: No matching distribution found for perf\n \n```\n\nと表示されてしまい、インストールがうまく進みません。\n\npipのバージョンによるインストールの失敗かと考え、\n\n```\n\n python3 -m pip install --upgrade pip\n \n```\n\nと実行し最新のバージョンで再度試しましたが、うまくいきませんでした。\n\n・実際に実行しようとしたコード \n<https://github.com/PracticalTimeSeriesAnalysis/BookRepo/blob/master/Ch10/ForecastingElectricity.ipynb>\n\n```\n\n ################\n ## TRAINING ##\n ################\n \n def train(symbol, iter_train, valid_iter, iter_test,\n data_names, label_names,\n save_dir, gpu):\n ## save training information/results \n if not os.path.exists(SAVE_DIR):\n os.makedirs(SAVE_DIR)\n printFile = open(os.path.join(SAVE_DIR, 'log.txt'), 'w')\n def print_to_file(msg):\n print(msg)\n print(msg, file = printFile, flush = True)\n ## print_to_file(args) ## preserve configuation to enable hyperparameter optimization\n ## archiving results header\n print_to_file('Epoch Training Cor Validation Cor')\n \n \n ## storing prior epoch's values to set an improvement threshold\n ## terminates early if progress slow\n buf = RingBuffer(THRESHOLD_EPOCHS)\n old_val = None\n \n ## mxnet boilerplate\n ## defaults to 1 gpu of which index is 0\n ##devs = [mx.gpu(gpu)]\n devs = mx.cpu()\n module = mx.mod.Module(symbol,\n data_names=data_names,\n label_names=label_names,\n context=devs)\n module.bind(data_shapes=iter_train.provide_data,\n label_shapes=iter_train.provide_label)\n module.init_params(mx.initializer.Uniform(0.1))\n module.init_optimizer(optimizer='adam',\n optimizer_params={'learning_rate': LR})\n \n ## training\n for epoch in range( N_EPOCHS):\n iter_train.reset()\n iter_val.reset()\n for batch in iter_train:\n module.forward(batch, is_train=True) # compute predictions\n module.backward() # compute gradients\n module.update() # update parameters\n \n ## training results\n train_pred = module.predict(iter_train).asnumpy()\n train_label = iter_train.label[0][1].asnumpy()\n train_perf = perf.write_eval(train_pred, train_label,\n save_dir, 'train', epoch)\n \n ## validation results\n val_pred = module.predict(iter_val).asnumpy()\n val_label = iter_val.label[0][1].asnumpy()\n val_perf = perf.write_eval(val_pred, val_label,\n save_dir, 'valid', epoch)\n \n print_to_file('%d %f %f ' % (epoch, train_perf['COR'], val_perf['COR']))\n \n if epoch > 0: # if we don't yet have measures of improvement, skip\n buf.append(val_perf['COR'] - old_val) \n if epoch > 2: # if we do have measures of improvement, check them\n vals = buf.get()\n # print(vals)\n # print(COR_THRESHOLD)\n vals = [v for v in vals if v != 0]\n if sum([v < COR_THRESHOLD for v in vals]) == len(vals):\n print_to_file('EARLY EXIT')\n break\n old_val = val_perf['COR']\n \n ## testing\n test_pred = module.predict(iter_test).asnumpy()\n test_label = iter_test.label[0][1].asnumpy()\n test_perf = perf.write_eval(test_pred, test_label, save_dir, 'tst', epoch)\n print_to_file('\\n TESTING PERFORMANCE')\n print_to_file(test_perf)\n \n```", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-09T17:12:14.430", "favorite_count": 0, "id": "93271", "last_activity_date": "2023-01-10T01:30:15.397", "last_edit_date": "2023-01-10T01:30:15.397", "last_editor_user_id": "3060", "owner_user_id": "56475", "post_type": "question", "score": 3, "tags": [ "python", "google-colaboratory", "pip" ], "title": "Google Colabにperfライブラリのインストールができない", "view_count": 156 }
[]
93271
null
null
{ "accepted_answer_id": null, "answer_count": 1, "body": "`~/doc`というディレクトリの下に`file.txt`という名前のファイルを作るやり方を教えてください。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-09T22:59:49.197", "favorite_count": 0, "id": "93272", "last_activity_date": "2023-01-13T03:24:43.723", "last_edit_date": "2023-01-13T03:24:43.723", "last_editor_user_id": "44531", "owner_user_id": "56474", "post_type": "question", "score": -3, "tags": [ "unix" ], "title": "特定のディレクトリの下に新しくファイルを作る方法がわからない", "view_count": 239 }
[ { "body": "コマンドライン(シェル)から操作するということなら\n\n * ディレクトリを作るコマンドは `mkdir`\n * ファイルを作るコマンドは `touch` (や任意のエディタ)\n\nログイン直後はホームディレクトリ `~` にいるはずなので\n\n```\n\n $ mkdir doc\n $ touch doc/file.txt # 0バイトのファイルが作られる\n $ vi doc/file.txt # エディタを起動し任意の内容を書き込めます\n \n```\n\nカレントディレクトリを移動してから操作するのもありでしょう\n\n```\n\n $ mkdir doc\n $ cd doc\n $ vi file.txt\n \n```\n\n`vi` (なり他の任意のエディタ) の操作方法はご自分で調査してください(別質問にしても可)", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T00:05:41.477", "id": "93274", "last_activity_date": "2023-01-10T00:05:41.477", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "8589", "parent_id": "93272", "post_type": "answer", "score": 1 } ]
93272
null
93274
{ "accepted_answer_id": null, "answer_count": 0, "body": "自分がリリースしているアプリは`age 17+`の17歳以上に設定しているのですが、App Store\nConnectで新しいバージョンを作成すると、勝手に`age 9+`になってしまいます。\n\n`age 17+`でないと審査に落ちてしまうので、必ず`age 17+`でないといけないのですが、毎回設定するのがめんどくさいです。\n\ninfo.plistなどで設定できないでしょうか?", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T02:02:30.233", "favorite_count": 0, "id": "93277", "last_activity_date": "2023-01-10T02:02:30.233", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "40856", "post_type": "question", "score": 0, "tags": [ "ios", "apple", "appstore-approval" ], "title": "App Store Connectの年齢制限を毎回入力したくない。info.plistなどでの設定", "view_count": 48 }
[]
93277
null
null
{ "accepted_answer_id": null, "answer_count": 1, "body": "HPEの物理サーバにUbuntu 22.04をインストールして、サーバはオフラインで運用しています。 \nオフライン環境のため、パッケージのインストールができず、事前にパッケージのdebファイルをtarで固めて置いておくことになっています。(以下のファイル全て) \n上記のパッケージファイルを一個一個ダウンロードしていると気が遠くなる作業なので、Ubuntu/Debian ではパッケージリポジトリをミラーリングする\napt-mirrorコマンドを使用しようと思っています。 \n<https://ja.linux-console.net/?p=1392#gsc.tab=0>\n\napt-mirror を実行してみたのですが以下のエラーが表示され上手くいきません。 \n何かご存知であればご教示いただけると助かります。 \n設定値はデフォルトで変更してません。(強調表記になるみたいなので#の数を増やしたり、リンクにならないようにhttpのhを削除しています。)\n\nエラー内容\n\n```\n\n root@testserver:~# apt-mirror\n Downloading 162 index files using 20 threads...\n Begin time: Fri Jan 6 06:59:43 2023\n [20]... [19]... [18]... [17]... [16]... [15]... [14]... [13]... [12]... [11]... [10]... [9]... [8]... [7]... [6]... [5]... [4]... [3]... [2]... [1]... [0]...\n End time: Fri Jan 6 07:08:36 2023\n \n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful/Release at /usr/bin/apt-mirror line 507.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful/Release at /usr/bin/apt-mirror line 507.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful/Release at /usr/bin/apt-mirror line 507.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful/Release at /usr/bin/apt-mirror line 507.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-security/Release at /usr/bin/apt-mirror line 507.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-security/Release at /usr/bin/apt-mirror line 507.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-security/Release at /usr/bin/apt-mirror line 507.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-security/Release at /usr/bin/apt-mirror line 507.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-updates/Release at /usr/bin/apt-mirror line 507.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-updates/Release at /usr/bin/apt-mirror line 507.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-updates/Release at /usr/bin/apt-mirror line 507.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-updates/Release at /usr/bin/apt-mirror line 507.\n Processing translation indexes: [TTT]\n \n Downloading 0 translation files using 0 threads...\n Begin time: Fri Jan 6 07:08:36 2023\n [0]...\n End time: Fri Jan 6 07:08:36 2023\n \n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful/Release at /usr/bin/apt-mirror line 653.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful/Release at /usr/bin/apt-mirror line 653.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful/Release at /usr/bin/apt-mirror line 653.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful/Release at /usr/bin/apt-mirror line 653.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-security/Release at /usr/bin/apt-mirror line 653.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-security/Release at /usr/bin/apt-mirror line 653.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-security/Release at /usr/bin/apt-mirror line 653.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-security/Release at /usr/bin/apt-mirror line 653.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-updates/Release at /usr/bin/apt-mirror line 653.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-updates/Release at /usr/bin/apt-mirror line 653.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-updates/Release at /usr/bin/apt-mirror line 653.\n Failed to open Release file from ttp://archive.ubuntu.com/ubuntu/dists/artful-updates/Release at /usr/bin/apt-mirror line 653.\n Processing DEP-11 indexes: [DDD]\n \n Downloading 0 dep11 files using 0 threads...\n Begin time: Fri Jan 6 07:08:36 2023\n [0]...\n End time: Fri Jan 6 07:08:36 2023\n \n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful/main/source/Sources in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful/restricted/source/Sources in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful/universe/source/Sources in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful/multiverse/source/Sources in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-security/main/source/Sources in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-security/restricted/source/Sources in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-security/universe/source/Sources in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-security/multiverse/source/Sources in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-updates/main/source/Sources in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-updates/restricted/source/Sources in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-updates/universe/source/Sources in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-updates/multiverse/source/Sources in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful/main/binary-amd64/Packages in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful/restricted/binary-amd64/Packages in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful/universe/binary-amd64/Packages in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful/multiverse/binary-amd64/Packages in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-security/main/binary-amd64/Packages in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-security/restricted/binary-amd64/Packages in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-security/universe/binary-amd64/Packages in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-security/multiverse/binary-amd64/Packages in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-updates/main/binary-amd64/Packages in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-updates/restricted/binary-amd64/Packages in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-updates/universe/binary-amd64/Packages in process_index at /usr/bin/apt-mirror line 800.\n apt-mirror: can't open index archive.ubuntu.com/ubuntu//dists/artful-updates/multiverse/binary-amd64/Packages in process_index at /usr/bin/apt-mirror line 800.\n Processing indexes: [SSSPPP]\n \n 0 bytes will be downloaded into archive.\n Downloading 0 archive files using 0 threads...\n Begin time: Fri Jan 6 07:08:36 2023\n [0]...\n End time: Fri Jan 6 07:08:36 2023\n \n 0 bytes in 0 files and 0 directories can be freed.\n Run /var/spool/apt-mirror/var/clean.sh for this purpose.\n \n Running the Post Mirror script ...\n (/var/spool/apt-mirror/var/postmirror.sh)\n \n Post Mirror script has completed. See above output for any possible errors.\n \n```\n\n設定\n\n```\n\n root@testserver:~# cat /etc/apt/mirror.list\n ############# config ##################\n \n ####### set base_path /var/spool/apt-mirror\n \n ####### set mirror_path $base_path/mirror\n ####### set skel_path $base_path/skel\n ####### set var_path $base_path/var\n ####### set cleanscript $var_path/clean.sh\n ####### set defaultarch\n ####### set postmirror_script $var_path/postmirror.sh\n ####### set run_postmirror 0\n set nthreads 20\n set _tilde 0\n \n ############# end config ##############\n \n deb ttp://archive.ubuntu.com/ubuntu artful main restricted universe multiverse\n deb ttp://archive.ubuntu.com/ubuntu artful-security main restricted universe multiverse\n deb ttp://archive.ubuntu.com/ubuntu artful-updates main restricted universe multiverse\n #deb ttp://archive.ubuntu.com/ubuntu artful-proposed main restricted universe multiverse\n #deb ttp://archive.ubuntu.com/ubuntu artful-backports main restricted universe multiverse\n \n deb-src ttp://archive.ubuntu.com/ubuntu artful main restricted universe multiverse\n deb-src ttp://archive.ubuntu.com/ubuntu artful-security main restricted universe multiverse\n deb-src ttp://archive.ubuntu.com/ubuntu artful-updates main restricted universe multiverse\n #deb-src ttp://archive.ubuntu.com/ubuntu artful-proposed main restricted universe multiverse\n #deb-src ttp://archive.ubuntu.com/ubuntu artful-backports main restricted universe multiverse\n \n clean ttp://archive.ubuntu.com/ubuntu\n \n root@testserver:~# cat /etc/apt/sources.list\n ####### See ttp://help.ubuntu.com/community/UpgradeNotes for how to upgrade to\n ####### newer versions of the distribution.\n deb ttp://jp.archive.ubuntu.com/ubuntu jammy main restricted\n ####### deb-src ttp://jp.archive.ubuntu.com/ubuntu jammy main restricted\n \n ######## Major bug fix updates produced after the final release of the\n ######## distribution.\n deb ttp://jp.archive.ubuntu.com/ubuntu jammy-updates main restricted\n ####### deb-src ttp://jp.archive.ubuntu.com/ubuntu jammy-updates main restricted\n \n ######## N.B. software from this repository is ENTIRELY UNSUPPORTED by the Ubuntu\n ######## team. Also, please note that software in universe WILL NOT receive any\n ######## review or updates from the Ubuntu security team.\n deb ttp://jp.archive.ubuntu.com/ubuntu jammy universe\n ####### deb-src ttp://jp.archive.ubuntu.com/ubuntu jammy universe\n deb ttp://jp.archive.ubuntu.com/ubuntu jammy-updates universe\n ####### deb-src ttp://jp.archive.ubuntu.com/ubuntu jammy-updates universe\n \n ######## N.B. software from this repository is ENTIRELY UNSUPPORTED by the Ubuntu\n ######## team, and may not be under a free licence. Please satisfy yourself as to\n ######## your rights to use the software. Also, please note that software in\n ######## multiverse WILL NOT receive any review or updates from the Ubuntu\n ######## security team.\n deb ttp://jp.archive.ubuntu.com/ubuntu jammy multiverse\n ####### deb-src ttp://jp.archive.ubuntu.com/ubuntu jammy multiverse\n deb ttp://jp.archive.ubuntu.com/ubuntu jammy-updates multiverse\n ####### deb-src ttp://jp.archive.ubuntu.com/ubuntu jammy-updates multiverse\n \n ######## N.B. software from this repository may not have been tested as ######## extensively as that contained in the main release, although it includes ######## newer versions of some applications which may provide useful features. ######## Also, please note that software in backports WILL NOT receive any review ######## or updates from the Ubuntu security team. deb ttp://jp.archive.ubuntu.com/ubuntu jammy-backports main restricted universe multiverse ####### deb-src ttp://jp.archive.ubuntu.com/ubuntu jammy-backports main restricted universe multiverse deb ttp://jp.archive.ubuntu.com/ubuntu jammy-security main restricted ####### deb-src ttp://jp.archive.ubuntu.com/ubuntu jammy-security main restricted deb ttp://jp.archive.ubuntu.com/ubuntu jammy-security universe ####### deb-src ttp://jp.archive.ubuntu.com/ubuntu jammy-security universe deb ttp://jp.archive.ubuntu.com/ubuntu jammy-security multiverse ####### deb-src ttp://jp.archive.ubuntu.com/ubuntu jammy-security multiverse\n root@testserver:~# lsblk\n NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS\n loop0 7:0 0 79.9M 1 loop /snap/lxd/22923\n loop1 7:1 0 62M 1 loop /snap/core20/1587\n loop3 7:3 0 49.6M 1 loop /snap/snapd/17883\n loop4 7:4 0 63.3M 1 loop /snap/core20/1778\n loop5 7:5 0 103M 1 loop /snap/lxd/23541\n sda 8:0 0 430.1G 0 disk\n tqsda1 8:1 0 1M 0 part\n tqsda2 8:2 0 2G 0 part /boot\n mqsda3 8:3 0 428.1G 0 part\n mqubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /\n sr0 11:0 1 1024M 0 rom\n \n```", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T03:39:10.387", "favorite_count": 0, "id": "93279", "last_activity_date": "2023-01-11T11:58:29.690", "last_edit_date": "2023-01-11T11:58:29.690", "last_editor_user_id": "19110", "owner_user_id": "56275", "post_type": "question", "score": 1, "tags": [ "ubuntu", "apt" ], "title": "apt-mirrorコマンドが上手くいきません", "view_count": 367 }
[ { "body": "前提知識として、Ubuntu/Debian ではパッケージを取得する際、OS バージョンに対応したコードネームを使用します。\n\nあなたが使用している Ubuntu 22.04 の場合、`/etc/apt/sources.list` の中に記載されている \"jammy\"\nがコードネームになります。\n\n```\n\n deb http://jp.archive.ubuntu.com/ubuntu jammy main restricted\n \n```\n\n* * *\n\nさて、apt-mirror の設定ファイル (`/etc/apt/mirror.list`) で初期設定では \"artful\"\nとなっており、これに対応するのは Ubuntu 17.10\nになります。とても古いバージョンなのでミラーサイトにもファイルが見つからずにダウンロードエラーになっている状態なのだと思われます。\n\n```\n\n deb http://archive.ubuntu.com/ubuntu artful main restricted universe multiverse\n ~~~~~~\n \n```\n\nまずは最低限、こちらを自分が使用しているバージョンのコードネームに書き換える必要があります。\n\n**書き換え例:**\n\n```\n\n deb http://archive.ubuntu.com/ubuntu jemmy main restricted universe multiverse\n deb http://archive.ubuntu.com/ubuntu jemmy-security main restricted universe multiverse\n deb http://archive.ubuntu.com/ubuntu jemmy-updates main restricted universe multiverse\n #deb http://archive.ubuntu.com/ubuntu jemmy-proposed main restricted universe multiverse\n #deb http://archive.ubuntu.com/ubuntu jemmy-backports main restricted universe multiverse\n \n```\n\n**参考:** (OSバージョンは異なるので適時読み替えてください) \n[apt-mirrorの設定 | Ubuntu20.04\nローカルにアーカイブミラーを立ててみる](https://rohhie.net/ubuntu20-04-try-to-set-up-a-local-\narchive-mirror/#Build-ConfigureAptMirror)", "comment_count": 2, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T05:21:23.990", "id": "93280", "last_activity_date": "2023-01-10T05:21:23.990", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "3060", "parent_id": "93279", "post_type": "answer", "score": 1 } ]
93279
null
93280
{ "accepted_answer_id": null, "answer_count": 0, "body": "お世話になります。 \nREST API\nを使っていくつかの開発をしておりますが、アクセスするたびに404になったり表示されたりと非常に不安定です。管理画面のパーマリンクの設定画面にいって(設定をそのままにしたまま)保存ボタンを押すと一定時間\nAPIにアクセスできるようになります。\n\n使っているサーバーはロリポップですが、APIに対しての制限はしてないそうです。すべてのAPIがアクセスできなくなるので、ここのAPIの問題ではなさそうです。 \nソースコードや設定自体には問題なさそうなので、解決方法が全くわからない状態です。 \nこちらご経験ある方、または知見のある方いましたらアドバイスをお願いいたします。\n\n<https://example.com/blog/wp-json/wp/v2/posts> \nにアクセスしてaxiosでGETで取得するという単純な仕組みです。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T05:22:37.773", "favorite_count": 0, "id": "93281", "last_activity_date": "2023-01-10T05:22:37.773", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "34391", "post_type": "question", "score": 0, "tags": [ "wordpress", "api", "rest" ], "title": "Wordpress REST APIで値を取得すると、一定期間は取得できるが更新しないと取得できなくなる", "view_count": 56 }
[]
93281
null
null
{ "accepted_answer_id": null, "answer_count": 1, "body": "英文のPDFを読み込み、翻訳し、Outlookの下書きとして書き出しをしようと思っています。\n\n(<https://www.cpi-japan.com/services>/ 一番上の「IELTSリーディングサンプル」のPDFファイルを使用)\n\n下記部分でエラーが発生してしまうため、お力添え願いたいです。\n\n```\n\n 例外が発生しました: TypeError\n the JSON object must be str, bytes or bytearray, not NoneType\n File \"C:\\Users\\NAME\\Documents\\練習用\\2023_01_rensyuu\\test7.py\", line 27, in <module>\n result = tr.translate(txt_list, src=\"en\", dest=\"ja\").text\n \n```\n\n下記サイトを参考に作成しました。\n\n * [PythonでPDFを読み込みテキストを抽出する(PyMuPDF)](https://python-work.com/pdf-get-text/)\n * [【Python】gooletransを使って自動翻訳をやってみる。](https://plog.shinmaiblog.com/python-translator/)\n * [PythonでOutlookの指定したアカウントの下に下書きを作る](https://gist.github.com/akilab/529c6954ddbc6024a0e8e2a381126e83)\n\nバージョン:Python 3.9.15\n\n```\n\n #ライブラリ設定\n import fitz # pymupdfライブラリ\n import openpyxl as px \n from openpyxl.styles import Alignment\n from googletrans import Translator\n import json\n \n #PDFテキストを格納するリスト作成\n txt_list = []\n \n # PDFファイルを読み込む\n filename = 'IELTS.pdf'\n doc = fitz.open(filename)\n \n \n for page in range(len(doc)):\n text = doc[page].get_text()\n text = text.replace('\\n', '')\n txt_list.append([page+1,text])\n \n \n #翻訳する\n tr = Translator()\n result = tr.translate(txt_list, src=\"en\", dest=\"ja\").text\n #↑エラー発生個所:print(result)\n \n \n #outlookに下書きを作成\n _VERSION_ = 'v0.1.0'\n def show_version():\n print(\"=\" * 20)\n print(\"Draft Creater VERSION {}\".format(_VERSION_).center(20))\n print(\"=\" * 20)\n \n def main():\n show_version()\n pythoncom.CoInitialize()\n outlook = win32com.client.Dispatch(\"Outlook.Application\")\n \n mapi = outlook.GetNamespace(\"MAPI\")\n # draft_box = mapi.GetDefaultFolder(16) # 16が下書きフォルダの番号らしい\n \n draft_box = mapi.Folders(\"自分のmailアドレス.co.jp\").Folders(\"下書き\")\n mail = outlook.CreateItem(0)\n mail.To = '[email protected]'\n mail.Subject = 'タイトル'\n mail.HtmlBody = result #←ここに翻訳結果の変数入れたい\n mail.Move(draft_box)\n \n \n if __name__ == '__main__':\n sys.exit(main())\n \n```\n\n**試したこと**\n\nJSONで使えないオブジェクトエラーとのことでおそらく文字列型のオブジェクトに変換するのではないかと思い、エラー発生個所の前に下記コードを差し込みましたが例外が発生しました。\n\n```\n\n txt_list = json.loads(txt_list)\n \n```\n\n```\n\n TypeError\n the JSON object must be str, bytes or bytearray, not list\n File \"C:\\Users\\NAME\\Documents\\練習用\\2023_01_rensyuu\\test7.py\", line 24, in <module>\n txt_list = json.loads(txt_list)\n \n```\n\n**追記** \n頂いたコメントをもとに修正しました。(1/11)\n\n```\n\n #ライブラリ設定\n import fitz # pymupdfライブラリ\n import openpyxl as px \n from openpyxl.styles import Alignment\n from googletrans import Translator #**変更箇所**pre-release版(4.0.0-rc1)をインストール\n import json\n import re\n import sys #**変更箇所**追加\n \n #PDFテキストを格納するリスト作成\n txt_list = []\n \n # PDFファイルを読み込む\n filename = 'IELTS.pdf'\n doc = fitz.open(filename)\n \n \n for page in range(len(doc)):\n text = doc[page].get_text()\n text = text.replace('\\n', '')\n txt_list.append(text)**#変更箇所・文字列のリストのみにした**\n \n #print(txt_list)\n \n \n #JSON変換\n #txt_list = json.load(txt_list) \n \n #翻訳する\n tr = Translator()\n try:\n for pagetext in txt_list:\n # 1ページ分が1つの文字列で、それを日本語に翻訳\n result = tr.translate(pagetext, src=\"en\", dest=\"ja\").text\n #print(result) #★**ここでprintした場合の結果は以下参照**\n except Exception as e:\n print(e)\n \n \"\"\" \n tr = Translator()\n result = tr.translate(txt_list, src=\"en\", dest=\"ja\") \n for results in result:\n print(results.origin, ' -> ', results.text)\n \"\"\"\n \n \n #outlookに下書きを作成\n _VERSION_ = 'v0.1.0'\n def show_version():\n print(\"=\" * 20)\n print(\"Draft Creater VERSION {}\".format(_VERSION_).center(20))\n print(\"=\" * 20)\n \n \n def main():\n show_version()\n pythoncom.CoInitialize() #**エラー発生個所**\n outlook = win32com.client.Dispatch(\"Outlook.Application\")\n \n mapi = outlook.GetNamespace(\"MAPI\")\n # draft_box = mapi.GetDefaultFolder(16) # 16が下書きフォルダの番号らしい\n \n draft_box = mapi.Folders(\"自分のメールアドレスco.jp\").Folders(\"下書き\")\n mail = outlook.CreateItem(0)\n mail.To = '[email protected]'\n mail.Subject = 'タイトル'\n mail.HtmlBody = result\n mail.Move(draft_box)\n \n \n if __name__ == '__main__':\n sys.exit(main())\n \n \n```\n\n**上記コード内のエラー発生個所のエラーメッセージ**\n\n```\n\n 例外が発生しました: NameError\n name 'pythoncom' is not defined\n File \"C:\\Users\\NAME\\Documents\\練習用\\2023_01_rensyuu\\test7.py\", line 68, in main\n pythoncom.CoInitialize()\n File \"C:\\Users\\NAME\\Documents\\練習用\\2023_01_rensyuu\\test7.py\", line 83, in <module>\n sys.exit(main())\n \n```\n\n**上記コード内★部分のprint結果** \nターミナルに表示されたものをwordに貼り付けて確認したが、 \n約25文字ごとに改行がされているので改行なしのべた打ちにしたい。\n\n```\n\n CPI IELTS SAMPLES READING PASSING 1 PASSING 1に\n は、1950年代のエチオピアでテレビ放映された陸上 \n 競技の出現以来、エチオピアの長年の成功以下のパ \n (文字数4039字のため省略)\n \n```", "comment_count": 14, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T06:39:47.413", "favorite_count": 0, "id": "93284", "last_activity_date": "2023-01-11T12:11:47.823", "last_edit_date": "2023-01-11T11:55:48.737", "last_editor_user_id": "56378", "owner_user_id": "56378", "post_type": "question", "score": 1, "tags": [ "python", "python3", "pdf" ], "title": "pythonでJSONエラーのTypeError: the JSON object must be str, bytes or bytearray", "view_count": 965 }
[ { "body": "内容的には自身で参照している以下の記事の内容を変更しようとして上手くいかなかった、ということでしょう。 \n[【Python】gooletransを使って自動翻訳をやってみる。](https://plog.shinmaiblog.com/python-\ntranslator/) \nこちらの記事では googletrans に翻訳依頼するテキストをリスト等ではなく単一の文字列で指定しています。\n\nそれに対して質問のソースコードでは、おそらく高速化を意図したのでしょうが、文字列のリスト(当初は「「数値と文字列のリスト」のリスト」)を渡しています。 \n当初:「数値と文字列のリスト」のリスト\n\n```\n\n txt_list.append([page+1,text])\n \n```\n\n変更:文字列のリスト\n\n```\n\n txt_list.append(text) #**変更箇所・文字列のリストのみにした**\n \n```\n\n* * *\n\nそして安定版の最新(3.0.0)のドキュメントでは、以下のように文字列のリストもパラメータに指定出来ていたのでしょうが: \n[translate(text, dest='en', src='auto', **kwargs)](https://py-\ngoogletrans.readthedocs.io/en/latest/#googletrans.Translator.translate)\n\n> * text (UTF-8 str; unicode; string sequence (list, tuple, iterator,\n> generator)) – The source text(s) to be translated. Batch translation is\n> supported via sequence input.\n>\n\n質問のソース(変更中のもの)\n\n```\n\n tr = Translator()\n result = tr.translate(txt_list, src=\"en\", dest=\"ja\") #**エラー発生個所**\n \n```\n\n冒頭の記事やコメントで紹介した以下の記事にあるように安定版の最新(3.0.0)にはバグ(仕様変更?)があってpre-\nrelease版(4.0.0-rc1)を使う必要があるのでしょう。 \n[googletrans でエラーが出た場合は PRE-RELEASE で回避可能](https://sig9.org/archives/4023)\n\nそしてどうもpre-\nrelease版(4.0.0-rc1)では文字列のリストをサポートしておらず、翻訳依頼するテキストを単一の文字列で指定する必要があるようです。 \n冒頭の記事や質問者さん自身の途中のコメントにあるように、以下のような形で出来るでしょう。`print(result)`の部分はoutlookに渡すためのデータ作成にする必要がありますが。\n\n```\n\n tr = Translator()\n try:\n for pagetext in txt_list:\n # 1ページ分が1つの文字列で、それを日本語に翻訳\n result = tr.translate(pagetext, src=\"en\", dest=\"ja\").text\n print(result)\n except Exception as e:\n print(e)\n \n```\n\n* * *\n\nちなみにコメントで「今度は最終行の sys.exit(main())に例外が発生しました: NameError name 'sys' is not\ndefined」となっていた部分は、それに対応する`import sys`が行われていないためですね。\n\n* * *\n\n**追記に対応して:**\n\nNameError name 'pythoncom' is not definedエラーについては NameError name 'sys' is not\ndefinedと同様に、必要なimportが不足しているからですね。 \n参照している3つ目の記事に書かれているimportを同様に組み込んでください。 \n[PythonでOutlookの指定したアカウントの下に下書きを作る](https://gist.github.com/akilab/529c6954ddbc6024a0e8e2a381126e83)\n\nWordに貼り付けたテキストが約25文字で改行される件は、Word文書のページ書式がそうなっているのでは?\n例えばメモ帳とかテキストエディタの編集画面に貼り付けたならそうしたことにはならないでしょう。\n\nそしてそれは当初の質問内容とは違ったものになっているので、必要ならば新たな質問として記事を立ててください。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T13:44:18.807", "id": "93291", "last_activity_date": "2023-01-11T12:11:47.823", "last_edit_date": "2023-01-11T12:11:47.823", "last_editor_user_id": "26370", "owner_user_id": "26370", "parent_id": "93284", "post_type": "answer", "score": 1 } ]
93284
null
93291
{ "accepted_answer_id": null, "answer_count": 0, "body": "リモートpush通知を使うときにサーバーがなく、実験的にリモートpush通知を行いたいので、実機端末とAPNsだけで行えるのでしょうか?\n\n公式ドキュメントを見てもサーバーが必要になっているのですが、サーバーを介さず行う方法は、あるのでしょうか? \nそれともFirebaseやPusherやKnuff等を使うしかないのでしょうか?\n\nよろしくお願いいたします。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T08:27:09.993", "favorite_count": 0, "id": "93285", "last_activity_date": "2023-01-10T08:27:09.993", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "42008", "post_type": "question", "score": 0, "tags": [ "swift", "ios", "xcode" ], "title": "APNs(Apple push Notification service)を、サーバーを介さず、APNsと実機端末だけでリモートpush通知を実施したい", "view_count": 66 }
[]
93285
null
null
{ "accepted_answer_id": null, "answer_count": 0, "body": "こんにちは。下記イメージのようにSQLでテーブルを転置したいです。 pivot, unpivot\nを調べて試しましたが、上手く実現できませんでした。どのようなSQLを書けばよいでしょうか? なお、UNION ALLで強引に転置する方法は成功しました。 \n何卒ご教示お願い致します。\n\n# イメージ\n\n転置前 \n[![転置前](https://i.stack.imgur.com/saWkF.png)](https://i.stack.imgur.com/saWkF.png)\n\n転置後 \n[![転置後](https://i.stack.imgur.com/7oV8N.png)](https://i.stack.imgur.com/7oV8N.png)\n\n比較 \n[![画像の説明をここに入力](https://i.stack.imgur.com/wcgBR.png)](https://i.stack.imgur.com/wcgBR.png)\n\n# サンプルのテーブルを作るSQL例\n\n```\n\n CREATE TABLE {{table path}} (\n YYYY STRING,\n MM STRING,\n ratioIndex1 FLOAT64,\n ratioIndex2 FLOAT64,\n ratioIndex3 FLOAT64\n )\n \n \n INSERT INTO {{table path}}\n VALUES\n \n ('2021', '04', 0.51, 1.00, 0.00),\n ('2022', '04', 0.30, 0.54, 0.07),\n ('2021', '03', 0.52, 1.00, 0.00),\n ('2022', '03', 0.30, 0.54, 0.08),\n ('2021', '02', 0.51, 1.00, 0.00),\n ('2022', '02', 0.31, 0.55, 0.08),\n ('2021', '07', 0.44, 1.00, 0.00),\n ('2022', '07', 0.24, 0.48, 0.06),\n ('2021', '05', 0.50, 1.00, 0.00),\n ('2022', '05', 0.30, 0.54, 0.06),\n ('2021', '06', 0.46, 1.00, 0.00),\n ('2022', '06', 0.26, 0.50, 0.06),\n ('2021', '11', 0.36, 1.0, 0.000),\n ('2022', '11', 0.18, 0.38, 0.05),\n ('2021', '12', 0.29, 1.00, 0.00),\n ('2022', '12', 0.14, 0.31, 0.06),\n ('2021', '10', 0.39, 1.00, 0.00),\n ('2022', '10', 0.21, 0.42, 0.06),\n ('2021', '01', 0.53, 1.00, 0.00),\n ('2022', '01', 0.32, 0.55, 0.09),\n ('2021', '09', 0.41, 1.00, 0.00),\n ('2022', '09', 0.21, 0.44, 0.06),\n ('2021', '08', 0.40, 1.00, 0.00),\n ('2022', '08', 0.22, 0.45, 0.06)\n \n```\n\n# 参考\n\n下記 pivot, unpivotを使う方法は失敗しました(UNION ALLで強引に転置する方法は成功しました)\n\n<https://stackoverflow.com/questions/13372276/simple-way-to-transpose-columns-\nand-rows-in-sql>\n\n```\n\n select YYYY, ratioIndex, _01, _02, _03\n from\n (\n select YYYY, MM, ratioIndex, value\n from (select CONCAT('_', MM) as MM, * EXCEPT(MM) from `{{table path}}`)\n unpivot\n (\n value for ratioIndex in (ratioIndex1, ratioIndex2, ratioIndex3)\n ) unpiv\n ) src\n pivot\n (\n sum(value) as value\n for ratioIndex in ('_01', '_02', '_03')\n ) piv\n \n```\n\n=> Unrecognized name: ratioIndex", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T08:57:04.363", "favorite_count": 0, "id": "93286", "last_activity_date": "2023-01-10T12:14:46.237", "last_edit_date": "2023-01-10T12:14:46.237", "last_editor_user_id": "3060", "owner_user_id": "56490", "post_type": "question", "score": 0, "tags": [ "mysql", "sql", "postgresql", "google-bigquery" ], "title": "SQLでテーブルの一部行列をpivot, unpivotで転地したい", "view_count": 267 }
[]
93286
null
null
{ "accepted_answer_id": null, "answer_count": 1, "body": "■背景 \n某スクールでの課題に取り組んでおります。 \n期限があるのですが、スクールメンターの回答が遅いのでこちらで質問させてください。\n\n■実現したいこと \nこのテストコードをsystemspecとして通したい\n\n■現状 \nRspecが通したいのですが、しかし通らず。以下質問させてください。 \nbundle exec rspec実行で以下のエラーが起きます。\n\nエラーメッセ \nCapybara::ElementNotFound: \nUnable to find link\n\n[![画像の説明をここに入力](https://i.stack.imgur.com/7qK24.png)](https://i.stack.imgur.com/7qK24.png)\n\n■実際に試したこと \nエラーメッセージで検索をかけ、 \n以下を参考にリンクにidをつけてみましたが、失敗(加えて今まで通っていたテストが通らなくなり悪化) \n<https://www.halu.dev/entry/2015/11/17/210904>\n\n[![画像の説明をここに入力](https://i.stack.imgur.com/Bfsq9.png)](https://i.stack.imgur.com/Bfsq9.png) \n[![画像の説明をここに入力](https://i.stack.imgur.com/wf6Go.png)](https://i.stack.imgur.com/wf6Go.png)\n\n■その他参考画像 \nspec_helper \n[![画像の説明をここに入力](https://i.stack.imgur.com/NKlSj.png)](https://i.stack.imgur.com/NKlSj.png) \nrails_helper \n[![画像の説明をここに入力](https://i.stack.imgur.com/BSYV6.png)](https://i.stack.imgur.com/BSYV6.png)\n\n■コード \nHTMLのコード\n\n```\n\n <% provide(:title, @product.name) %>\n <div class=\"main-wrapper\">\n <section class=\"lightSection clearfix pageHeader\">\n <div class=\"container\">\n <div class=\"row\">\n <div class=\"col-xs-6\">\n <div class=\"page-title\">\n <h2><%= @product.name %></h2>\n </div>\n </div>\n <div class=\"col-xs-6\">\n <ol class=\"breadcrumb pull-right\">\n <li><%= link_to 'Home', potepan_path %></li> \n <li class=\"active\"><%= @product.name %></li>\n </ol>\n </div>\n </div>\n </div>\n </section> \n <section class=\"mainContent clearfix\">\n <div class=\"container\">\n <div class=\"row singleProduct\">\n <div class=\"col-xs-12\">\n <div class=\"media\">\n <div class=\"media-left productSlider\">\n <div id=\"carousel\" class=\"carousel slide\" data-ride=\"carousel\">\n <div class=\"carousel-inner\">\n <% @product.images.each_with_index do |image, i| %>\n <div class=\"item <%= \"active\" if i.zero? %>\">\n <%= image_tag(image.attachment(:large)) %>\n </div>\n <% end %>\n </div>\n </div>\n <div class=\"clearfix\">\n <div id=\"thumbcarousel\" class=\"carousel slide\" data-interval=\"false\">\n <div class=\"carousel-inner\">\n <% @product.images.each_with_index do |image, i| %>\n <div data-target=\"#carousel\" data-slide-to=\"<%= i %>\" class=\"thumb\">\n <%= image_tag(image.attachment(:small)) %>\n </div>\n <% end %>\n </div>\n <a class=\"left carousel-control\" href=\"#thumbcarousel\" role=\"button\" data-slide=\"prev\">\n <span class=\"glyphicon glyphicon-chevron-left\"></span>\n </a>\n <a class=\"right carousel-control\" href=\"#thumbcarousel\" role=\"button\" data-slide=\"next\">\n <span class=\"glyphicon glyphicon-chevron-right\"></span>\n </a>\n </div>\n </div>\n </div>\n <div class=\"media-body\">\n <ul class=\"list-inline\">\n <li>\n <%= link_to potepan_category_path(@product.taxons.first.id) do%>\n <i class=\"fa fa-reply\" aria-hidden=\"true\"></i>一覧ページへ戻る\n <% end %>\n </li>\n </ul>\n <h2><%= @product.name %></h2>\n <h3><%= @product.display_price %></h3>\n <p><%= @product.description %></p>\n <span class=\"quick-drop\">\n <select name=\"guiest_id3\" id=\"guiest_id3\" class=\"select-drop\">\n <option value=\"0\">S</option>\n <option value=\"1\">M</option>\n <option value=\"2\">L</option>\n <option value=\"3\">XL</option>\n </select>\n </span>\n <span class=\"quick-drop resizeWidth\">\n <select name=\"guiest_id4\" id=\"guiest_id4\" class=\"select-drop\">\n <option value=\"1\">1</option>\n <option value=\"2\">2</option>\n <option value=\"3\">3</option>\n </select>\n </span>\n <div class=\"btn-area\">\n <a href=\"cart_page.html\" class=\"btn btn-primary btn-block\">カートへ入れる<i class=\"fa fa-angle-right\" aria-hidden=\"true\"></i></a>\n </div>\n </div>\n </div>\n </div>\n </div>\n \n \n```\n\nrspecのコード\n\n```\n\n require 'rails_helper'\n \n RSpec.describe \"Products\", type: :system do\n include Rails.application.routes.url_helpers\n describe \"GET #show\" do\n let(:image) { create(:image) }\n let(:product) { create(:product, taxons: [taxon]) }\n let(:taxonomy) { create(:taxonomy) }\n let(:taxon) { create(:taxon, taxonomy: taxonomy) }\n \n before do\n product.images << image\n get potepan_product_path(product.id)\n # 画像URL取得が上手くいかない問題への対応\n # https://mng-camp.potepan.com/curriculums/document-for-final-task-2#notes-of-image-test\n ActiveStorage::Current.host = request.base_url\n end\n \n it \"一覧ページに戻るをクリックすると商品カテゴリページへアクセスされていること\" do\n click_link('my_id')\n expect(current_path).to eq potepan_category_path(taxons.id)\n end\n \n it \"ページが表示されていること\" do\n expect(response).to have_http_status(:success)\n end\n \n it \"商品の名前が表示されていること\" do\n expect(response.body).to include product.name\n end\n \n it \"商品の価格が表示されていること\" do\n expect(response.body).to include product.display_price.to_s\n end\n \n it \"商品の説明が表示されていること\" do\n expect(response.body).to include product.description\n end\n end\n end\n \n \n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T10:01:24.413", "favorite_count": 0, "id": "93287", "last_activity_date": "2023-01-10T13:04:49.533", "last_edit_date": "2023-01-10T10:21:02.887", "last_editor_user_id": "45480", "owner_user_id": "45480", "post_type": "question", "score": 0, "tags": [ "ruby-on-rails" ], "title": "system specを通したい", "view_count": 94 }
[ { "body": "自己解決しました。\n\nvisit 該当path\n\nでテスト通りました", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T13:04:49.533", "id": "93289", "last_activity_date": "2023-01-10T13:04:49.533", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "45480", "parent_id": "93287", "post_type": "answer", "score": 1 } ]
93287
null
93289
{ "accepted_answer_id": null, "answer_count": 0, "body": "### 前提\n\nAWS\nAthenaを用いてdocumentDBのデータを取得し、その情報をBIツールで分析しようとしている。現在、AthenaからdocumentDBのデータ取得ができている状態。\n\n### 問題点\n\nデータ取得はできたものの、入れ子構造を含むデータを取得しようとすると以下図のようになり、JSONが崩れた状態(fieldname=valueの形)での取得になってしまう。 \nまた、大文字だったフィールド名が小文字になってしまう。(これはできれば)\n\nAthenaでクエリした時の様子\n\n_id | data | time \n---|---|--- \nxxxxxxxxxxxx | [{name=satou,age=24,,,},,,] | xxxxxxxxxxxxx \n \n### やりたい事\n\n 1. JSONを崩さずにデータを取得する。\n 2. フィールド名を変えずにデータを取得する。(これはできれば) \n※もしできないのであればその理由も欲しい。(Ex.サポートとされていない機能ため。)\n\nイメージ\n\n_id | **Data** | **Time** \n---|---|--- \nxxxxxxxxxxxx | [{ **name:satou,age:24** ,,,},,,] | xxxxxxxxxxxxx \n \n・最後に \n何卒大変な作業になるかもしれませんが、皆様のお力を貸していただけると幸いです。 \nまた、情報不足の時はコメント等お願いします。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T11:52:07.703", "favorite_count": 0, "id": "93288", "last_activity_date": "2023-01-10T12:21:35.557", "last_edit_date": "2023-01-10T12:21:35.557", "last_editor_user_id": "3060", "owner_user_id": "56492", "post_type": "question", "score": 0, "tags": [ "aws", "mongodb", "aws-athena" ], "title": "Athenaで入れ子構造を含むdoucumentDBのデータをJSON形式を崩さずに取得したい", "view_count": 95 }
[]
93288
null
null
{ "accepted_answer_id": null, "answer_count": 0, "body": "一度動かせたはずのLaravelが、`php artisan serve` をしても効かなくなりました。 \nMacbookair M1でlaravelの環境構築を完了させ、使える状態にしたいです。\n\n### 今の状況\n\n 1. `cd laravelapp` として、`ユーザー名MacBook-Air laravelapp %` が返ってくるのでディレクトリは作れてると思います。\n 2. `php artisan serve` が効かないです(Could not open input file: artisan とエラーが表示される) \nデスクトップのlaravelappの直下にartisanファイルがあることは確認しています。\n\nどうぞよろしくお願いします。", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T13:21:49.240", "favorite_count": 0, "id": "93290", "last_activity_date": "2023-01-11T06:22:48.993", "last_edit_date": "2023-01-11T06:22:48.993", "last_editor_user_id": "3060", "owner_user_id": "56494", "post_type": "question", "score": 0, "tags": [ "php", "macos", "laravel" ], "title": "MacBook Air M1 で Laravel が動作しない", "view_count": 89 }
[]
93290
null
null
{ "accepted_answer_id": null, "answer_count": 1, "body": "表題の通りです。 \n以下のコマンドを実行した結果 \nwinget install Microsoft.WindowsSDK \n終了コードでインストーラーが失敗しました: 2008\n\nと帰ってきます。 \nこれはどのように解決すれば良いでしょうか。(公式を見てもこのエラーコードが見つからず)", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T16:41:50.137", "favorite_count": 0, "id": "93294", "last_activity_date": "2023-01-10T21:02:22.843", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "54375", "post_type": "question", "score": 0, "tags": [ "windows" ], "title": "winget install -e --id Microsoft.WindowsSDKに失敗する。", "view_count": 116 }
[ { "body": "winget側に [Installer failed with exit code:\n2008](https://github.com/microsoft/winget-cli/issues/1818)\nで報告されていて、まだ未解決なようです。最新状況はこのIssueの動向を追うことになりそうです。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T21:02:22.843", "id": "93295", "last_activity_date": "2023-01-10T21:02:22.843", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "4236", "parent_id": "93294", "post_type": "answer", "score": 1 } ]
93294
null
93295
{ "accepted_answer_id": "93297", "answer_count": 1, "body": "片方は読み込めるのですが、もう片方は読み込めません。この二つの違いは何でしょうか? \nコード2 は <https://github.com/graykode/ALBERT-Pytorch> のコードを試そうとしました。 \nコード1 はエラーが出た部分を切り出した。\n\nコード1 動く\n\n```\n\n import json\n \n json.load(open('config/pretrain.json'))\n print(\"aaaa\")\n \n```\n\nコード2 動かない\n\n```\n\n class Config(NamedTuple):\n \"\"\" Hyperparameters for training \"\"\"\n seed: int = 3431 # random seed\n batch_size: int = 8\n lr: int = 5e-5 # learning rate\n n_epochs: int = 10 # the number of epoch\n # `warm up` period = warmup(0.1)*total_steps\n # linearly increasing learning rate from zero to the specified value(5e-5)\n warmup: float = 0.1\n save_steps: int = 100 # interval for saving model\n total_steps: int = 100000 # total number of steps to train\n \n @classmethod\n def from_json(cls, file): # load config from json file\n return cls(**json.load(open(file, \"r\")))\n \n```\n\nエラーメッセージ \nfile変数(ディレクトリ)がコード1と同じなのは確認しています。\n\n```\n\n Traceback (most recent call last):\n File \"pretrain.py\", line 285, in <module>\n main(args=args)\n File \"pretrain.py\", line 211, in main\n cfg = train.Config.from_json(args.train_cfg)\n File \"C:\\Users\\PC_User\\newAI2022y08y23d\\project\\ALBERT-Pytorch-master\\train.py\", line 32, in from_json\n return cls(**json.load(open(file, \"r\")))\n FileNotFoundError: [Errno 2] No such file or directory: \"'config/pretrain.json'\"\n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T21:36:17.217", "favorite_count": 0, "id": "93296", "last_activity_date": "2023-01-11T05:21:34.643", "last_edit_date": "2023-01-11T05:21:34.643", "last_editor_user_id": "3060", "owner_user_id": "51500", "post_type": "question", "score": 0, "tags": [ "python", "pytorch" ], "title": "jsonで FileNotFoundError: この二つの差はなんですか?", "view_count": 142 }
[ { "body": "> `FileNotFoundError: [Errno 2] No such file or directory:\n> \"'config/pretrain.json'\"`\n\nエラーメッセージがこの通りならば、ファイル名前後に不要な `'` が付いているように見えます。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-10T22:10:33.403", "id": "93297", "last_activity_date": "2023-01-10T22:10:33.403", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "3475", "parent_id": "93296", "post_type": "answer", "score": 0 } ]
93296
93297
93297
{ "accepted_answer_id": null, "answer_count": 0, "body": "eclipse.exeが急に起動しなくなり、とりあえずeclipse.exe -clean.cmdを動かしてみました。 \nするとキャッシュのクリーンアップがなかなか終わらず、しばらく放置すると以下のようなエラーが出ました。 \n16:39:03.528~17:23:58.822と、かなり時間がかかっているようです。 \nこのエラーの後eclipse.exeを動かすと、「キャッシュのクリーンアップ中…この処理は数分かかる場合があります。しばらくお待ちください。」と出たまま動きません。 \nどなたか解決できる方はいらっしゃいませんか?\n\n追記\nとりあえず、もう一度eclipseを入れ直してみると動きました。結局原因は不明なので、一応エラーの起きるバージョンも残してあります。何かあればコメント頂けると嬉しいです。\n\n```\n\n !SESSION 2023-01-10 16:39:03.528 -----------------------------------------------\n eclipse.buildId=4.25.0.I20220831-1800\n java.version=17.0.4.1\n java.vendor=Eclipse Adoptium\n BootLoader constants: OS=win32, ARCH=x86_64, WS=win32, NL=ja_JP\n Framework arguments: -product org.eclipse.epp.package.java.product\n Command-line arguments: -os win32 -ws win32 -arch x86_64 -product org.eclipse.epp.package.java.product\n \n !ENTRY org.eclipse.osgi 4 0 2023-01-10 17:23:58.822\n !MESSAGE アプリケーション・エラー\n !STACK 1\n java.lang.IllegalArgumentException: -2147483647 > 1\n at java.base/java.util.Arrays.copyOfRange(Arrays.java:3782)\n at java.base/java.util.Arrays.copyOfRange(Arrays.java:3742)\n at org.eclipse.ui.internal.ide.ChooseWorkspaceDialog.lambda$6(ChooseWorkspaceDialog.java:391)\n at java.base/java.util.stream.ReferencePipeline$3$1.accept(ReferencePipeline.java:197)\n at java.base/java.util.ArrayList$ArrayListSpliterator.forEachRemaining(ArrayList.java:1625)\n at java.base/java.util.stream.AbstractPipeline.copyInto(AbstractPipeline.java:509)\n at java.base/java.util.stream.AbstractPipeline.wrapAndCopyInto(AbstractPipeline.java:499)\n at java.base/java.util.stream.ReduceOps$ReduceOp.evaluateSequential(ReduceOps.java:921)\n at java.base/java.util.stream.AbstractPipeline.evaluate(AbstractPipeline.java:234)\n at java.base/java.util.stream.ReferencePipeline.collect(ReferencePipeline.java:682)\n at org.eclipse.ui.internal.ide.ChooseWorkspaceDialog.createUniqueWorkspaceNameMap(ChooseWorkspaceDialog.java:395)\n at org.eclipse.ui.internal.ide.ChooseWorkspaceDialog.createRecentWorkspacesComposite(ChooseWorkspaceDialog.java:329)\n at org.eclipse.ui.internal.ide.ChooseWorkspaceDialog.createDialogArea(ChooseWorkspaceDialog.java:183)\n at org.eclipse.jface.dialogs.TitleAreaDialog.createContents(TitleAreaDialog.java:166)\n at org.eclipse.jface.window.Window.create(Window.java:431)\n at org.eclipse.jface.dialogs.Dialog.create(Dialog.java:1094)\n at org.eclipse.jface.window.Window.open(Window.java:788)\n at org.eclipse.ui.internal.ide.ChooseWorkspaceDialog.prompt(ChooseWorkspaceDialog.java:121)\n at org.eclipse.ui.internal.ide.application.IDEApplication.showChooseWorkspaceDialog(IDEApplication.java:442)\n at org.eclipse.ui.internal.ide.application.IDEApplication.promptForWorkspace(IDEApplication.java:373)\n at org.eclipse.ui.internal.ide.application.IDEApplication.checkInstanceLocation(IDEApplication.java:285)\n at org.eclipse.ui.internal.ide.application.IDEApplication.start(IDEApplication.java:142)\n at org.eclipse.equinox.internal.app.EclipseAppHandle.run(EclipseAppHandle.java:203)\n at org.eclipse.core.runtime.internal.adaptor.EclipseAppLauncher.runApplication(EclipseAppLauncher.java:136)\n at org.eclipse.core.runtime.internal.adaptor.EclipseAppLauncher.start(EclipseAppLauncher.java:104)\n at org.eclipse.core.runtime.adaptor.EclipseStarter.run(EclipseStarter.java:402)\n at org.eclipse.core.runtime.adaptor.EclipseStarter.run(EclipseStarter.java:255)\n at java.base/jdk.internal.reflect.NativeMethodAccessorImpl.invoke0(Native Method)\n at java.base/jdk.internal.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:77)\n at java.base/jdk.internal.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)\n at java.base/java.lang.reflect.Method.invoke(Method.java:568)\n at org.eclipse.equinox.launcher.Main.invokeFramework(Main.java:659)\n at org.eclipse.equinox.launcher.Main.basicRun(Main.java:596)\n at org.eclipse.equinox.launcher.Main.run(Main.java:1467) ```\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-11T01:46:21.227", "favorite_count": 0, "id": "93298", "last_activity_date": "2023-01-12T08:36:15.400", "last_edit_date": "2023-01-12T08:36:15.400", "last_editor_user_id": "56497", "owner_user_id": "56497", "post_type": "question", "score": 1, "tags": [ "eclipse" ], "title": "eclipse.exe -clean.cmdを動かしたところキャッシュのクリーンアップが終わらずアプリケーションエラーが出る。", "view_count": 543 }
[]
93298
null
null
{ "accepted_answer_id": "93301", "answer_count": 1, "body": "現在、SPRESENSEのArduino互換でFreeRTOSライブラリを用いてマルチスレッド化しようと考えております。\n\nしかしながら、検証を行ったところ以下のようなエラーが出てしまい、利用できません。 \nサンプルのプログラムを実行しようとした際も同じようなエラーが出てしまいます。\n\n```\n\n main:3:10: fatal error: avr/io.h: No such file or directory\n 3 | #include <avr/io.h>\n | ^~~~~~~~~~\n compilation terminated.\n exit status 1\n \n```\n\nSPRESENSEでFreeRTOSライブラリ利用はできないのでしょうか。 \nこちらのエラー原因ご存じの方がおりましたら、解決策をお教えいただけないでしょうか。\n\nよろしくお願いいたします。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-11T01:54:34.897", "favorite_count": 0, "id": "93299", "last_activity_date": "2023-01-11T05:20:02.400", "last_edit_date": "2023-01-11T05:20:02.400", "last_editor_user_id": "3060", "owner_user_id": "49229", "post_type": "question", "score": 0, "tags": [ "c++", "spresense", "arduino" ], "title": "SPRESENSEでFreeRTOSが使用できない", "view_count": 136 }
[ { "body": "そもそもSPRESENSEのArduinoはNuttXというRTOS上で動いています。 \nというわけでマルチスレッド化したい場合はNuttXの機能を使うのが手っ取り早いでしょう。", "comment_count": 3, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-11T02:23:51.717", "id": "93301", "last_activity_date": "2023-01-11T02:23:51.717", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "13127", "parent_id": "93299", "post_type": "answer", "score": 2 } ]
93299
93301
93301
{ "accepted_answer_id": null, "answer_count": 1, "body": "WPFにて動的にボタンを生成する処理を組んでいます。 \nそのボタンの背景色はXMLで記述した色(\"Red\"など)を設定したいのですが、 \nXMLに記述した色を背景色に設定する方法がわからず、困っています。 \nご存知の方、アドバイスお願い致します。\n\n<補足> \nXMLに記述した色(文字列)を取得することはできています。 \nコードビハインドで決めた色を背景色にすることはできるのですが、XMLから取得した色(文字列)を \n背景色に設定することができません。\n\n<ソースコード抜粋>\n\n```\n\n    ・\n    ・\n    ・\n System.Windows.Controls.Button but = new System.Windows.Controls.Button();\n but.Background = Brushes.Yellow; // XMLから取得した色(文字列)の入れ方がわからず、仮で固定の色を設定しています\n this.Buttons.Children.Add(but); \n    ・\n    ・\n    ・\n \n```\n\n回答する上で情報に不足あれば、ご指摘いただけると幸いです。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-11T02:08:04.373", "favorite_count": 0, "id": "93300", "last_activity_date": "2023-01-11T05:31:04.233", "last_edit_date": "2023-01-11T02:38:49.170", "last_editor_user_id": "3060", "owner_user_id": "56498", "post_type": "question", "score": 0, "tags": [ "wpf" ], "title": "XML内に記述した色を動的に生成したボタンの背景色にしたい", "view_count": 150 }
[ { "body": "コメントで紹介した以下の記事が応用できるでしょう。 \n[Convert string to Brushes/Brush color name in\nC#](https://stackoverflow.com/q/372693/9014308)\n\n```\n\n string BtnBGColor = \"Yellow\"; //例えばXMLから取得した色文字列がこんな変数に入るとして\n \n System.Windows.Controls.Button but = new System.Windows.Controls.Button();\n but.Background = (SolidColorBrush)new BrushConverter().ConvertFromString(BtnBGColor);\n this.Buttons.Children.Add(but);\n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-11T05:31:04.233", "id": "93304", "last_activity_date": "2023-01-11T05:31:04.233", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "26370", "parent_id": "93300", "post_type": "answer", "score": 1 } ]
93300
null
93304
{ "accepted_answer_id": null, "answer_count": 2, "body": "初心者のため、おかしな点があるかもしれませんがよろしくお願いします。\n\nテキストファイルの中身\n\n```\n\n AAA\n BBB\n CCC\n DDD\n \n```\n\n```\n\n 辞書 = {\n 'AAA':['a','b','c'],\n 'BBB':['a','b','d','g'],\n 'CCC':['b','f'],\n 'DDD':['b','c','f','g','h']\n }\n \n```\n\nテキストファイルも辞書も簡易化してます。\n\n求める結果はキー毎の要素数です。\n\n```\n\n 3\n 4\n 2\n 5\n \n```\n\n私は知識がないため以下のようなスクリプトを書きました。しかし、手作業で指定しないといけないため、汎用性がないと感じ質問しました。 \nよろしくお願いします。\n\n```\n\n バリュー = 辞書.get('AAA')\n print(len(バリュー))\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-11T06:27:41.837", "favorite_count": 0, "id": "93306", "last_activity_date": "2023-01-17T13:15:14.320", "last_edit_date": "2023-01-11T06:37:30.820", "last_editor_user_id": "3060", "owner_user_id": "55971", "post_type": "question", "score": 1, "tags": [ "python" ], "title": "テキストファイル内の文字列を、辞書内のキーから検索し、バリューの要素数をだしたい。", "view_count": 108 }
[ { "body": "```\n\n dic = {'AAA':['a','b','c'],'BBB':['a','b','d','g'],'CCC':['b','f'],'DDD':['b','c','f','g','h']}\n with open('keys.txt', 'r') as f:\n for key in f:\n value = dic.get(key.rstrip(), None)\n if value is not None:\n print(len(value))\n \n # 3\n # 4\n # 2\n # 5\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-11T06:37:10.740", "id": "93307", "last_activity_date": "2023-01-11T06:37:10.740", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "47127", "parent_id": "93306", "post_type": "answer", "score": 1 }, { "body": "以下のように試してみてください。\n\n```\n\n for key in 辞書.keys():\n print(len(辞書[key]))\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-17T13:15:14.320", "id": "93416", "last_activity_date": "2023-01-17T13:15:14.320", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "55497", "parent_id": "93306", "post_type": "answer", "score": 1 } ]
93306
null
93307
{ "accepted_answer_id": null, "answer_count": 0, "body": "一つのプロジェクトで複数のgoogle map apikeyを使ってサービス運用しています。\n\nどのapikeyがどれだけ使ったのか知りたいのですが、GCPの通常のBilling画面からだと、一つのプロジェクトの合算した使用量しか表示されないので、 \n困っています。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-11T13:10:50.163", "favorite_count": 0, "id": "93309", "last_activity_date": "2023-01-11T13:10:50.163", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56509", "post_type": "question", "score": 1, "tags": [ "google-maps" ], "title": "google map apikeyごとの料金集計について", "view_count": 54 }
[]
93309
null
null
{ "accepted_answer_id": "93324", "answer_count": 1, "body": "以下を実行して、折れ線グラフを生成しました。 \n凡例の中の時間 YYYY-MM-DD のフォーマット(日付のみ、時間なし)にしたいなら、どこを直せばいですか?\n\n```\n\n for i in range(0,10) :\n df04.plot(figsize=(8, 6))\n plt.legend(loc='upper left', bbox_to_anchor=(1, 1))\n plt.ticklabel_format(style='plain',axis='y')\n plt.savefig(fig_name, bbox_inches=\"tight\", pad_inches=0.25) \n plt.close()\n \n```\n\n[![画像の説明をここに入力](https://i.stack.imgur.com/O5fky.jpg)](https://i.stack.imgur.com/O5fky.jpg)", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-12T02:45:38.377", "favorite_count": 0, "id": "93311", "last_activity_date": "2023-01-13T14:41:21.760", "last_edit_date": "2023-01-12T05:17:21.850", "last_editor_user_id": "3060", "owner_user_id": "56371", "post_type": "question", "score": 0, "tags": [ "python", "pandas" ], "title": "時系列の凡例のフォーマット (日時表示) を変更したい", "view_count": 151 }
[ { "body": "御質問へのコメントを参考にさせていただき,手持ちの類似データで\n\n```\n\n # plt.legend(loc='upper left', bbox_to_anchor=(1, 1))\n plt.legend(labels=df04.columns.date,\n loc='upper left', bbox_to_anchor=(1, 1))\n \n```\n\nを試したところ所望の結果は得られたのですが,[matplotlib.pyplot.legend](https://matplotlib.org/stable/api/_as_gen/matplotlib.pyplot.legend.html)\nによると(プロット要素との暗黙の対応でラベルを付ける)この形式は非推奨のようです。そこで,ラベルを取り出して加工する記述例と(類似データの)描画結果を示します。\n\n```\n\n ax = df04.plot(figsize=(8, 6))\n hndls, lbls = ax.get_legend_handles_labels()\n lbls = [s.split()[0] for s in lbls] # YYYY-MM-DD\n # lbls = [s.split()[0][5:] for s in lbls] # MM-DD\n ax.legend(handles=hndls, labels=lbls,\n loc='upper left', bbox_to_anchor=(1, 1))\n ax.ticklabel_format(style='plain', axis='y')\n plt.savefig(fig_name, bbox_inches=\"tight\", pad_inches=0.25)\n plt.close()\n \n```\n\n[![描画結果](https://i.stack.imgur.com/XVZwa.png)](https://i.stack.imgur.com/XVZwa.png)", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-13T11:10:20.613", "id": "93324", "last_activity_date": "2023-01-13T14:41:21.760", "last_edit_date": "2023-01-13T14:41:21.760", "last_editor_user_id": "54588", "owner_user_id": "54588", "parent_id": "93311", "post_type": "answer", "score": 0 } ]
93311
93324
93324
{ "accepted_answer_id": null, "answer_count": 0, "body": "Google Apps Script(GAS)環境でMySQLから取得した結果を配列に格納する処理で非常に時間がかかっています。(約200件で1分前後)\n\n以下が抜粋したプログラムの内容で、whileにて配列に値をセットする箇所を改善したいと考えております。\n\nなお、CloudSQLのサーバスペックを上げることで処理速度は若干改善されたものの、費用が上がるので出来ればプログラムの修正により改善したいと考えております。\n\n御回答のほど宜しくお願い致します。\n\n```\n\n var conn = Jdbc.getCloudSqlConnection(ScriptID.dbConnect,ScriptID.dbUser,ScriptID.dbPassword);\n \n // SQLの詳細は割愛しますが取得結果は200件程度\n var sql = \"SELECT XXX FROM XXX\";\n var rsData = conn.createStatement().executeQuery(sql); \n \n var result = [];\n while (rsData.next()) {\n detail =[];\n detail.push(rsData.getString(1));\n detail.push(rsData.getString(2));\n detail.push(rsData.getString(3));\n detail.push(rsData.getString(4));\n detail.push(rsData.getString(5));\n \n // : 同じような方法で15項目取得想定\n \n result.push(detail);\n }\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-12T04:53:10.083", "favorite_count": 0, "id": "93312", "last_activity_date": "2023-01-12T05:15:35.887", "last_edit_date": "2023-01-12T05:15:35.887", "last_editor_user_id": "3060", "owner_user_id": "56515", "post_type": "question", "score": 0, "tags": [ "javascript", "google-apps-script" ], "title": "GAS環境でDBから取得した値を配列に格納する際のレスポンス改善方法", "view_count": 129 }
[]
93312
null
null
{ "accepted_answer_id": "93315", "answer_count": 1, "body": "以下の様なApp.jsがあり、dbから抽出した情報の一覧を表示させる記述があります。画像を表示させる為にimg\nsrc内を以下の様にテキストと変数を連結した状態にしなければなりません。以下の設定では画像が表示されず、四角いボックスが表示されるだけです。''、\"\"、あるいは{}で全体を覆ったりとあらゆることを試したり、ネット内の同様のケースを探し試しましたが、表示されません。試しに{url}{product.image}だけだと正しく連結されたurlが表示されます。よって、img\nsrc内での連結方法ということになるかと思います。以下をどの様な設定にすれば宜しいかお教え頂けませんでしょうか?\n\n```\n\n function App() {\n .........\n \n }\n \n const url = \"https://xxxxx.com/img/\"; \n \n return (\n <div className=\"App\">\n <div>\n <tbody>\n {Object.values(products).map((product, key) => \n <tr key={key}> \n <td><img src={url}{product.image}></img></td>\n </tr>\n )} \n </tbody>\n </div>\n </div>\n );\n }\n \n export default App;\n \n```", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-12T07:10:10.537", "favorite_count": 0, "id": "93313", "last_activity_date": "2023-01-12T11:05:08.393", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "19211", "post_type": "question", "score": 2, "tags": [ "javascript", "reactjs" ], "title": "react内のimg srcにてテキストと変数を連結したい。", "view_count": 482 }
[ { "body": "波括弧`{}`の中は式として評価されるので、文字列の結合を行うことができます。\n\n```\n\n <td><img src={url + product.image}></img></td>\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-12T11:05:08.393", "id": "93315", "last_activity_date": "2023-01-12T11:05:08.393", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "56519", "parent_id": "93313", "post_type": "answer", "score": 4 } ]
93313
93315
93315
{ "accepted_answer_id": "93318", "answer_count": 2, "body": "Google Cloud PHP Natural Language を使おうと思い、GitHubからcloneでコードを追加しました。\n\n<https://github.com/googleapis/google-cloud-php-language>\n\n事前に API Key の有効化と取得は行っています。\n\n先程のGitHubにあるサンプルコードは次のようになっています。\n\n```\n\n require 'vendor/autoload.php';\n \n use Google\\Cloud\\Language\\LanguageClient;\n \n $language = new LanguageClient();\n \n // Analyze a sentence.\n $annotation = $language->annotateText('Greetings from Michigan!');\n \n // Check the sentiment.\n if ($annotation->sentiment() > 0) {\n echo \"This is a positive message.\\n\";\n }\n \n // Detect entities.\n $entities = $annotation->entitiesByType('LOCATION');\n \n foreach ($entities as $entity) {\n echo $entity['name'] . \"\\n\";\n }\n \n // Parse the syntax.\n $tokens = $annotation->tokensByTag('NOUN');\n \n foreach ($tokens as $token) {\n echo $token['text']['content'] . \"\\n\";\n }\n \n```\n\nここにはAPIキーを設定する部分がありません。 \n実際、アクセスをしてもエラーが発生します。\n\n```\n\n { \"error\": { \"code\": 403, \"message\": \"The request is missing a valid API key.\", \"status\": \"PERMISSION_DENIED\" } }\n \n```\n\n[API キーを使用して認証する](https://cloud.google.com/docs/authentication/api-keys?hl=ja)\nを参照するとURLの最後に追加するように書かれています。 \n`POST\nhttps://language.googleapis.com/v1/documents:analyzeEntities?key=API_KEY`\n\nしかしながら、上記のコードにAPI_KEYを設定する項目はありません。 \nまたは、x-goog-api-key ヘッダーを使用してキーを渡すこともできるそうですが…\n\nどのようにしてAPIキーを設定することができるのでしょうか? \nよろしくお願いします。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-13T00:05:58.423", "favorite_count": 0, "id": "93316", "last_activity_date": "2023-01-13T02:21:19.323", "last_edit_date": "2023-01-13T01:28:57.047", "last_editor_user_id": "3060", "owner_user_id": "7980", "post_type": "question", "score": 0, "tags": [ "php", "google-cloud", "google-api" ], "title": "Google API KEY の設定方法が分からない", "view_count": 232 }
[ { "body": "以下に同じような質問と回答がありました。\n\n[Where do I put my api key in Google Cloud PHP Language Client? - Stack\nOverflow](https://stackoverflow.com/questions/52776236/where-do-i-put-my-api-\nkey-in-google-cloud-php-language-client)\n\nkeyFilePath というのがわかれば試してみてはいかがでしょうか ?\n\n```\n\n $language = new LanguageClient([\n 'projectId' => 'my-project-id',\n 'keyFilePath' => '/path/to/my/keyfile.json'\n ]);\n \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-13T00:47:46.197", "id": "93317", "last_activity_date": "2023-01-13T01:17:50.657", "last_edit_date": "2023-01-13T01:17:50.657", "last_editor_user_id": "3060", "owner_user_id": "53097", "parent_id": "93316", "post_type": "answer", "score": 0 }, { "body": "参照している GitHub リポジトリの README\nで、[Authentication](https://github.com/googleapis/google-cloud-php-\nlanguage#authentication) の段落には [Authentication\nguide](https://github.com/googleapis/google-cloud-\nphp/blob/main/AUTHENTICATION.md) (認証ガイド) へのリンクが貼られています。\n\n認証ガイドのページを開き、Environment Variables の段落を見ると、環境変数\n`GOOGLE_APPLICATION_CREDENTIALS` を使えばよいと書かれています。\n\n> ### Environment Variables\n>\n> The **Project ID** and **Credentials JSON** can be placed in environment\n> variables instead of declaring them directly in code.\n>\n> (訳) \n> プロジェクト ID と資格情報の JSON は、コードで直接宣言する代わりに環境変数に配置できます。\n\n> Here are the environment variables that Google Cloud PHP checks for\n> credentials:\n>\n> 1. `GOOGLE_APPLICATION_CREDENTIALS` \\- Path to JSON file\n>\n\nより具体的な例は以下のドキュメントにも記載があります。\n\n[環境変数を設定する - 認証のスタートガイド | Google\nCloud](https://cloud.google.com/docs/authentication/getting-\nstarted?hl=ja#setting_the_environment_variable)\n\n>\n```\n\n> export GOOGLE_APPLICATION_CREDENTIALS=\"/home/user/Downloads/service-\n> account-file.json\"\n> \n```\n\nもしくは、コード中にファイルへのパスを直接記載する例が認証ガイドにも載っています。 \nほぼ同じ内容ですが、[PHP で GCP を利用する際の認証設定 -\nQiita](https://qiita.com/shimon_haga/items/84dc1d13054a704958cf)\nにも簡単な解説記事があったので合わせて参照してみてください。\n\n> ### Client Authentication\n```\n\n> require 'vendor/autoload.php';\n> \n> use Google\\Cloud\\Storage\\StorageClient;\n> \n> // Authenticating with keyfile data.\n> $storage = new StorageClient([\n> 'keyFile' => json_decode(file_get_contents('/path/to/keyfile.json'),\n> true)\n> ]);\n> \n> // Authenticating with a keyfile path.\n> $storage = new StorageClient([\n> 'keyFilePath' => '/path/to/keyfile.json'\n> ]);\n> \n```", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-13T02:21:19.323", "id": "93318", "last_activity_date": "2023-01-13T02:21:19.323", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "3060", "parent_id": "93316", "post_type": "answer", "score": 1 } ]
93316
93318
93318
{ "accepted_answer_id": null, "answer_count": 3, "body": "現在Postfixでメールマガジン配信をしようと検討しています。 \n配信したメールマガジンが受信者によって迷惑メール報告された場合Postfixがそれを知るすべはあるのでしょうか? \nメールアドレスが存在しない場合やメールの受信箱が満杯の場合などはSMTPプロトコルのセッション内で400系や500系のエラーが返却されるので配信に失敗したという判定が可能ですが、受信者が迷惑メール迷惑メール報告する場合は既にSMTPのセッションが終了しているためエラーコードが受け取れません。受信者が迷惑メール報告をした場合例えばgmailであればgmail側からReturn-\nPathにバウンスメールが送信されるというような決まりごと等があるのでしょうか? \n教えていただきたいです。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-13T07:23:47.577", "favorite_count": 0, "id": "93321", "last_activity_date": "2023-01-16T02:33:57.263", "last_edit_date": "2023-01-13T07:54:39.130", "last_editor_user_id": "3060", "owner_user_id": "56179", "post_type": "question", "score": 1, "tags": [ "mail", "postfix" ], "title": "メールを受信した人物が迷惑メール報告した場合にPostfix側で迷惑メール報告されたことを知る方法", "view_count": 578 }
[ { "body": "**ありません。**\n\n迷惑メールフィルターで迷惑メールと判断された場合も、受信者が迷惑メールと報告した場合も、送信者側がそれを知る方法はありません。これらの処理は全てサイレントに(送信者に気付かれないように)行われます。\n\n送信側がわかるのは、ブラックリストのIPから送信されている、マルウェアや悪意あるURLが含まれている等の理由でメールの受信自体を拒否された場合です。この場合は、SMTPのセッションで400/500番台で拒否されるか、送信者にリターンメールが返る事になります。", "comment_count": 1, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-15T06:23:04.740", "id": "93351", "last_activity_date": "2023-01-15T06:23:04.740", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "7347", "parent_id": "93321", "post_type": "answer", "score": 1 }, { "body": "「配信不可」等のエラーを返す事はあるのかもしれませんが、相手先 (受信側) での仕様次第かと思います。 \n少なくとも「迷惑メールとして拒否した」ことを知らせることは無いと思います。\n\n(メールに限らず) 拒否したことを相手に知らせてしまうと、悪意を持って行動している人に一定の効果があることを知らせてしまう事にも繋がり悪手です。", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-15T06:30:30.227", "id": "93352", "last_activity_date": "2023-01-15T06:30:30.227", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "3060", "parent_id": "93321", "post_type": "answer", "score": 0 }, { "body": "> 配信したメールマガジンが受信者によって迷惑メール報告された場合Postfixがそれを知るすべはあるのでしょうか?\n\nGmailのような、受信者が受信したメールに対して「迷惑メールを報告」というような操作のことを行っているのであれば、これはSMTPとは全く関係ない話なので、当然送信側でそれを知るすべはありません。そういうことをやるような仕組みも(現時点では)ありません。\n\n報告の結果として以後のメールがどういう扱いになるかという話であれば、\n\n * 特に何も起きない\n * 迷惑メールとして振り分け\n * SMTPのセッションの時点で拒否\n\nどういう動作になるかは実装次第です。最後のは送信側で拒否されたことはわかります。(理由までわかるかというとこれも実装次第です)", "comment_count": 0, "content_license": "CC BY-SA 4.0", "creation_date": "2023-01-16T02:33:57.263", "id": "93371", "last_activity_date": "2023-01-16T02:33:57.263", "last_edit_date": null, "last_editor_user_id": null, "owner_user_id": "5793", "parent_id": "93321", "post_type": "answer", "score": 0 } ]
93321
null
93351