question
dict | answers
list | id
stringlengths 2
5
| accepted_answer_id
stringlengths 2
5
⌀ | popular_answer_id
stringlengths 2
5
⌀ |
---|---|---|---|---|
{
"accepted_answer_id": null,
"answer_count": 2,
"body": "ソケット通信を用いて複数プレイヤーのシンプルなゲームを作っています。 \nクライアントから送られてきた文字列をstrncmpで判別してそれぞれに適した処理が行われるようにしたいです。\n\n例えば、”ADD 5\"とクライアントから送られてきた場合に最初のADDを `strncmp` で判別して合計の数に5を足すようにしたいです。\n\nしかし、どうしても `if` 文の処理が飛ばされてしまいます。色々と試した上でクライアントからサーバーへの文字列の送信は問題なく行われているので、`if`\n文の部分に問題があるのは確かです。\n\nクライアントからの処理が追いつかなくて `if`\n文の処理が飛ばされしまうことなどはあるのでしょうか?何か解決策があれば教えていただけるとありがたいです。拙い文章で申し訳ありません。\n\nサーバーサイド\n\n```\n\n int sum = 0;\n int tmp;\n while (1)\n {\n for (int i = 0; i < num_player; i++)\n {\n memset(client_buf, '\\0', BUF_SIZE);\n \n if (recv(clientsock[i], client_buf, BUF_SIZE, 0) == -1)\n {\n perror(\"ERROR\");\n exit(1);\n } \n \n if(strncmp(client_buf, \"ADD\", 3) == 0)\n {\n strcpy(str, client_buf + 4);\n \n sum += temp;\n }\n // この後も他のelse if文が続く\n }\n \n```\n\nクライアントサイド\n\n```\n\n while(1){\n memset(client_buf, '\\0', sizeof(client_buf));\n if (recv(clientsock, server_reply, BUF_SIZE, 0) == -1)\n {\n perror(\"ERROR\");\n exit(1);\n } \n char str[BUF_SIZE]\n printf(\"Enter a number:\");\n fgets(str, BUF_SIZE, stdin);\n sprintf(client_buf, \"ADD %s\", str);\n if (send(clientsock, client_buf, BUF_SIZE, 0) < 0){\n perror(\"Send failed\");\n }\n }\n \n```",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-10T14:24:41.350",
"favorite_count": 0,
"id": "91030",
"last_activity_date": "2022-09-13T07:55:49.253",
"last_edit_date": "2022-09-10T16:24:52.490",
"last_editor_user_id": "3060",
"owner_user_id": "54027",
"post_type": "question",
"score": 1,
"tags": [
"c",
"socket"
],
"title": "ソケット通信でif文が無視(スキップ)されてしまう",
"view_count": 268
} | [
{
"body": "質問文には論理の飛躍が多々見られます。以下で説明しますが、具体的な事実に基づいて調査することをお勧めします。\n\n* * *\n\n> 色々と試した上でクライアントからサーバーへの文字列の送信は問題なく行われている\n\n違います。クライアントが送信したこととサーバーが受信することは別問題です。あまり知られていないことですが、クライアントが送信した場合はクライアントが送信したことになるので、サーバーが受信したかどうかはサーバーが受信したかどうかで判断してください。(小泉構文) \n例えば\n\n>\n```\n\n> if (recv(clientsock[i], client_buf, BUF_SIZE, 0) == -1)\n> \n```\n\n`recv()`は`-1`を返さなかったので受信エラーではないようですが、それではいったい何バイトのデータを受信したのでしょうか?\n受信エラーが発生していないことと期待するバイト数だけ受信が行われることは別問題です。このコードでは情報が読み捨てられていて判断できないです。\n\n同様に\n\n>\n```\n\n> if (send(clientsock, client_buf, BUF_SIZE, 0) < 0){\n> \n```\n\nクライアントは送信に成功しているようですが、いったい何バイトのデータを送信したのでしょうか?\n「クライアントからサーバーへの文字列の送信は問題なく行われている」とありましたが、 **送信できたバイト数を確認せずに**\n送信できたと判断するのは早計です。\n\n> クライアントからの処理が追いつかなくて `if` 文の処理が飛ばされしまうことなどはあるのでしょうか?\n\nそもそもサーバープログラムはどの行を実行しているのでしょうか? 質問文にはそれがありません。 `if` 文の処理が実行されないことと `if`\n文の処理が飛ばされることは別問題です。「飛ばされた」と判断するには「`if` 文の先にある処理が実行された」という情報が必要です。",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-10T21:16:33.447",
"id": "91033",
"last_activity_date": "2022-09-10T21:16:33.447",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "4236",
"parent_id": "91030",
"post_type": "answer",
"score": 2
},
{
"body": "> int sum = 0; \n> int tmp; \n> と変数定義がされていますが\n\n>\n```\n\n> sum += temp;\n> \n```\n\nスペルミスという線は?",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T07:55:49.253",
"id": "91080",
"last_activity_date": "2022-09-13T07:55:49.253",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54378",
"parent_id": "91030",
"post_type": "answer",
"score": 0
}
] | 91030 | null | 91033 |
{
"accepted_answer_id": "91038",
"answer_count": 1,
"body": "最近Pythonを勉強し始めましたが、課題で行き詰まっています。 \nどなたかアドバイスください。\n\n課題の指示は以下の通り。\n\n * Between 37 and 38 degrees Celsiusの時 Normal Body temperatureと表示させる\n * Between 38 and 39 degrees Celsiusの時 Is a Feverと表示させる\n * Between 39 and 40 degrees Celsiusの時 Is a High Feverと表示させる\n * Between 40 and 41 degrees Celsiusの時 Is A Very High Feverと表示させる\n * Over 41 degrees Celsiusの時 Is A Serious Emergencyと表示させる\n\nコードは以下の通り作成しました。ひとまず指示通りの結果は表示させることはできたのですが、if elseを使う場合はどのように記述したら良いでしょうか?\n\n```\n\n print(\"What is your body tempereture? \", end=\"\")\n n=float(input())\n \n if n>= 37.0 and n<=38.0:\n print(\"Nomal Body Tempereture\")\n \n if n>=38.1 and n<=39.0:\n print(\"Is a Fever\")\n \n if n>=39.1 and n<=40.0:\n print(\"Is a High Fever\")\n \n if n>=40.1 and n<=41.0:\n print(\"Is A Very High Fever\")\n \n if n>=41.1:\n print(\"Is A Serious Emergency\")\n \n```",
"comment_count": 8,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-11T01:40:03.600",
"favorite_count": 0,
"id": "91034",
"last_activity_date": "2022-09-12T16:15:13.160",
"last_edit_date": "2022-09-12T16:15:13.160",
"last_editor_user_id": "3060",
"owner_user_id": "54340",
"post_type": "question",
"score": 0,
"tags": [
"python"
],
"title": "if 文を列挙する記述から、if else を使った記述に変更したい",
"view_count": 198
} | [
{
"body": "Python 公式マニュアルのチュートリアルを読むと良さそうです:\n<https://docs.python.org/ja/3/tutorial/controlflow.html#if-statements>\n\n`if` は「この条件に合ったら○○する」という制御構文であり、同じような感じで `else` は「それ以外の場合は○○する」、`elif`\nは「それ以外の場合で、この条件に合ったら○○する」という制御構文です。\n\nこのためたとえば以下のように書くことができます。\n\n```\n\n if n >= 37.0 and n <= 38.0:\n print(\"Normal Body Temperature\")\n elif n <= 39.0:\n print(\"Is a Fever\")\n elif n <= 40.0:\n print(\"Is a High Fever\")\n else:\n # 以下省略します。\n print(\"Something else\")\n \n```\n\nこの書き方の良いところは、少し条件を省略できるところです。つまり、ひとつ前の条件で既にチェックされていることはチェックしなくて良くなります。このため、実は今回の場合結果的にバグめいた挙動がひとつ直っており、「38.01」みたいな入力があっても何かしら出力されるようになっています。",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-11T07:24:19.127",
"id": "91038",
"last_activity_date": "2022-09-11T07:24:19.127",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "19110",
"parent_id": "91034",
"post_type": "answer",
"score": 3
}
] | 91034 | 91038 | 91038 |
{
"accepted_answer_id": "91047",
"answer_count": 3,
"body": "MySQLにおいて、\"大阪府守口市○○○\"という文字列から、都道府県にあたる\"大阪府\"という文字列だけ取り出したいです。\n\n`SUBSTR` 関数で行っています。\n\n下記の方法で指定した文字取得できましたが、1~3まで指定、下記のように出力されます。\n\n```\n\n SELECT SUBSTRING(`住所`,1,3) FROM address\n \n```\n\n元データ\n\n```\n\n 大阪府○○○○\n 東京都○○○○\n 栃木県○○○○\n 北海道○○○○\n 沖縄県○○○○\n 和歌山○○○○\n 神奈川○○○○\n \n```\n\n出力\n\n```\n\n 大阪府\n 東京都\n 栃木県\n 北海道\n 沖縄県\n 和歌山\n 神奈川\n \n```\n\n**実現したい結果** \n現在3文字の都道府県でしたら問題なくできますが、下記のように4文字の都道府県を正規表現で住所を分割したい場合は可能でしょうか。\n\n```\n\n 大阪府\n 東京都\n 栃木県\n 北海道\n 沖縄県\n 和歌山県\n 神奈川県\n \n```\n\nご教授いただけると幸いです。",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T01:23:17.677",
"favorite_count": 0,
"id": "91044",
"last_activity_date": "2022-09-13T00:39:28.657",
"last_edit_date": "2022-09-12T02:39:53.817",
"last_editor_user_id": "3060",
"owner_user_id": "18859",
"post_type": "question",
"score": 0,
"tags": [
"mysql"
],
"title": "MySQLで住所(都道府県)を分ける(分割する)方法",
"view_count": 857
} | [
{
"body": "MySQL 8.0\n以降であれば、[`REGEXP_SUBSTR`](https://dev.mysql.com/doc/refman/8.0/ja/regexp.html#function_regexp-\nsubstr)で抽出できます。\n\n```\n\n REGEXP_SUBSTR(`住所`, '^.{2,3}?[都道府県]')\n \n```\n\n正規表現が使えない場合は`case`文の使用をご検討ください。(下記のQuery #1を参照)\n\n**Schema (MySQL v8.0)**\n\n```\n\n create table address (`住所` varchar(50)) CHARSET \"utf8mb4\";\n insert into address values('京都府宇治市莵道');\n insert into address values('大阪府○○○○');\n insert into address values('東京都府中市');\n insert into address values('長野県小県郡');\n insert into address values('北海道○○○○');\n insert into address values('沖縄県○○○○');\n insert into address values('和歌山県○○○○');\n insert into address values('神奈川県○○○○');\n \n```\n\n* * *\n\n**Query #1**\n\n```\n\n select REGEXP_SUBSTR(`住所`, '^.{2,3}?[都道府県]') REG_SUBSTR,\n case when SUBSTRING(`住所`, 3, 1) in ('都', '道', '府', '県')\n then SUBSTRING(`住所`, 1, 3)\n else SUBSTRING(`住所`, 1, 4)\n end substr_case\n from address;\n \n```\n\nREG_SUBSTR | substr_case \n---|--- \n京都府 | 京都府 \n大阪府 | 大阪府 \n東京都 | 東京都 \n長野県 | 長野県 \n北海道 | 北海道 \n沖縄県 | 沖縄県 \n和歌山県 | 和歌山県 \n神奈川県 | 神奈川県 \n \n* * *\n\n[View on DB Fiddle](https://www.db-fiddle.com/f/dgPj6t5dqxNst8m28RXYeY/2)",
"comment_count": 9,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T02:05:05.977",
"id": "91045",
"last_activity_date": "2022-09-12T03:52:02.620",
"last_edit_date": "2022-09-12T03:52:02.620",
"last_editor_user_id": "9820",
"owner_user_id": "9820",
"parent_id": "91044",
"post_type": "answer",
"score": 4
},
{
"body": "REGEXP_SUBSTRとREGEXP_REPLACEを使えない場合(MySQL 5.6 or 5.7)、下記のクエリをたみしてみてください。\n\n```\n\n SELECT \n IF (\n LEFT(`住所`,INSTR(`住所`, '県')-1) = '',\n (\n IF (\n LEFT(`住所`,INSTR(`住所`, '府')-1) = '', \n ( \n IF (\n LEFT(`住所`,INSTR(`住所`, '都')-1) = '', \n ( \n IF (\n LEFT(`住所`,INSTR(`住所`, '道')-1) = '', \n `住所`,\n CONCAT(LEFT(`住所`,INSTR(`住所`, '道')-1), '道')\n )\n ),\n CONCAT(LEFT(`住所`,INSTR(`住所`, '都')-1), '都')\n )\n ),\n CONCAT(LEFT(`住所`,INSTR(`住所`, '府')-1), '府')\n )\n ),\n CONCAT(LEFT(`住所`,INSTR(`住所`, '県')-1), '県')\n ) AS `住所`\n FROM `address`\n \n```",
"comment_count": 5,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T02:53:54.280",
"id": "91047",
"last_activity_date": "2022-09-13T00:39:28.657",
"last_edit_date": "2022-09-13T00:39:28.657",
"last_editor_user_id": "40476",
"owner_user_id": "40476",
"parent_id": "91044",
"post_type": "answer",
"score": 1
},
{
"body": "別解です。\n\n```\n\n SELECT SUBSTR(住所, 1, 4) '住所' FROM address WHERE SUBSTR(住所, 4, 1) = '県' UNION\n SELECT SUBSTR(住所, 1, 3) '住所' FROM address WHERE SUBSTR(住所, 3, 1) IN ('都', '道', '府', '県');\n \n```\n\n実行例\n\n```\n\n WITH address(住所) AS (\n select '愛知県○○○○' union\n select '愛媛県○○○○' union\n select '茨城県○○○○' union\n select '岡山県○○○○' union\n select '沖縄県○○○○' union\n select '岩手県○○○○' union\n select '岐阜県○○○○' union\n select '宮崎県○○○○' union\n select '宮城県○○○○' union\n select '京都府○○○○' union\n select '熊本県○○○○' union\n select '群馬県○○○○' union\n select '広島県○○○○' union\n select '香川県○○○○' union\n select '高知県○○○○' union\n select '佐賀県○○○○' union\n select '埼玉県○○○○' union\n select '三重県○○○○' union\n select '山形県○○○○' union\n select '山口県○○○○' union\n select '山梨県都留市○' union\n select '滋賀県○○○○' union\n select '鹿児島県○○○○' union\n select '秋田県○○○○' union\n select '新潟県○○○○' union\n select '神奈川県○○○○' union\n select '青森県○○○○' union\n select '静岡県○○○○' union\n select '石川県○○○○' union\n select '千葉県○○○○' union\n select '大阪府○○○○' union\n select '大分県○○○○' union\n select '長崎県○○○○' union\n select '長野県○○○○' union\n select '鳥取県○○○○' union\n select '島根県○○○○' union\n select '東京都○○○○' union\n select '徳島県○○○○' union\n select '栃木県○○○○' union\n select '奈良県○○○○' union\n select '富山県○○○○' union\n select '福井県○○○○' union\n select '福岡県○○○○' union\n select '福島県○○○○' union\n select '兵庫県○○○○' union\n select '北海道○○○○' union\n select '和歌山県○○○○'\n )\n SELECT SUBSTR(住所, 1, 4) '住所' FROM address WHERE SUBSTR(住所, 4, 1) = '県' UNION\n SELECT SUBSTR(住所, 1, 3) '住所' FROM address WHERE SUBSTR(住所, 3, 1) IN ('都', '道', '府', '県');\n \n```\n\n```\n\n +--------------+\n | 住所 |\n +--------------+\n | 鹿児島県 |\n | 神奈川県 |\n | 和歌山県 |\n | 愛知県 |\n | 愛媛県 |\n | 茨城県 |\n | 岡山県 |\n | 沖縄県 |\n | 岩手県 |\n | 岐阜県 |\n | 宮崎県 |\n | 宮城県 |\n | 京都府 |\n | 熊本県 |\n | 群馬県 |\n | 広島県 |\n | 香川県 |\n | 高知県 |\n | 佐賀県 |\n | 埼玉県 |\n | 三重県 |\n | 山形県 |\n | 山口県 |\n | 山梨県 |\n | 滋賀県 |\n | 秋田県 |\n | 新潟県 |\n | 青森県 |\n | 静岡県 |\n | 石川県 |\n | 千葉県 |\n | 大阪府 |\n | 大分県 |\n | 長崎県 |\n | 長野県 |\n | 鳥取県 |\n | 島根県 |\n | 東京都 |\n | 徳島県 |\n | 栃木県 |\n | 奈良県 |\n | 富山県 |\n | 福井県 |\n | 福岡県 |\n | 福島県 |\n | 兵庫県 |\n | 北海道 |\n +--------------+\n 47 rows in set (0.003 sec)\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T08:48:01.413",
"id": "91056",
"last_activity_date": "2022-09-12T08:48:01.413",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "35558",
"parent_id": "91044",
"post_type": "answer",
"score": 1
}
] | 91044 | 91047 | 91045 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "少し前に Lua を始めた初心者です。よろしくお願いします。\n\nLua で、数値 `a`, `b`, `c` と文字列 `s` に対して\n\n```\n\n a\n b c\n s\n \n```\n\nという入力から\n\n```\n\n a+b+c s\n \n```\n\nという出力が得られるコードを書きたかったのですが、\n\n```\n\n local num1 = io.read(\"n\")\n local num2, num3 = io.read(\"n\", \"n\")\n local str = io.read\n print(num1+num2+num3..\" \"..str)\n \n```\n\nとすると上手くいかず(`str` が `nil` になってしまいます)、しかし\n\n```\n\n local num1 = io.read(\"n\")\n local num2, num3 = io.read(\"n\", \"n\", \"n\")\n local str = io.read\n print(num1+num2+num3..\" \"..str)\n \n```\n\nだとなぜかできてしまいました。\n\n2行目で代入する数値は `num2` と `num3` の2つでいいはずなので、`\"n\"`\nも2つで十分だと思ったのですが、それでは上手くいかずに、3つ書いてはじめて成功したのは、何が原因なのでしょうか。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T02:31:49.443",
"favorite_count": 0,
"id": "91046",
"last_activity_date": "2022-09-12T02:36:15.417",
"last_edit_date": "2022-09-12T02:36:15.417",
"last_editor_user_id": "54348",
"owner_user_id": "54348",
"post_type": "question",
"score": 0,
"tags": [
"lua"
],
"title": "Lua の io.read() の format「\"n\"」は何なのでしょうか",
"view_count": 74
} | [] | 91046 | null | null |
{
"accepted_answer_id": "91230",
"answer_count": 1,
"body": "マルチプロセスアプリケーション内部通信のため、asyncioを用いたcom server/clientを作成しています。 \nソースコードでは、com_serverは受け取ったデータをそのまま返送するだけです。\n\n試行回数(app.pyのrcnt値)200~2000と幅があるですが、com\nserverがinvalid_stateの例外エラーを送出して停止してしまいます。 \ncom_serverのstart_serverメソッド内のexcept 例外送出部分において、「invalid\nstate」が送出されますが、それ以外の情報がなく、どの部分でinvalid stateなのかが判断がつきません。\n\nさらに、例外発生時のfinally節において `self.event_loop.close()` の部分で処理が戻ってこなくなります。\n\n`self.event_loop.close()` 部分から処理を戻す方法があれば、com_serverを再起動できるのですが。\n\nなぜ停止してしまうのか、ご教示をお願いします。\n\n# 環境\n\nOS:Windows10 Pro(64bit) \nPython 3.9 \nIDE:VSCode \n※2台で実施しましたが、結果は同じでした。\n\n# 追加情報\n\nTCPコネクションリソースを疑っていましたが、ループ試行回数に大きなばらつきがあり、おそらくリソース問題ではないだろうと考えています。\n\n## 確認方法\n\n1)管理ツール:リソースモニターを起動し、TCP接続を確認。 \n2)Powershell において、2秒ごとに以下のコマンドを実行・表示\n\n```\n\n (& netstat -n -b | Select-String \"127.0.0.1:5638\").Length\n \n```\n\nこの結果により、上限100-104で安定します。\n\n# ソースコード\n\n## com_server\n\n```\n\n import asyncio\n from queue import Queue\n from threading import Thread\n import time\n \n srv_addr = '127.0.0.1'\n srv_port = 5638\n \n \n class com_server_protcol(asyncio.Protocol):\n def __init__(self, send_queue):\n self.transport = None\n self.send_queue = send_queue\n super().__init__()\n return\n \n def connection_made(self, transport):\n try:\n self.transport = transport\n client_address, client_port = self.transport.get_extra_info(\n 'peername')\n except Exception as e:\n print(f'com_server_protcol:{e}')\n \n # ホストマシン以外の接続は拒否\n if client_address != srv_addr:\n self.transport.close()\n \n def data_received(self, data):\n self.send_queue.put(data)\n \n def connection_lost(self, exc):\n self.transport.close()\n \n \n class com_server():\n def com_thread(self):\n timer = None\n time_out = 3.0\n try:\n while (self.is_ThrLoop):\n time.sleep(0.03)\n while (not self.con_recv_queue.empty()):\n item = self.con_recv_queue.get()\n self.instProt.transport.write(item)\n self.instProt.transport.close()\n \n except Exception as e:\n print(f'com_thread:{e}')\n \n return\n \n def start_server(self):\n \n self.Thr = Thread(name='com_server_thread', target=self.com_thread)\n self.Thr.daemon = True\n self.Thr.start()\n \n self.event_loop = asyncio.get_event_loop()\n self.instProt = com_server_protcol(self.con_recv_queue)\n factory = self.event_loop.create_server(\n lambda: self.instProt, srv_addr, srv_port)\n \n self.server = self.event_loop.run_until_complete(factory)\n \n try:\n self.event_loop.run_forever()\n except Exception as e:\n print(f'com_server:{e}')\n finally:\n self.is_ThrLoop = False\n self.Thr.join()\n self.server.close()\n self.event_loop.run_until_complete(self.server.wait_closed())\n self.event_loop.stop()\n self.event_loop.close()\n return\n \n def run(self, recv_queue, send_queue):\n self.is_ThrLoop = True\n self.recv_queue, self.send_queue = recv_queue, send_queue\n \n self.con_recv_queue = Queue()\n \n self.start_server()\n \n return\n \n```\n\n## com_client\n\n```\n\n import asyncio\n \n srv_addr = '127.0.0.1'\n srv_port = 5638\n \n \n async def client_message(message):\n reader, writer = await asyncio.open_connection(srv_addr, srv_port)\n \n writer.write(message.encode())\n await writer.drain()\n \n data = await reader.read()\n \n writer.close()\n await writer.wait_closed()\n \n return data\n \n \n def send_message(message):\n try:\n recv_data = asyncio.run(client_message(message))\n except Exception as e:\n print('client_message:', e)\n return recv_data\n \n```\n\n## app\n\n```\n\n from multiprocessing import freeze_support, set_start_method, Process\n from multiprocessing import Queue as MP_Queue\n \n import json\n import os\n import sys\n import time\n \n import com_server as com # nopep8\n from com_client import * # nopep8\n \n \n \n class AppServer():\n def run(self):\n self.work_dict = dict()\n self.com_send_queue, self.com_recv_queue = MP_Queue(), MP_Queue()\n \n instCom = com.com_server()\n \n instComProcess = Process(\n name='ComServer',\n target=instCom.run,\n args=(self.com_send_queue, self.com_recv_queue)\n )\n instComProcess.start()\n \n while (True):\n time.sleep(0.05)\n \n if __name__ == '__main__':\n freeze_support()\n set_start_method('spawn')\n \n instServer = AppServer()\n \n instProcess = Process(\n name='ComServer',\n target=instServer.run,\n )\n instProcess.start()\n \n time.sleep(3)\n \n counter = 0\n interval = 0.05\n const = 1\n rcnt = 0\n \n def _session_test_():\n global rcnt\n global counter\n counter += 1\n if int(counter) == int(const/0.05):\n counter = 0\n rcnt += 1\n try:\n res = send_message(json.dumps({'GET': None}))\n except Exception as e:\n ptint(f'recv{rcnt}:{e}')\n print(rcnt)\n \n return\n \n while (True):\n time.sleep(interval)\n \n _session_test_()\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T05:55:48.350",
"favorite_count": 0,
"id": "91049",
"last_activity_date": "2022-09-22T04:47:09.133",
"last_edit_date": "2022-09-13T02:56:33.973",
"last_editor_user_id": "32891",
"owner_user_id": "32891",
"post_type": "question",
"score": 0,
"tags": [
"python",
"python3",
"非同期"
],
"title": "asyncioを用いたサーバーがinvalid_stateで停止してしまう",
"view_count": 77
} | [
{
"body": "停止する原因は不明ですが、get_event_loopをget_running_loopとした方法で解決しました。\n\nPythonドキュメントのイベントループget_event_loopに関して、\n\n> 「この関数の振る舞いは (特にイベントループポリシーをカスタマイズした場合) 複雑なため、コルーチンやコールバックでは get_event_loop()\n> よりも get_running_loop() を使うほうが好ましいと考えられます。 \n> また、低水準の関数を使って手作業でイベントループの管理をするかわりに、 asyncio.run() を使うことを検討してください。」\n\nという記述を見つけ、これに対応するように変更しました。\n\n以下のドキュメント参照。 \n[イベントループ](https://docs.python.org/ja/3/library/asyncio-eventloop.html)\n\n## com_server\n\n```\n\n class com_server_protcol(asyncio.Protocol):\n def __init__(self, recv_queue, send_queue):\n self.transport = None\n self.recv_queue = recv_queue\n self.send_queue = send_queue\n super().__init__()\n return\n \n def connection_made(self, transport):\n try:\n self.transport = transport\n client_address, client_port = self.transport.get_extra_info(\n 'peername')\n except Exception as e:\n print(f'com_server_protcol:{e}')\n \n # ホストマシン以外の接続は拒否\n if client_address != srv_addr:\n self.transport.close()\n \n def data_received(self, data):\n time_out = 3.0\n interval = 0.03\n isLoop = True\n \n try:\n self.send_queue.put(data)\n timer = time.time()\n \n while (isLoop):\n time.sleep(interval)\n while (not self.recv_queue.empty()):\n item = self.recv_queue.get()\n self.transport.write(item)\n self.transport.close()\n isLoop = False\n timer = None\n \n if timer is not None:\n if time.time() - timer > time_out:\n self.transport.close()\n isLoop = False\n \n except Exception as e:\n print(f'com_server_protcol:{e}')\n \n def connection_lost(self, exc):\n self.transport.close()\n \n \n async def com_server(recv_queue, send_queue):\n loop = asyncio.get_running_loop()\n \n server = await loop.create_server(\n lambda: com_server_protcol(recv_queue, send_queue),\n srv_addr, srv_port)\n \n async with server:\n await server.serve_forever()\n \n \n def server_run(recv_queue, send_queue):\n asyncio.run(com_server(recv_queue, send_queue))\n \n \n```\n\n## com_client\n\n変更なしなので省略\n\n## app\n\n```\n\n from multiprocessing import freeze_support, set_start_method, Process\n from multiprocessing import Queue as MP_Queue\n \n import json\n import os\n import sys\n import time\n \n import com_server as com # nopep8\n from com_client import * # nopep8\n \n \n if __name__ == '__main__':\n freeze_support()\n set_start_method('spawn')\n \n recv_queue, send_queue = MP_Queue(), MP_Queue()\n \n instProcess = Process(\n name='ComServer',\n target=com.server_run,\n args=[\n send_queue, recv_queue\n ]\n )\n instProcess.start()\n \n def client_thread():\n time.sleep(3)\n \n interval = 0.05\n const = 1\n counter = 0\n rcnt = 0\n \n while (True):\n time.sleep(interval)\n \n counter += 1\n if int(counter) == int(const/interval):\n counter = 0\n rcnt += 1\n try:\n res = com.send_message(json.dumps({'GET': None}))\n except Exception as e:\n print(f'recv{rcnt}:{e}')\n if rcnt % 20 == 0:\n dt = datetime.datetime.now()\n print(dt, rcnt)\n return\n \n client_thread = Thread(name='com_server_thread', target=client_thread)\n client_thread.daemon = True\n client_thread.start()\n \n while (True):\n time.sleep(0.05)\n while (not recv_queue.empty()):\n item = recv_queue.get()\n send_queue.put(item)\n \n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T04:47:09.133",
"id": "91230",
"last_activity_date": "2022-09-22T04:47:09.133",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "32891",
"parent_id": "91049",
"post_type": "answer",
"score": 0
}
] | 91049 | 91230 | 91230 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "最近、C言語のフロチャートを自動生成するコマンドラインのツールを使い始めました。doxygenのcall\ngraphと同じレベルでdoxygen出力にフロチャートをリンクできる方法が無いでしょうか?このツールはフォーマット指定をすることで関数単位のフロチャートをsvg出力します。\n\n例えば、あるファイルのある関数のフロチャートをcall graphと同じように埋め込みhtml出力できればいいです。\n\nフロチャート自動生成ツールyFlowGen \n<https://www.vector.co.jp/soft/winnt/prog/se517238.html> \nまたは、 \n<https://github.com/toowaki/yFlowGen_jp/releases/tag/3.1.3>",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T06:20:51.307",
"favorite_count": 0,
"id": "91050",
"last_activity_date": "2022-09-15T10:36:24.533",
"last_edit_date": "2022-09-12T06:29:31.523",
"last_editor_user_id": "54353",
"owner_user_id": "54353",
"post_type": "question",
"score": 0,
"tags": [
"untagged"
],
"title": "Doxygenと外部ツールを連携したい",
"view_count": 241
} | [] | 91050 | null | null |
{
"accepted_answer_id": "91061",
"answer_count": 3,
"body": "Javaでは文字列をオブジェクトとして扱うため\"==\"で比較すると同じ文字列でも「同じオブジェクトではない」という理由で等しくないと判定されるため.equals()を使わなければいけない、ということは知ってるのですが、何らかの理由で.equals()ではなく\"==\"を使わなければいけない場面というのは存在するのでしょうか? \nJavaは現在\"var\"を導入するなど(簡略化する方向に)文法に大きく手を加えていますが、文字列を\"==\"でも正しく比較できるようにするということはやってないようです。 \n何か.equals()と\"==\"を使い分けなければいけない場面があるからそれができないのでしょうか。それとも単にその必要がないと考えてるだけなのでしょうか。 \nJavaの設計者でもない限りわからない問題かもしれませんがよろしくお願いします。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T06:29:52.327",
"favorite_count": 0,
"id": "91051",
"last_activity_date": "2022-09-12T10:58:02.070",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "816",
"post_type": "question",
"score": 2,
"tags": [
"java"
],
"title": "Javaで文字列を\"==\"で比較する必要がある場面は存在するのでしょうか?",
"view_count": 242
} | [
{
"body": "[c#](/questions/tagged/c%23 \"'c#' のタグが付いた質問を表示\") でいうと `String.Equals` と\n`Object.ReferenceEquals` の差ですよね。\n\nQ1. `String` に対して `==` を使わなければならない場面はあるか \nA1. そりゃもちろん、同じオブジェクトであるかの判定がしたい場合には `==` を使うことになります(実用的には極めてレアケースだと思う)\n\nQ2. `==` の挙動が `equals()` になるような言語仕様の変更がありうるか \nA2. 既存のソースコードの挙動が変わるような言語仕様自体の変更は `BREAKING CHANGE` (破壊的変更)\nと呼ばれますが、その言語のユーザー(まあ一般のプログラマのことですよね)はこれを好みませんし、言語仕様策定者も嫌がります(要するに別言語になるということだから)おそらく将来にわたってそんな変更は行われないでしょう。 \n# 言語仕様自体の不具合があってそれを修正するための破壊的変更はあり得る話だけど、今のこの件はそうは思えない。\n\n`var`\nを新設するとかは既存のソースコードを新しいコンパイラでコンパイルしても挙動が変わらないので、そういう非破壊的変更は結構積極的に行われます(新しいソースコードを古いコンパイラで使うことはできないわけですが)",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T07:30:15.353",
"id": "91052",
"last_activity_date": "2022-09-12T07:30:15.353",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "8589",
"parent_id": "91051",
"post_type": "answer",
"score": 5
},
{
"body": "> 何らかの理由で.equals()ではなく\"==\"を使わなければいけない場面というのは存在するのでしょうか?\n\n「.equals()ではなく\"==\"が必要とされる」状況は、まず存在しないと思います。Javaの仕様的には「文字列プール」に文字列が格納されているか否かの確認に、\"==\"比較が役立つ可能性はあります。詳細は[`String#intern()`メソッド](https://docs.oracle.com/javase/8/docs/api/java/lang/String.html#intern--)のリファレンスを参照ください。\n\n一方、主に処理速度性能の観点から「.equals()ではなく\"==\"を使う利点がある」場面は存在します。例えばOpenJDKの[`String#equals()`メソッド内部実装](https://hg.openjdk.java.net/jdk10/jdk10/jdk/file/777356696811/src/java.base/share/classes/java/lang/String.java#l1014)では、まず最初に`this\n== (比較対象)`を評価することで自己比較(または文字列プールに両者が格納済み)のケースで、1文字づつ比較するよりも高速な処理が行われます。\n\n```\n\n public boolean equals(Object anObject) {\n if (this == anObject) {\n return true;\n }\n if (anObject instanceof String) {\n String aString = (String)anObject;\n // 1文字づつ比較する処理\n }\n return false;\n }\n \n```\n\n* * *\n\n> Javaは現在\"var\"を導入するなど文法に大きく手を加えていますが、文字列を\"==\"でも正しく比較できるようにするということはやってないようです。\n\nJava言語仕様の破壊的変更については 774RR さんと同意見です。大量にある既存コード資産を破壊するリスクから「今更変えられない」に尽きると思います。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T08:36:03.130",
"id": "91055",
"last_activity_date": "2022-09-12T08:36:03.130",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "49",
"parent_id": "91051",
"post_type": "answer",
"score": 2
},
{
"body": "> 何らかの理由で.equals()ではなく\"==\"を使わなければいけない場面というのは存在するのでしょうか?\n\nパフォーマンス向上を目的として、文字列を\n[`String#intern()`](https://docs.oracle.com/javase/jp/17/docs/api/java.base/java/lang/String.html#intern\\(\\))\nして保持した上で比較に `==` を用いるようにする、という判断はあるかもしれません。 \n次の議論を参照してみてください:\n\n * [Is it good practice to use java.lang.String.intern()? - Stack Overflow](https://stackoverflow.com/q/1091045/4506703)\n\n> 何か.equals()と\"==\"を使い分けなければいけない場面があるからそれができないのでしょうか。\n\n`==` の挙動は `String` の都合で決まっているわけではありません。つまり、使い分けなければいけないかどうかで `==` と `equals()`\nの2つが存在するわけではありません。\n\n`==` の挙動は [Java\n言語仕様](https://docs.oracle.com/javase/specs/jls/se18/html/jls-15.html#jls-15.21.3)で定められたものです。 \nそれに対し、 `String#equals()` は [Java 標準ライブラリの API\n仕様](https://docs.oracle.com/javase/jp/17/docs/api/java.base/java/lang/String.html#equals\\(java.lang.Object\\))で定められたもので、レイヤーが異なります。\n\n`==` の仕様が先にあって、それで都合が悪いのであれば別の評価方法を実装する、という順序です。 \n(そうして実装されているのが `String#equals()` ということです)\n\n>\n> Javaは現在\"var\"を導入するなど(簡略化する方向に)文法に大きく手を加えていますが、文字列を\"==\"でも正しく比較できるようにするということはやってないようです。\n\n`==` 演算子で、あなたの言うところの\"正しく\"比較できるようにする、というのは [Project\nValhalla](https://openjdk.org/projects/valhalla/) の [`value`\nクラス](https://openjdk.org/jeps/8277163)として検討されています。 \nこれによって `==` 演算子の役割が拡張され、特定の条件を満たすクラスを `value`\nクラスとして作成することで\"正し\"い比較ができるようになろうかと思います。 \n(ただし、 `String` クラスは条件を満たしていない(しそもそも `value` として定義されていない)ので `String` オブジェクトが\n`==` で\"正し\"く評価できるようになるわけではないです。リンク先で例示されている `Substring`\nのように、文字列に関するユーザー作成クラスには役立つこともあろうかと思いますが。)\n\n> 単にその必要がないと考えてるだけなのでしょうか。\n\n`==` は既に定義されているので置き換えることは無理ですが、 `var` のように新しいキーワード、例えば `===` 演算子を導入して\n`equals()` のように振る舞う、とすることは可能でしょう。 \nこれが実現されてないのは、一言でいうとその通りで、必要がない、と考えられているからでしょう。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T10:58:02.070",
"id": "91061",
"last_activity_date": "2022-09-12T10:58:02.070",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "2808",
"parent_id": "91051",
"post_type": "answer",
"score": 1
}
] | 91051 | 91061 | 91052 |
{
"accepted_answer_id": "91059",
"answer_count": 1,
"body": "標題の通りです。 \nPowershellで以下のようなコードを組みました。 \n仮にソース名を`concatenate_args.ps1`とします。\n\n```\n\n function func1 {\n Param(\n $param1\n )\n \n Write-Host \"param1 is '$param1'\"\n }\n \n```\n\nこのソースを`. .\\concatenate_args.ps1`を実行して読み込み、 \n`func1 -param1 \"hoge\" + \"fuga\"`というコマンドを実行しましたが、 \n期待した動作になりませんでした。 \n期待動作:`param1 is hogefuga` \n実際の動作:`param1 is hoge`\n\nなぜこのような動作になるのか、 \nGoogle検索してもあまり有用な情報にたどり着けておりません。 \nご存じの方、どうかご教示をお願いいたします。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T07:51:34.543",
"favorite_count": 0,
"id": "91053",
"last_activity_date": "2022-09-12T09:10:34.517",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54357",
"post_type": "question",
"score": 1,
"tags": [
"powershell"
],
"title": "Powershell関数の引数に、\"+\"で2つの文字列を連結したものを渡そうとしても、先頭の文字列しか渡せない",
"view_count": 345
} | [
{
"body": "単純にパラメータ引数をスペース区切りで渡すと別々の引数として受け取る前提に即して動作しています。\n\n```\n\n > function func1 {\n >> Param(\n >> $param1\n >> )\n >> Write-Host \"param1 is '$param1'\" \n >> $Args # この行を追加\n >> }\n > func1 \"hoge\" + \"fuga\" \n param1 is 'hoge'\n +\n fuga\n \n```\n\n下記の例は上記と同様の結果ですが、少し視点が変わって分かりやすくなるでしょうか。\n\n```\n\n > echo + - * \"hoge\" \"fuga\" \n +\n -\n *\n hoge\n fuga\n \n```\n\n期待した動作にする方法はいくつもあります。\n\n```\n\n # $()で変数としてまとめる\n func1 $(\"hoge\" + \"fuga\")\n \n # 上記と同様\n func1 $(-join(\"hoge\", \"fuga\"))\n # 先に結合しておく\n $s = \"hoge\" + \"fuga\" \n func1 $s\n \n # \"ダブルクォーテーション文字列\"の変数展開(sub-expression expansion)\n $s1 = 'hoge'\n func1 \"${s1}fuga\" \n \n # 'シングルクォーテーション文字列'を無理やり拡張(ExecutionContext の ExpandString)\n $s2 = 'fuga'\n func1 $ExecutionContext.InvokeCommand.ExpandString('${s1}${s2}')\n \n```\n\n**参考資料**\n\n[How do I concatenate strings and variables in\nPowerShell?](https://stackoverflow.com/q/15113413) \n[ExecutionContext の ExpandString](https://docs.microsoft.com/ja-\njp/powershell/scripting/learn/deep-dives/everything-about-string-\nsubstitutions?view=powershell-7.2#executioncontext-expandstring) \n[Windows PowerShell Language Specification Version\n3.0](https://www.microsoft.com/en-\nus/download/details.aspx?id=36389)をダウンロードした資料の\"2.3.5.2 String literals\"",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T09:10:34.517",
"id": "91059",
"last_activity_date": "2022-09-12T09:10:34.517",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "9820",
"parent_id": "91053",
"post_type": "answer",
"score": 0
}
] | 91053 | 91059 | 91059 |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "Swiftで一枚の画像に対して指定した位置に文字を入力する方法が知りたいです。\n\n作りたいもののイメージとしてはオシャレな履歴書(可愛い画像に自分の名前や年齢、画像などの情報を入れる)になります。\n\n現在の状況として、そもそもこういった場合\n\n●1枚の画像を用意してそこに上からZStackなどを使って文字を載せる \n●背景色やサイズなどを指定して画像そのものをプログラミングするところから始める\n\nのどちらが良いかわかっていない初心者です。\n\n現状としては、1番目の『1枚の画像を用意してそこに上からZStackなどを使って文字を載せる』という方法で試行錯誤しています。\n\n今書いているコードの肝は\n\n```\n\n Zstack{\n Image(\"画像ファイル\")\n .resizable()\n .aspectRation(contentMode: .fit)\n \n Text(\"文字入力1\")\n .offset(x: -160, y: -80)\n Text(\"文字入力2\")\n .offset(x: -160, y: -35)\n }\n \n \n```\n\nという感じなのですが、この場合、画面上では自分の記入したい位置に文字が入力で来ている状態ですが、画面を横向きにしたり、使うiPhoneのサイズを変えると、画面座標での指定のため位置がズレてしまいます。\n\nなので、画像そのものの座標を指定する必要があるのかな、と思っているのですが検索しても上手く情報に辿り着けません。\n\nまた、取り込んでいる画像のサイズそのものは変更したくない(作り終わった後に元の画像のサイズを維持して保存したい)のですが、どういったフレームワークやコードを試す、あるいは検索すると良いでしょうか?\n\n教えていただけると嬉しいです。\n\nよろしくお願いします。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T07:52:26.183",
"favorite_count": 0,
"id": "91054",
"last_activity_date": "2022-10-07T07:20:13.323",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54356",
"post_type": "question",
"score": 1,
"tags": [
"swift"
],
"title": "Swiftで画像の指定した位置に文字を入力する方法について",
"view_count": 188
} | [
{
"body": "座標指定は難しいのでDragGestureでTextの位置を変更できるようにしてView自体を画像にしてみました。\n\n```\n\n import SwiftUI\n \n struct ContentView: View {\n @State var dragAmount: CGPoint?\n \n var editorImage: some View {\n Image(systemName: \"heart\")\n .resizable()\n .frame(width: 100, height: 100, alignment: .center)\n .overlay {\n Text(\"hello\")\n .position(self.dragAmount ?? .zero)\n .gesture( DragGesture().onChanged { self.dragAmount = $0.location } )\n }\n }\n \n var saveImage: some View {\n VStack {\n editorImage\n }\n .frame(width: 300, height: 300)\n }\n \n var body: some View {\n VStack {\n editorImage\n \n Button(\"SAVE\") {\n Task {\n let renderer = ImageRenderer(content: saveImage)\n \n if let image = renderer.cgImage {\n UIImageWriteToSavedPhotosAlbum(.init(cgImage: image), nil, nil, nil)\n }\n }\n }\n }\n }\n }\n \n```",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T13:06:20.663",
"id": "91084",
"last_activity_date": "2022-10-07T07:20:13.323",
"last_edit_date": "2022-10-07T07:20:13.323",
"last_editor_user_id": "40856",
"owner_user_id": "40856",
"parent_id": "91054",
"post_type": "answer",
"score": 1
}
] | 91054 | null | 91084 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "iOSアプリのApplePay決済に関する質問です。\n\nApplePay利用時に用いる「PKPaymentRequest」ですが、 \nこちらのオブジェクトをコンソールログ出力しようとするとログを差し込み、 \nアプリをデバッグビルドをしても、中々ログが出力されません。\n\n「PKPaymentRequestのセキュリティ上コンソールログに出力できない」ってありますか? \n何か制限があれば教えていただきたいです。また、その制限が記載されている場所も教えていただきたいです。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T09:09:06.287",
"favorite_count": 0,
"id": "91058",
"last_activity_date": "2022-09-12T11:28:25.273",
"last_edit_date": "2022-09-12T11:28:25.273",
"last_editor_user_id": "3060",
"owner_user_id": "54358",
"post_type": "question",
"score": 0,
"tags": [
"ios"
],
"title": "ApplePayのPKPaymentRequestオブジェクトのログが出力されない",
"view_count": 25
} | [] | 91058 | null | null |
{
"accepted_answer_id": "91064",
"answer_count": 1,
"body": "[【スパイダー — Scrapy 1.7.3 ドキュメント】](https://doc-ja-\nscrapy.readthedocs.io/ja/latest/topics/spiders.html)\n\npython初めて数ヶ月の初学者です。 \nクローラー・ウェブスクレイピングツールscrapyの公式ドキュメントを読んでいて、以下のような記述がありました。 \nこの`class scrapy.spiders.Spider`という記述は、それぞれ何を表すものなのでしょうか?\n\n`クラス(オブジェクト)名.メソッド名`などであればわかるのですが、これが意味する記載が内容がわかりません。 \n`パッケージ名.モジュール名.クラス名`でしょうか?\n\npythonにおける記述ルールの見落としていればご教授いただけると幸いです。 \n[](https://i.stack.imgur.com/QKj2W.png)",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T11:57:40.887",
"favorite_count": 0,
"id": "91062",
"last_activity_date": "2022-09-12T17:40:45.747",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "27812",
"post_type": "question",
"score": 0,
"tags": [
"python",
"web-scraping"
],
"title": "class scrapy.spiders.Spider は何を意味しているのか",
"view_count": 70
} | [
{
"body": "Pythonの説明文書を適用すると、それは`パッケージ名.サブモジュール名.クラス名`あるいは`パッケージ名.サブパッケージ名.クラス名`ですね。\n\nこの辺の記述が当てはまるでしょう。 \n[6\\. モジュール](https://docs.python.org/ja/3.10/tutorial/modules.html#modules)\n\n> Python では定義をファイルに書いておき、スクリプトの中やインタプリタの対話インスタンス上で使う方法があります。このファイルを モジュール\n> (module) と呼びます。\n\n> モジュールは Python の定義や文が入ったファイルです。ファイル名はモジュール名に接尾語`.py`がついたものになります。\n\n[6.4. パッケージ](https://docs.python.org/ja/3.10/tutorial/modules.html#packages)\n\n> パッケージ (package) は、Python のモジュール名前空間を \"ドット付きモジュール名\" を使って構造化する手段です。例えば、モジュール名\n> A.B は、`A`というパッケージのサブモジュール`B`を表します。\n\n上記では **サブモジュール** と書かれていますが、こちらのファイルツリー構造の説明では **Subpackage** と書かれています。 \nなお最初の階層は **Top-level package** と書かれています。\n\n>\n```\n\n> sound/ Top-level package\n> __init__.py Initialize the sound package\n> formats/ Subpackage for file format conversions\n> __init__.py\n> wavread.py\n> \n```\n\n...以下省略\n\n上記に紹介したPythonの説明文書ページの他の内容も色々と参考になるでしょう。\n\n* * *\n\nscrapyとしての詳細はこちらのGitHubリポジトリの階層分けやソースコード内容を見てください。 \n[scrapy/scrapy/](https://github.com/scrapy/scrapy/tree/master/scrapy)\n\n`Spider`クラスが定義されているのはこちらのファイルです。 \n[scrapy/scrapy/spiders/__init__.py](https://github.com/scrapy/scrapy/blob/master/scrapy/spiders/__init__.py)",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T17:40:45.747",
"id": "91064",
"last_activity_date": "2022-09-12T17:40:45.747",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "26370",
"parent_id": "91062",
"post_type": "answer",
"score": 1
}
] | 91062 | 91064 | 91064 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "ほぼ初心者のエンジニアです。 \n3年前に、別のエンジニアが構築したサービスの再立ち上げをやっています。 \nそのサービスは、webサービスで、バックエンドはphp Laravel、フロントはnuxt.jsで書かれており、 \nAWS環境に別のエンジニアが、laradockを使って、環境を構築してくれました。 \n(現在そのエンジニアに連絡が取れておらず、なんとかやろうとしています)\n\n新しい環境は、さくらVPSで、OSはCentOS8で、nginxでVirtual\nHost化してあり、ドメインを一つ登録した状態で別のサービスが動いていますが、それにもう一つドメインを追加して今回のサービスのための環境も構築しようとしています。 \nドメインは登録し終わり、とにかくサーバ上に置いた、index.phpは見られることを確認した状態です。\n\nそこに、\n\n * php Laravelのプロジェクトのディレクトリ\n * フロントのディレクトリ\n * laradockのディレクトリ \nを設置しました。これはAWS上で前のエンジニアが環境構築してくれた時と同じ形です。 \nここで、前のエンジニアが残してくれていた環境構築のためのざっくり覚書に沿って、dockerを立ち上げようとしたところ、下記コマンドでエラーが出てしまいました。\n\n```\n\n $ docker-compose up -d nginx redis mailhog workspace mysql elasticsearch\n \n```\n\nエラー内容\n\n```\n\n Step 61/183 : RUN if [ ${INSTALL_XDEBUG} = true ]; then apt-get install -y php${LARADOCK_PHP_VERSION}-xdebug && sed -i 's/^;//g' /etc/php/${LARADOCK_PHP_VERSION}/cli/conf.d/20-xdebug.ini && echo \"alias phpunit='php -dzend_extension=xdebug.so /var/www/vendor/bin/phpunit'\" >> ~/.bashrc ;fi\n ---> Running in 528bc8f69a5b\n Reading package lists...\n Building dependency tree...\n Reading state information...\n E: Unable to locate package php7.1-xdebug\n E: Couldn't find any package by glob 'php7.1-xdebug'\n E: Couldn't find any package by regex 'php7.1-xdebug'\n ERROR: Service 'workspace' failed to build: The command '/bin/sh -c if [ ${INSTALL_XDEBUG} = true ]; then apt-get install -y php${LARADOCK_PHP_VERSION}-xdebug && sed -i 's/^;//g' /etc/php/${LARADOCK_PHP_VERSION}/cli/conf.d/20-xdebug.ini && echo \"alias phpunit='php -dzend_extension=xdebug.so /var/www/vendor/bin/phpunit'\" >> ~/.bashrc ;fi' returned a non-zero code: 100\n \n```\n\nnginx redis mailhogまでは立ち上がるようですが、workspaceのところでコマンドエラーが出てしまいます。 \n`E: Unable to locate package php7.1-xdebug` というのは、適切なバージョンのphp-\nxdebugのパッケージが取れません、といったエラーかと思うので、xdebugを別途入れようとしてみましたが、全く同じパッケージは見つかりません。 \n一方で、今最新のxdebugは入れることができました。(同様の英語のstackoverflowを見て、php-pecl-\nxdebug3というパッケージをyum installしました) \n入れた後で、再度docker-compose upを試しましたが、変わりません。 \nphpinfo()で確認してみると、xdebugは入っています。\n\nこれは、別のパッケージを入れたりする必要があるのでしょうか。 \nそれとも、workspaceのdocker-compose.ymlの方をいじったりする必要がありますでしょうか。\n\nそもそも、過去に用意してもらっていたlaradockを使う必要はなく、別のdockerを用意したり、今置いているディレクトリ内にphpの同じバージョンなどをインストールしてlaravelの環境構築するべきかもしれないと思っています。\n\nまた、そもそもVPS内にnginxでドメイン振り分けをおこなっているのに、laradock内にさらにnginxのコンテナを立ち上げる必要があるかなども気になっています(別の質問も入れ込んでおりすみません)\n\n見当違いのこともとにかく色々あるかと思うのですが、何かしらのとっかかりをいただけると大変助かります。\n\n何卒どうぞよろしくお願いします!\n\n=====\n\n9.14 追記します docker-compose.yml \nおそらくlaradockというものに、そもそもついているymlで、この中から使うサービスだけ立ち上げるという形なのではないかと思います。ymlがものすごく大きくて貼り付けられないので、最初の\n`workspace` の部分のみ貼り付けます。\n\n```\n\n version: '3'\n \n networks:\n frontend:\n driver: ${NETWORKS_DRIVER}\n backend:\n driver: ${NETWORKS_DRIVER}\n \n volumes:\n mysql:\n driver: ${VOLUMES_DRIVER}\n percona:\n driver: ${VOLUMES_DRIVER}\n mssql:\n driver: ${VOLUMES_DRIVER}\n postgres:\n driver: ${VOLUMES_DRIVER}\n memcached:\n driver: ${VOLUMES_DRIVER}\n redis:\n driver: ${VOLUMES_DRIVER}\n neo4j:\n driver: ${VOLUMES_DRIVER}\n mariadb:\n driver: ${VOLUMES_DRIVER}\n mongo:\n driver: ${VOLUMES_DRIVER}\n minio:\n driver: ${VOLUMES_DRIVER}\n rethinkdb:\n driver: ${VOLUMES_DRIVER}\n phpmyadmin:\n driver: ${VOLUMES_DRIVER}\n adminer:\n driver: ${VOLUMES_DRIVER}\n aerospike:\n driver: ${VOLUMES_DRIVER}\n caddy:\n driver: ${VOLUMES_DRIVER}\n elasticsearch:\n driver: ${VOLUMES_DRIVER}\n \n services:\n \n ### Workspace Utilities ##################################\n workspace:\n build:\n context: ./workspace\n args:\n - LARADOCK_PHP_VERSION=${PHP_VERSION}\n - LARADOCK_PHALCON_VERSION=${PHALCON_VERSION}\n - INSTALL_SUBVERSION=${WORKSPACE_INSTALL_SUBVERSION}\n - INSTALL_XDEBUG=${WORKSPACE_INSTALL_XDEBUG}\n - INSTALL_PHPDBG=${WORKSPACE_INSTALL_PHPDBG}\n - INSTALL_BLACKFIRE=${INSTALL_BLACKFIRE}\n - INSTALL_SSH2=${WORKSPACE_INSTALL_SSH2}\n - INSTALL_GMP=${WORKSPACE_INSTALL_GMP}\n - INSTALL_SOAP=${WORKSPACE_INSTALL_SOAP}\n - INSTALL_LDAP=${WORKSPACE_INSTALL_LDAP}\n - INSTALL_IMAP=${WORKSPACE_INSTALL_IMAP}\n - INSTALL_MONGO=${WORKSPACE_INSTALL_MONGO}\n - INSTALL_AMQP=${WORKSPACE_INSTALL_AMQP}\n - INSTALL_PHPREDIS=${WORKSPACE_INSTALL_PHPREDIS}\n - INSTALL_MSSQL=${WORKSPACE_INSTALL_MSSQL}\n - INSTALL_NODE=${WORKSPACE_INSTALL_NODE}\n - NPM_REGISTRY=${WORKSPACE_NPM_REGISTRY}\n - INSTALL_YARN=${WORKSPACE_INSTALL_YARN}\n - INSTALL_NPM_GULP=${WORKSPACE_INSTALL_NPM_GULP}\n - INSTALL_NPM_BOWER=${WORKSPACE_INSTALL_NPM_BOWER}\n - INSTALL_NPM_VUE_CLI=${WORKSPACE_INSTALL_NPM_VUE_CLI}\n - INSTALL_DRUSH=${WORKSPACE_INSTALL_DRUSH}\n - INSTALL_DRUPAL_CONSOLE=${WORKSPACE_INSTALL_DRUPAL_CONSOLE}\n - INSTALL_AEROSPIKE=${WORKSPACE_INSTALL_AEROSPIKE}\n - AEROSPIKE_PHP_REPOSITORY=${AEROSPIKE_PHP_REPOSITORY}\n - INSTALL_V8JS=${WORKSPACE_INSTALL_V8JS}\n - COMPOSER_GLOBAL_INSTALL=${WORKSPACE_COMPOSER_GLOBAL_INSTALL}\n - COMPOSER_REPO_PACKAGIST=${WORKSPACE_COMPOSER_REPO_PACKAGIST}\n - INSTALL_WORKSPACE_SSH=${WORKSPACE_INSTALL_WORKSPACE_SSH}\n - INSTALL_LARAVEL_ENVOY=${WORKSPACE_INSTALL_LARAVEL_ENVOY}\n - INSTALL_LARAVEL_INSTALLER=${WORKSPACE_INSTALL_LARAVEL_INSTALLER}\n - INSTALL_DEPLOYER=${WORKSPACE_INSTALL_DEPLOYER}\n - INSTALL_PRESTISSIMO=${WORKSPACE_INSTALL_PRESTISSIMO}\n - INSTALL_LINUXBREW=${WORKSPACE_INSTALL_LINUXBREW}\n - INSTALL_MC=${WORKSPACE_INSTALL_MC}\n - INSTALL_SYMFONY=${WORKSPACE_INSTALL_SYMFONY}\n - INSTALL_PYTHON=${WORKSPACE_INSTALL_PYTHON}\n - INSTALL_IMAGE_OPTIMIZERS=${WORKSPACE_INSTALL_IMAGE_OPTIMIZERS}\n - INSTALL_IMAGEMAGICK=${WORKSPACE_INSTALL_IMAGEMAGICK}\n - INSTALL_TERRAFORM=${WORKSPACE_INSTALL_TERRAFORM}\n - INSTALL_DUSK_DEPS=${WORKSPACE_INSTALL_DUSK_DEPS}\n - INSTALL_PG_CLIENT=${WORKSPACE_INSTALL_PG_CLIENT}\n - INSTALL_PHALCON=${WORKSPACE_INSTALL_PHALCON}\n - INSTALL_SWOOLE=${WORKSPACE_INSTALL_SWOOLE}\n - INSTALL_LIBPNG=${WORKSPACE_INSTALL_LIBPNG}\n - INSTALL_IONCUBE=${WORKSPACE_INSTALL_IONCUBE}\n - INSTALL_MYSQL_CLIENT=${WORKSPACE_INSTALL_MYSQL_CLIENT}\n - PUID=${WORKSPACE_PUID}\n - PGID=${WORKSPACE_PGID}\n - CHROME_DRIVER_VERSION=${WORKSPACE_CHROME_DRIVER_VERSION}\n - NODE_VERSION=${WORKSPACE_NODE_VERSION}\n - YARN_VERSION=${WORKSPACE_YARN_VERSION}\n - DRUSH_VERSION=${WORKSPACE_DRUSH_VERSION}\n - TZ=${WORKSPACE_TIMEZONE}\n - BLACKFIRE_CLIENT_ID=${BLACKFIRE_CLIENT_ID}\n - BLACKFIRE_CLIENT_TOKEN=${BLACKFIRE_CLIENT_TOKEN}\n volumes:\n - ${APP_CODE_PATH_HOST}:${APP_CODE_PATH_CONTAINER}\n extra_hosts:\n - \"dockerhost:${DOCKER_HOST_IP}\"\n ports:\n - \"${WORKSPACE_SSH_PORT}:22\"\n tty: true\n environment:\n - PHP_IDE_CONFIG=${PHP_IDE_CONFIG}\n - DOCKER_HOST=tcp://docker-in-docker:2375\n networks:\n - frontend\n - backend\n links:\n - docker-in-docker\n \n ### PHP-FPM ##############################################\n php-fpm:\n build:\n context: ./php-fpm\n args:\n - LARADOCK_PHP_VERSION=${PHP_VERSION}\n - LARADOCK_PHALCON_VERSION=${PHALCON_VERSION}\n - INSTALL_XDEBUG=${PHP_FPM_INSTALL_XDEBUG}\n - INSTALL_PHPDBG=${PHP_FPM_INSTALL_PHPDBG}\n - INSTALL_BLACKFIRE=${INSTALL_BLACKFIRE}\n - INSTALL_SSH2=${PHP_FPM_INSTALL_SSH2}\n - INSTALL_SOAP=${PHP_FPM_INSTALL_SOAP}\n - INSTALL_IMAP=${PHP_FPM_INSTALL_IMAP}\n - INSTALL_MONGO=${PHP_FPM_INSTALL_MONGO}\n - INSTALL_AMQP=${PHP_FPM_INSTALL_AMQP}\n - INSTALL_MSSQL=${PHP_FPM_INSTALL_MSSQL}\n - INSTALL_ZIP_ARCHIVE=${PHP_FPM_INSTALL_ZIP_ARCHIVE}\n - INSTALL_BCMATH=${PHP_FPM_INSTALL_BCMATH}\n - INSTALL_GMP=${PHP_FPM_INSTALL_GMP}\n - INSTALL_PHPREDIS=${PHP_FPM_INSTALL_PHPREDIS}\n - INSTALL_MEMCACHED=${PHP_FPM_INSTALL_MEMCACHED}\n - INSTALL_OPCACHE=${PHP_FPM_INSTALL_OPCACHE}\n - INSTALL_EXIF=${PHP_FPM_INSTALL_EXIF}\n - INSTALL_AEROSPIKE=${PHP_FPM_INSTALL_AEROSPIKE}\n - AEROSPIKE_PHP_REPOSITORY=${AEROSPIKE_PHP_REPOSITORY}\n - INSTALL_MYSQLI=${PHP_FPM_INSTALL_MYSQLI}\n - INSTALL_PGSQL=${PHP_FPM_INSTALL_PGSQL}\n - INSTALL_PG_CLIENT=${PHP_FPM_INSTALL_PG_CLIENT}\n - INSTALL_INTL=${PHP_FPM_INSTALL_INTL}\n - INSTALL_GHOSTSCRIPT=${PHP_FPM_INSTALL_GHOSTSCRIPT}\n - INSTALL_LDAP=${PHP_FPM_INSTALL_LDAP}\n - INSTALL_PHALCON=${PHP_FPM_INSTALL_PHALCON}\n - INSTALL_SWOOLE=${PHP_FPM_INSTALL_SWOOLE}\n - INSTALL_IMAGE_OPTIMIZERS=${PHP_FPM_INSTALL_IMAGE_OPTIMIZERS}\n - INSTALL_IMAGEMAGICK=${PHP_FPM_INSTALL_IMAGEMAGICK}\n - INSTALL_CALENDAR=${PHP_FPM_INSTALL_CALENDAR}\n - INSTALL_FAKETIME=${PHP_FPM_INSTALL_FAKETIME}\n - INSTALL_IONCUBE=${PHP_FPM_INSTALL_IONCUBE}\n - INSTALL_YAML=${PHP_FPM_INSTALL_YAML}\n volumes:\n - ./php-fpm/php${PHP_VERSION}.ini:/usr/local/etc/php/php.ini\n - ${APP_CODE_PATH_HOST}:${APP_CODE_PATH_CONTAINER}\n expose:\n - \"9000\"\n extra_hosts:\n - \"dockerhost:${DOCKER_HOST_IP}\"\n environment:\n - PHP_IDE_CONFIG=${PHP_IDE_CONFIG}\n - DOCKER_HOST=tcp://docker-in-docker:2375\n - FAKETIME=${PHP_FPM_FAKETIME}\n depends_on:\n - workspace\n networks:\n - backend\n links:\n - docker-in-docker\n \n \n```\n\n2022.09.16追記 \n同様のスレッドを教えていただき、 `apt-get udate &&` を最初に追加するということを試してみましたが、同様のエラーが出てしまいました。 \n<https://github.com/laradock/laradock/issues/1847>\n\n```\n\n Step 61/183 : RUN if [ ${INSTALL_XDEBUG} = true ]; then apt-get update && apt-get install -y php${LARADOCK_PHP_VERSION}-xdebug && sed -i 's/^;//g' /etc/php/${LARADOCK_PHP_VERSION}/cli/conf.d/20-xdebug.ini && echo \"alias phpunit='php -dzend_extension=xdebug.so /var/www/vendor/bin/phpunit'\" >> ~/.bashrc ;fi\n ---> Running in ca2f4197e26c\n Get:1 http://security.ubuntu.com/ubuntu xenial-security InRelease [99.8 kB]\n Hit:2 http://ppa.launchpad.net/ondrej/php/ubuntu xenial InRelease\n Hit:3 http://archive.ubuntu.com/ubuntu xenial InRelease\n Get:4 http://archive.ubuntu.com/ubuntu xenial-updates InRelease [99.8 kB]\n Get:5 http://archive.ubuntu.com/ubuntu xenial-backports InRelease [97.4 kB]\n Fetched 297 kB in 2s (139 kB/s)\n Reading package lists...\n Reading package lists...\n Building dependency tree...\n Reading state information...\n E: Unable to locate package php7.1-xdebug\n E: Couldn't find any package by glob 'php7.1-xdebug'\n E: Couldn't find any package by regex 'php7.1-xdebug'\n ERROR: Service 'workspace' failed to build: The command '/bin/sh -c if [ ${INSTALL_XDEBUG} = true ]; then apt-get update && apt-get install -y php${LARADOCK_PHP_VERSION}-xdebug && sed -i 's/^;//g' /etc/php/${LARADOCK_PHP_VERSION}/cli/conf.d/20-xdebug.ini && echo \"alias phpunit='php -dzend_extension=xdebug.so /var/www/vendor/bin/phpunit'\" >> ~/.bashrc ;fi' returned a non-zero code: 100\n \n```",
"comment_count": 8,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T21:58:23.297",
"favorite_count": 0,
"id": "91065",
"last_activity_date": "2022-09-15T21:24:16.357",
"last_edit_date": "2022-09-15T21:24:16.357",
"last_editor_user_id": "54366",
"owner_user_id": "54366",
"post_type": "question",
"score": 0,
"tags": [
"laravel",
"docker-compose"
],
"title": "laradock環境で、docker-compose up時に、「E: Unable to locate package php7.1-xdebug」というエラーが出てしまう。",
"view_count": 234
} | [] | 91065 | null | null |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "Bashでのループ処理は、下記のように `do` と `done` で挟むと思うのですが、\n\n```\n\n #!/bin/bash\n for f in ./*\n do\n echo $f\n done\n \n```\n\n試しに、`{}` で囲んでも意図通りに動きました。\n\n```\n\n #!/bin/bash\n \n for f in ./*\n {\n echo $f\n }\n \n```\n\n**実行結果:**\n\n```\n\n $ ./scripts2.sh \n ./scripts.sh\n ./scripts2.sh\n \n```\n\n`{}` で囲んでも動いた理由がよくわからなかったのですが、こちらのコードが動く理由について教えていただけないでしょうか?",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T22:02:13.317",
"favorite_count": 0,
"id": "91066",
"last_activity_date": "2022-09-13T00:57:25.337",
"last_edit_date": "2022-09-13T00:57:25.337",
"last_editor_user_id": "3060",
"owner_user_id": "4260",
"post_type": "question",
"score": 7,
"tags": [
"bash"
],
"title": "bashでのループ処理は波括弧で囲んでも動く?",
"view_count": 154
} | [
{
"body": "実装経緯までは分かりませんでしたが、たしかに Bash の実装を見る限り `for` に限ってこの構文が許されていました:\n<https://git.savannah.gnu.org/cgit/bash.git/tree/parse.y?id=9439ce094c9aa7557a9d53ac7b412a23aa66e36b#n805>\n\n```\n\n for_command: FOR WORD newline_list DO compound_list DONE\n {\n $$ = make_for_command ($2, add_string_to_list (\"\\\"$@\\\"\", (WORD_LIST *)NULL), $5, word_lineno[word_top]);\n if (word_top > 0) word_top--;\n }\n | FOR WORD newline_list '{' compound_list '}'\n {\n $$ = make_for_command ($2, add_string_to_list (\"\\\"$@\\\"\", (WORD_LIST *)NULL), $5, word_lineno[word_top]);\n if (word_top > 0) word_top--;\n }\n (以下省略)\n \n```\n\n私の知る限り、この構文はドキュメントされていません。たとえば Bash のマニュアルには <https://www.gnu.org/savannah-\ncheckouts/gnu/bash/manual/bash.html#Looping-Constructs> に `for` の説明がありますが `do\n... done` 形式の構文のみが書かれています。\n\n英語版 Stack Overflow にもこの構文についての質問があり、この回答を書いている時点で存在する回答ではドキュメントは見つかっていませんでした:\n<https://stackoverflow.com/q/22619510/5989200>",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T23:21:08.850",
"id": "91068",
"last_activity_date": "2022-09-12T23:21:08.850",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "19110",
"parent_id": "91066",
"post_type": "answer",
"score": 7
}
] | 91066 | null | 91068 |
{
"accepted_answer_id": "91075",
"answer_count": 2,
"body": "Azureの下記サービスの使用を検討しています。\n\n * Azure SQL Database\n * Azure Storage\n\n上記のサービスが下記のセキュリティ評価を満たしているかご存知でしょうか? \n調べてみたのですが、情報がありませんでした。ユーザ様のセキュリティ要件に \n該当する内容ですので何卒ご回答をお願いします。\n\n**セキュリティ要件:**\n\n * データセンターがティア4以上\n * ISMSクラウドセキュリティ認証(ISO27001/ISO27017)規格を取得していること\n\n情報が記載されているサイトのURLを記載して頂ければ非常にありがたいです。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-12T13:57:03.967",
"favorite_count": 0,
"id": "91067",
"last_activity_date": "2022-09-13T05:08:48.117",
"last_edit_date": "2022-09-13T00:42:57.817",
"last_editor_user_id": "3060",
"owner_user_id": "54360",
"post_type": "question",
"score": 0,
"tags": [
"security",
"azure"
],
"title": "Azure製品がセキュリティ要件を満たしているのか知りたい",
"view_count": 120
} | [
{
"body": "関連しそうなドキュメントで見つかったものは以下になります。\n\n[Azure コンプライアンス ドキュメント](https://docs.microsoft.com/ja-jp/azure/compliance/)\n\n> ISO 27001, ISO 27017\n\n[Azure Storage のコンプライアンス認証](https://docs.microsoft.com/ja-\njp/azure/storage/common/storage-compliance-offerings)\n\n> ISO 27001\n\n[Azure の施設、建物、および物理上のセキュリティ](https://docs.microsoft.com/ja-\njp/azure/security/fundamentals/physical-security)",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T00:52:09.300",
"id": "91070",
"last_activity_date": "2022-09-13T00:52:09.300",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "3060",
"parent_id": "91067",
"post_type": "answer",
"score": 1
},
{
"body": "[監査レポート](https://servicetrust.microsoft.com/ViewPage/MSComplianceGuide)のISO\nReportsを参照すると、認証ごとのレポート、サービスごとの取得状況が確認できます。\n\n一方、Uptime Instituteによるデータセンタの認証(Tier 1/2/3/4)は、オフィシャルな取得状況は公開されていないようです。 \nAzureはデータセンタが具体的には非公表ということになっているせいですかね、分かりませんが。 \n[データセンターのセキュリティの概要](https://docs.microsoft.com/ja-\njp/compliance/assurance/assurance-datacenter-\nsecurity)といった情報から、要件を満たすか確認する必要があると考えます。",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T05:08:48.117",
"id": "91075",
"last_activity_date": "2022-09-13T05:08:48.117",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "2238",
"parent_id": "91067",
"post_type": "answer",
"score": 1
}
] | 91067 | 91075 | 91070 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "# 要旨\n\n## 現在やっていること\n\nWindowsのPowerShellで、ユーザーのクライアントソリューションを開発しています.特に問題なく動いているのですが、やはりユーザー側からクラウドベースに載せたい旨のリクエストがありました.クラウドのプラットフォームはLinuxになる見込みです.\n\n## 教えていただきたいこと\n\n現在のシェルスクリプトでは\n\n * Javaを起動しJavaベースのXSLTプロセッサを動かす.\n * Windowsアプリケーションの.exeを動かす\n\nを順に組み合わせていくつかのステップで行っています. \nここで、\n\n * 起動している側のプログラムの標準出力、エラー出力をリアルタイムで取得したい\n * エラーだったらそこで終了させるため、各ステップの戻り値を得たい\n\nの必要があるため、次のようなC#のコードをAdd-\nTypeして各ステップのプログラム起動の際に使用しています.Windowsだと.NETが標準でついてくるので(Visual\nStudioなしでも)C#のコンパイルと実行が可能です.\n\nこれをLinuxで行いたいのですが ①そもそもLinuxのPowerShellからでC#をコンパイル/実行可能であるか?\n②実行するにはどのような準備・設定が必要であるか?を教えていただきたいです.\n\nLinuxにおけるPowerShellとか、.NETのLinuxでのディストリビューションとか話だけは伺っていますが、何分にもすぐ試せる環境がありません.\n\n# 該当する.ps1の記述\n\n## メインの.ps1\n\n```\n\n Import-Module \"$($PSScriptRoot)/module\" -Variable 'procTools'\n Add-Type -TypeDefinition $procTools -Language CSharp\n \n```\n\n## module/module.psm1\n\n```\n\n # C# codes for executing process\n # Standard output & error output from process are captured by the handler and asynchronously outputted by Console.WriteLine.\n $procTools = @\"\n \n using System;\n using System.Diagnostics;\n \n namespace Proc.Tools\n {\n public static class exec\n {\n public static int runCommand(string executable, string args = \"\", string cwd = \"\", string verb = \"runas\") {\n \n //* Create your Process\n Process process = new Process();\n process.StartInfo.FileName = executable;\n process.StartInfo.UseShellExecute = false;\n process.StartInfo.CreateNoWindow = true;\n process.StartInfo.RedirectStandardOutput = true;\n process.StartInfo.RedirectStandardError = true;\n \n //* Optional process configuration\n if (!String.IsNullOrEmpty(args)) { process.StartInfo.Arguments = args; }\n if (!String.IsNullOrEmpty(cwd)) { process.StartInfo.WorkingDirectory = cwd; }\n if (!String.IsNullOrEmpty(verb)) { process.StartInfo.Verb = verb; }\n \n //* Set your output and error (asynchronous) handlers\n process.OutputDataReceived += new DataReceivedEventHandler(OutputHandler);\n process.ErrorDataReceived += new DataReceivedEventHandler(OutputHandler);\n \n //* Start process and handlers\n process.Start();\n process.BeginOutputReadLine();\n process.BeginErrorReadLine();\n process.WaitForExit();\n \n //* Return the commands exit code\n return process.ExitCode;\n }\n public static void OutputHandler(object sendingProcess, DataReceivedEventArgs outLine) {\n //* Do your stuff with the output (write to console/log/StringBuilder)\n Console.WriteLine(outLine.Data);\n }\n }\n }\n \"@\n \n```\n\n## Add-Typeしたクラスのメソッドの実行(例)\n\n```\n\n $ret = [Proc.Tools.exec]::runCommand($java_exec, $java_cmd_param);\n Write-Host 'XSLT processing return code:' $ret -ForegroundColor Magenta -BackgroundColor Black\n if ($ret -ne 0) {exit}\n \n```\n\n# その他要件\n\n## PowerShellのバージョン\n\n```\n\n PS D:\\My_Documents> $PSVersionTable.PSVersion\n \n Major Minor Patch PreReleaseLabel BuildLabel\n ----- ----- ----- --------------- ----------\n 7 2 6\n \n```\n\n## Windowsアプリケーションの.exe\n\nこのアプリケーションにはLinux版があるので、クラウドに移行した場合はそちらを使用します.\n\n以上 よろしくお願いいたします.\n\n# 追記\n\n## 想定される Linuxのディストリビューションとバージョン\n\n現時点ではまだクライアントソリューションの開発中です.お客さまからは特にLinuxのディストリビューション、バージョンなどは示されず、「クラウドのLinux稼働環境で」動かせるか?と打診されている状態です.残念ながらまだ大まかな話です.",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T03:20:05.010",
"favorite_count": 0,
"id": "91072",
"last_activity_date": "2022-09-13T07:27:22.070",
"last_edit_date": "2022-09-13T07:27:22.070",
"last_editor_user_id": "9503",
"owner_user_id": "9503",
"post_type": "question",
"score": 0,
"tags": [
"c#",
"linux",
"powershell"
],
"title": "PowerShellでAdd-TypeでC#のコードを指定しています.Linuxで動かすには?",
"view_count": 193
} | [] | 91072 | null | null |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "### 実現したいこと\n\nクロス集計表とグラフを含むExcelファイルから、グラフをpng形式で抜き出したいです。 \n※グラフは1シートに対して複数あるので個別に抜き出しを行いたい。\n\n### 課題\n\n・openpyxlでは1シートに複数のグラフがある場合、グラフのオブジェクト名を指定して取り込む必要がありそうだが、方法が見つけられていおりません。(ドキュメント見る限りなさそう)\n\n・xlwingsではExcelを開いてでしか実行できない、かつグラフ図を取り込む場合と取り込まない場合があり、その原因の特定ができておりません。\n\n### 具体的な質問\n\n・openpyxlライブラリで複数のグラフを指定して、PDF変換(poppler使用)→png形式で保存は可能でしょうか? \n・xlwingsではpng形式で保存できることは確認したが、できる場合できない場合が発生するので、回避方法はありますでしょうか? \n・上記以外に実現可能なexcel操作のライブラリはありますでしょうか?",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T05:04:40.923",
"favorite_count": 0,
"id": "91074",
"last_activity_date": "2022-09-13T06:22:21.803",
"last_edit_date": "2022-09-13T06:22:21.803",
"last_editor_user_id": "3060",
"owner_user_id": "54371",
"post_type": "question",
"score": 0,
"tags": [
"python",
"python3",
"excel"
],
"title": "Excelからグラフをpng形式で出力したい",
"view_count": 420
} | [] | 91074 | null | null |
{
"accepted_answer_id": "91079",
"answer_count": 2,
"body": "表題の通りなのですが、いつも常にgithub等にコミットしてコーディングするわけではないので、これを無効にしたいです。 \nただ普通に編集して保存したいのですが、どうしても気になってしまい集中できません。\n\n[](https://i.stack.imgur.com/HXhic.png)\n\n28という数字がかかれている所をこのプロジェクトでは無効にしたいです。 \n(というよりもforkなどで対応している為、正直いりません…)\n\n調べてみましたが、自分のサーチ力では解決できず皆様のお力をお借りしたいです…! \nよろしくお願いします!",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T07:23:46.143",
"favorite_count": 0,
"id": "91078",
"last_activity_date": "2022-09-13T08:25:00.877",
"last_edit_date": "2022-09-13T07:53:09.777",
"last_editor_user_id": "3060",
"owner_user_id": "54375",
"post_type": "question",
"score": 1,
"tags": [
"git",
"vscode",
"windows-10",
"rust"
],
"title": "RustをVSCodeで作成するときにソースコード管理を無効にしたい",
"view_count": 270
} | [
{
"body": "そもそも Git でのバージョン管理をしないのであれば, Cargo でプロジェクトをつくるときにそれを無効化することができます (デフォルトでは Git\nになります).\n\ncargo init を使っている場合は:\n\n```\n\n cargo init --vcs none\n \n```\n\ncargo new を使っている場合は:\n\n```\n\n cargo new --vcs none [project_name]\n \n```\n\nで可能です.",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T07:51:47.683",
"id": "91079",
"last_activity_date": "2022-09-13T07:51:47.683",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54377",
"parent_id": "91078",
"post_type": "answer",
"score": 3
},
{
"body": "VS Code側で特定のプロジェクトのバージョン管理をオフにするなら、以下のようにします。\n\n 1. プロジェクトのルートディレクトリー(`Cargo.toml`があるディレクトリー)に、`.vscode`というディレクトリーを作る\n 2. `.vscode`ディレクトリーに`settings.json`というファイルを作り、以下の内容を書く\n\n```\n\n {\n \"git.enabled\": false\n }\n \n```\n\nただ、そのプロジェクトでバージョン管理を全く行わないつもりなら、他の回答のように、CargoでプロジェクトをつくるときにGitでのバージョン管理を無効化する方が良さそうです。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T08:25:00.877",
"id": "91081",
"last_activity_date": "2022-09-13T08:25:00.877",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "14101",
"parent_id": "91078",
"post_type": "answer",
"score": 1
}
] | 91078 | 91079 | 91079 |
{
"accepted_answer_id": "91083",
"answer_count": 1,
"body": "**実現したいこと** \n・itmzファイルをPC(Windows)で開きたいです。\n\n**状況** \n調べたところ、itmzファイルに対応している(itmzを開けるアプリがある)のはiOSのみという情報があり、Windowsで開く方法が見当たりませんでした。\n\n**具体的な質問** \nWindowsでitmzファイルを開けるフリーソフト、または開く方法はありますでしょうか? \nお手数ですが、具体的なソフト名や開く手順を教えていただけますと幸いです。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T11:53:30.250",
"favorite_count": 0,
"id": "91082",
"last_activity_date": "2022-09-13T12:07:36.250",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54380",
"post_type": "question",
"score": 0,
"tags": [
"windows"
],
"title": "itmzファイルをWindowsで開きたい",
"view_count": 57
} | [
{
"body": "マインドマップツールの iThoughts 用のファイルであるなら、[Windows\n版](https://www.toketaware.com/ithoughts-win) も存在するようです。 \n(基本的には有償ツールのようですが、無料の試用版も用意されている模様)\n\n該当ファイルをどのように入手したのか分かりませんが、他のマインドマップツール向けのファイル形式と\n[エクスポート/インポートも可能](https://www.toketaware.com/ithoughts-faq-compatibility)\nなようなので、iOS 版が使える環境で Freemind 向け等の形式でエクスポートしてもらうのも一つの方法可と思います。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T12:07:36.250",
"id": "91083",
"last_activity_date": "2022-09-13T12:07:36.250",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "3060",
"parent_id": "91082",
"post_type": "answer",
"score": 0
}
] | 91082 | 91083 | 91083 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "以下のコードをgoogle colab pro+にて動かしているのですが \nsentence_vectors = model.encode(sentences) \nのところで\"使用可能な RAM をすべて使用した後で、セッションがクラッシュしました。\"\n\nどうすれば実行できるようになるのでしょうか?\n\nnega.csvは一列目に文章を格納しています(約10000)\n\n```\n\n !pip install -q transformers==4.7.0 fugashi ipadic\n \n```\n\n```\n\n from transformers import BertJapaneseTokenizer, BertModel\n import torch\n \n \n class SentenceBertJapanese:\n def __init__(self, model_name_or_path, device=None):\n self.tokenizer = BertJapaneseTokenizer.from_pretrained(model_name_or_path)\n self.model = BertModel.from_pretrained(model_name_or_path)\n self.model.eval()\n \n if device is None:\n device = \"cuda\" if torch.cuda.is_available() else \"cpu\"\n self.device = torch.device(device)\n self.model.to(device)\n \n def _mean_pooling(self, model_output, attention_mask):\n token_embeddings = model_output[0] #First element of model_output contains all token embeddings\n input_mask_expanded = attention_mask.unsqueeze(-1).expand(token_embeddings.size()).float()\n return torch.sum(token_embeddings * input_mask_expanded, 1) / torch.clamp(input_mask_expanded.sum(1), min=1e-9)\n \n \n def encode(self, sentences, batch_size=8):\n all_embeddings = []\n iterator = range(0, len(sentences), batch_size)\n for batch_idx in iterator:\n batch = sentences[batch_idx:batch_idx + batch_size]\n \n encoded_input = self.tokenizer.batch_encode_plus(batch, padding=\"longest\", \n truncation=True, return_tensors=\"pt\").to(self.device)\n model_output = self.model(**encoded_input)\n sentence_embeddings = self._mean_pooling(model_output, encoded_input[\"attention_mask\"]).to('cpu')\n \n all_embeddings.extend(sentence_embeddings)\n \n # return torch.stack(all_embeddings).numpy()\n return torch.stack(all_embeddings)\n \n```\n\n```\n\n model = SentenceBertJapanese(\"sonoisa/sentence-bert-base-ja-mean-tokens-v2\")\n \n```\n\n```\n\n import pandas as pd\n \n```\n\n```\n\n sentences = pd.read_csv('nega.csv').values.flatten().tolist()\n \n```\n\n```\n\n sentence_vectors = model.encode(sentences)\n \n```\n\n```\n\n import scipy.spatial\n \n queries =[]\n query_embeddings = model.encode(queries).numpy()\n \n closest_n = 5\n for query, query_embedding in zip(queries, query_embeddings):\n distances = scipy.spatial.distance.cdist([query_embedding], sentence_vectors, metric=\"cosine\")[0]\n \n results = zip(range(len(distances)), distances)\n results = sorted(results, key=lambda x: x[1])\n \n print(\"\\n\\n======================\\n\\n\")\n print(\"Query:\", query)\n print(\"\\nTop 5 most similar sentences in corpus:\")\n \n for idx, distance in results[0:closest_n]:\n print(sentences[idx].strip(), \"(Score: %.4f)\" % (distance / 2))\n \n```\n\n```\n\n from psutil import virtual_memory\n ram_gb = virtual_memory().total / 1e9\n print('Your runtime has {:.1f} gigabytes of available RAM\\n'.format(ram_gb))\n \n if ram_gb < 20:\n print('Not using a high-RAM runtime')\n else:\n print('You are using a high-RAM runtime!')\n \n```\n\n実行結果\n\n```\n\n Your runtime has 54.8 gigabytes of available RAM\n \n You are using a high-RAM runtime!\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T14:40:26.973",
"favorite_count": 0,
"id": "91085",
"last_activity_date": "2022-09-13T14:40:26.973",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54381",
"post_type": "question",
"score": 0,
"tags": [
"google-colaboratory"
],
"title": "Google colab pro+を使用しているがセッションがクラッシュしてしまう。",
"view_count": 205
} | [] | 91085 | null | null |
{
"accepted_answer_id": "91087",
"answer_count": 2,
"body": "和がkとなるようなn個の非負整数の順列を重複なく全列挙する方法が知りたいです.\n\nナイーブに実装しましたが`O(k^n)`,これより計算量が改善される解法は存在しますか.\n\n```\n\n # Python 3.10.5\n \n from itertools import product\n \n def sol(n, k):\n for perm in product(range(k+1), repeat=n):\n if sum(perm) == k:\n yield perm\n \n print(*sol(n=2, k=4))\n # (0, 4) (1, 3) (2, 2) (3, 1) (4, 0)\n print(*sol(n=3, k=3))\n # (0, 0, 3) (0, 1, 2) (0, 2, 1) (0, 3, 0) (1, 0, 2) (1, 1, 1) (1, 2, 0) (2, 0, 1) (2, 1, 0) (3, 0, 0)\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T14:41:48.447",
"favorite_count": 0,
"id": "91086",
"last_activity_date": "2022-09-13T18:19:31.520",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "51374",
"post_type": "question",
"score": 1,
"tags": [
"アルゴリズム"
],
"title": "和がkとなるようなn個の非負整数の順列を全列挙する",
"view_count": 180
} | [
{
"body": "数値の分割位置の組み合わせで考えればよさそうです。\n\nk個の「〇」が並べてあって、「〇」の間に間仕切り「|」を(n-1)個入れて分割することを考えます。 \n例えば、k=n=3の場合は、以下のようになります。\n\n||〇〇〇 = (0,0,3) \n|〇|〇〇 = (0,1,2) \n... \n〇〇〇|| = (3,0,0)\n\nさて、間仕切りを配置できる箇所は、「〇」の間と前後で(k+1)箇所あります。 \n間仕切りは、同じ場所に複数配置できるので、重複組み合わせを使えばパターンを網羅できます。 \n重複組み合わせは、Pythonだと`itertools`の`combinations_with_replacement`で生成できます。 \nあとは、間仕切りの配置場所から、数値の組み合わせへの変換を行えば、目的の順列の全列挙ができます。\n\n```\n\n from itertools import combinations_with_replacement, pairwise\n \n def sol(n, k):\n for c in combinations_with_replacement(range(k + 1), n - 1):\n yield tuple(b - a for a, b in pairwise((0, *c, k)))\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T15:48:17.613",
"id": "91087",
"last_activity_date": "2022-09-13T18:19:31.520",
"last_edit_date": "2022-09-13T18:19:31.520",
"last_editor_user_id": "43506",
"owner_user_id": "43506",
"parent_id": "91086",
"post_type": "answer",
"score": 2
},
{
"body": "若干計算量が改善された解法を共有します.\n\n```\n\n # Python 3.10.5\n \n from itertools import product\n \n def sol(n, k):\n for perm in product(range(k+1), repeat=n-1):\n if (x := sum(perm)) <= k:\n yield *perm, k-x\n \n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T17:04:50.257",
"id": "91091",
"last_activity_date": "2022-09-13T17:04:50.257",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "51374",
"parent_id": "91086",
"post_type": "answer",
"score": 0
}
] | 91086 | 91087 | 91087 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "関数型のviewにて複数のmodelを取り出す方法を教えていただきたいです。 \n検索したところ、クラスベースviewでのやり方しかでてこないので教えてほしいです。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-13T16:28:16.737",
"favorite_count": 0,
"id": "91089",
"last_activity_date": "2022-09-13T16:28:16.737",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "41131",
"post_type": "question",
"score": 0,
"tags": [
"python",
"django"
],
"title": "Djangoの関数viewにて複数のmodelを取り出す方法",
"view_count": 90
} | [] | 91089 | null | null |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "現在、linux(Rocky\nlinux8)のログを監視し、メールを送信するようなスクリプトを作成しているのですが、追加パッケージをインストールできない制約があり、どうにかデフォルトで入っているPostfixとsendmailコマンドを利用して、メールを送信したいと思っています。また、メールを送信する際は、外部のSMTPサーバをSMTP-\nAUTHを使いたいです。\n\nいろいろと検証してみたところ、最終的にSMTP-AUTHを利用する関係で、 \n「cyrus-sasl-plain」が必要となってしまいました。 \n※上記インストールするとメールは送信できることを確認済\n\n「cyrus-sasl-plain」も使わずにSMTP-AUTHでメールが送れるような設定方法はないでしょうか。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T01:30:16.147",
"favorite_count": 0,
"id": "91092",
"last_activity_date": "2022-09-14T02:07:17.137",
"last_edit_date": "2022-09-14T02:07:17.137",
"last_editor_user_id": "3060",
"owner_user_id": "51153",
"post_type": "question",
"score": 0,
"tags": [
"linux",
"postfix",
"sendmail"
],
"title": "cyrus-sasl-plain をインストールせずに SMTP-AUTH を使ったメール送信を行うには?",
"view_count": 101
} | [] | 91092 | null | null |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "チームメンバーがコピーできるように、スニペット集をまとめたコンポーネントを作成しています \n下記のコードのようにスロット利用時にそのoutrerHtmlまたはinnerHTMLの改行が削除されてしまいます \njs的にはインデントや改行は不要なので、仮想DOMへのコンパイル時に削除されるのは理解できます \nしかし私は、このインデントや改行をのこしたオリジナルのスロットの内容を表示したいのです\n\n```\n\n <div id=\"app\">\n <component>\n <section class=\"card\">\n <img class=\"card-img\" src=\"https://dummyimage.com/600x400/000/fff\" alt=\"\">\n <div class=\"card-content\">\n <h1 class=\"card-title\">Title</h1>\n <p class=\"card-text\">Lorem ipsum dolor sit amet,</p>\n </div>\n <div class=\"card-link\">\n <a href=\"#\">Link1</a>\n <a href=\"#\">Link2</a>\n </div>\n </section>\n </component>\n </div>\n \n \n <script type=\"text/x-template\" id=\"component\">\n <div class=\"component\">\n <div style=\"display: none;\"><slot></slot></div>\n <div class=\"slot\" v-html=\"code\"></div>\n <pre class=\"highlight\"><button @click=\"copy\" class=\"btn-copy\">COPY</button><code v-html=\"highlightedCode\"></code></pre>\n </div>\n </script>\n \n \n \n <script>\n const app = Vue.createApp({})\n app.component('component', {\n template: '#component',\n })\n app.mount('#app')\n </script>\n \n```\n\nこのコードは下記のようになってしまいます\n\n```\n\n <section class=\"card\"><img class=\"card-img\" src=\"https://dummyimage.com/600x400/000/fff\" alt=\"\"><div class=\"card-content\"><h1 class=\"card-title\">Title</h1><p class=\"card-text\">Lorem ipsum dolor sit amet,</p></div><div class=\"card-link\"><a href=\"#\">Link1</a><a href=\"#\">Link2</a></div></section>\n \n```\n\n※このサンプルコードでは必要な部分を切り出しています \nそのためこのサンプルコードではslotの利用する必要がないですが、末尾に記載しているCodePenに実際のコードがあります\n\n私が期待している結果は下記です\n\n```\n\n <section class=\"card\">\n <img class=\"card-img\" src=\"https://dummyimage.com/600x400/000/fff\" alt=\"\">\n <div class=\"card-content\">\n <h1 class=\"card-title\">Title</h1>\n <p class=\"card-text\">Lorem ipsum dolor sit amet,</p>\n </div>\n <div class=\"card-link\">\n <a href=\"#\">Link1</a>\n <a href=\"#\">Link2</a>\n </div>\n </section>\n \n```\n\nこの問題を解決するためにpreタグをコンポーネント内に入れてました\n\n```\n\n <component><pre>\n <section class=\"card\">\n ~~~~ foo bar ~~~~\n </section>\n </pre></component>\n \n```\n\nこれは期待通り動作しましたがは冗長です \nこのpreタグをなしに、インデントや改行を表示する方法はありますでしょうか?\n\nCode \n▼preタグなし \n<https://codepen.io/jevouslue/pen/zYjqqZq>\n\n▼preタグ有り \n<https://codepen.io/jevouslue/pen/VwxaLxQ>\n\n是非ご回答よろしくおねがいします!",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T02:06:35.213",
"favorite_count": 0,
"id": "91093",
"last_activity_date": "2022-09-14T02:08:33.733",
"last_edit_date": "2022-09-14T02:08:33.733",
"last_editor_user_id": "3060",
"owner_user_id": "5848",
"post_type": "question",
"score": 0,
"tags": [
"vue.js"
],
"title": "slot利用時、改行が削除されてしまう",
"view_count": 43
} | [] | 91093 | null | null |
{
"accepted_answer_id": "91126",
"answer_count": 1,
"body": "SPRESENSE arduino IDEにて、テストプログラムのrecorder wavを元に \nパラメータを48kHz/4ch/16bit/wavとして録音試験を行っています。 \nch1のみマイクを接続して、30分程度の録音を行っていますが \n途中でch1の信号がch3に移動してしまう事象が頻繁に発生します。 \nこのような事象の対策は何か考えられるでしょうか。\n\n[](https://i.stack.imgur.com/MLCia.png)",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T02:47:56.510",
"favorite_count": 0,
"id": "91094",
"last_activity_date": "2022-09-16T01:16:38.593",
"last_edit_date": "2022-09-14T05:35:03.690",
"last_editor_user_id": "3060",
"owner_user_id": "36346",
"post_type": "question",
"score": 0,
"tags": [
"spresense"
],
"title": "spresenseで4ch録音時、信号が別のチャンネルに移動してしまう",
"view_count": 95
} | [
{
"body": "どのような形で録音されているのかわからないですが、wavファイルは音声データはch0,ch1,ch2,ch3という形でインターリーブされて記録されます。 \nですので、何らかの形でデータが欠落やずれを起こす場合、この図のようにずれることは自分も確認したことがあります。\n\nまた、wavヘッダの書き込みなどを間違えるとずれるという投稿もあります。\n\n[spresense JP10/Ach\nマイク未接続時に録音するとホワイトノイズ系のノイズが乗ってしまう](https://ja.stackoverflow.com/questions/89416/spresense-\njp10-ach-%e3%83%9e%e3%82%a4%e3%82%af%e6%9c%aa%e6%8e%a5%e7%b6%9a%e6%99%82%e3%81%ab%e9%8c%b2%e9%9f%b3%e3%81%99%e3%82%8b%e3%81%a8%e3%83%9b%e3%83%af%e3%82%a4%e3%83%88%e3%83%8e%e3%82%a4%e3%82%ba%e7%b3%bb%e3%81%ae%e3%83%8e%e3%82%a4%e3%82%ba%e3%81%8c%e4%b9%97%e3%81%a3%e3%81%a6%e3%81%97%e3%81%be%e3%81%86)\n\n御参考になれば。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-16T01:16:38.593",
"id": "91126",
"last_activity_date": "2022-09-16T01:16:38.593",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "32281",
"parent_id": "91094",
"post_type": "answer",
"score": 0
}
] | 91094 | 91126 | 91126 |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "環境はcolabを使っています。 \npytorch自然言語処理プログラミングという本で勉強しているのですがエラーが出て解決できません。outputとyのバッチサイズが違うということだと思うのですがどちらも97で揃っていると思います。またどうして1183回目までは問題なかったのに1184回目でエラーが起きるのでしょうか。丸一日考えましたが訳がわかりません。どうかご回答よろしくお願いいたします。\n\n```\n\n class MyLSTM(nn.Module):\n def __init__(self, vocsize, posn, hdim):\n super(MyLSTM, self).__init__()\n self.emdb = nn.Embedding(vocsize, hdim)\n self.lstm = nn.LSTM(hdim, hdim, batch_first=True)\n self.ln = nn.Linear(hdim, posn)\n def forward(self, x):\n ex = self.emdb(x)\n lo = self.lstm(ex)\n lo = lo[0]\n out = self.ln(lo)\n return out\n \n net = MyLSTM(len(dic)+1, len(labels),100)#len(dic)+1で+1がないとエラーになる\n optimizer = optim.SGD(net.parameters(), lr=0.01)\n criterion = nn.CrossEntropyLoss()\n \n for ep in range(10):\n loss1k = 0.0\n for i in range(len(xdata)):\n x = [xdata[i]]\n x = torch.LongTensor(xdata[i]).to(device)\n output = net(x)\n print(f'{ep} {i}')\n y = torch.LongTensor(ydata[i]).to(device)\n loss = criterion(output,y)\n print(output.shape)\n print(y.shape)\n if (i % 1000 == 0):\n print(i,loss1k)\n loss1k = loss.item()\n else:\n loss1k += loss.item()\n optimizer.zero_grad()\n loss.backward()\n optimizer.step()\n outfile = 'lstm0-' + str(ep) + '.model'\n torch.save(net.state_dict(),outfile)\n \n```\n\n出力\n\n```\n\n 0 0\n torch.Size([25, 16])\n torch.Size([25])\n 0 0.0\n 0 1\n torch.Size([50, 16])\n torch.Size([50])\n ----------省略-------------\n torch.Size([19, 16])\n torch.Size([19])\n 0 1181\n torch.Size([28, 16])\n torch.Size([28])\n 0 1182\n torch.Size([16, 16])\n torch.Size([16])\n 0 1183\n torch.Size([97, 16])\n torch.Size([97])\n 0 1184\n ---------------------------------------------------------------------------\n ValueError Traceback (most recent call last)\n <ipython-input-22-955d5dbf2b55> in <module>\n 9 print(f'{ep} {i}')\n 10 y = torch.LongTensor(ydata[i]).to(device)\n ---> 11 loss = criterion(output,y)\n 12 print(output.shape)\n 13 print(y.shape)\n \n ------------------------------ 2 frames -------------------------------------------------------------------------------------------------\n /usr/local/lib/python3.7/dist-packages/torch/nn/functional.py in cross_entropy(input, target, weight, size_average, ignore_index, reduce, label_smoothing)\n 3012 if size_average is not None or reduce is not None:\n 3013 reduction = _Reduction.legacy_get_string(size_average, reduce)\n -> 3014 return torch._C._nn.cross_entropy_loss(input, target, weight, _Reduction.get_enum(reduction), ignore_index, label_smoothing)\n 3015\n 3016\n \n ValueError: Expected input batch_size (67) to match target batch_size (16).\n \n```\n\n \n \n",
"comment_count": 4,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T03:56:52.207",
"favorite_count": 0,
"id": "91095",
"last_activity_date": "2023-01-22T05:28:07.133",
"last_edit_date": "2022-09-15T10:08:32.920",
"last_editor_user_id": "26370",
"owner_user_id": "54387",
"post_type": "question",
"score": 0,
"tags": [
"python",
"機械学習",
"深層学習",
"google-colaboratory"
],
"title": "Expected input batch_size (67) to match target batch_size (16)のエラーを直したい",
"view_count": 155
} | [
{
"body": "時間も経過しており解決済みかもしれませんが御参考です。 \n[PyTorch自然言語処理プログラミング ](https://book.impress.co.jp/books/1119101184) の\nZIPファイルを `data_nlp` ディレクトリに展開(解凍)して,Google Colab(GPU使用,Python 3.8.10, torch\n1.13.1+cu116) で下記を実行しましたがエラーは生じませんでした。 \nこのことから,解析するデータに瑕疵がある可能性もあります。とりあえず,`print(output.shape)` と `print(y.shape)` を\n`loss = criterion(output,y)` の前に移動してから実行しエラー出力を確認ください。\n\n```\n\n import torch\n from torch import nn\n from torch import optim\n import pickle\n \n device = torch.device(\"cuda:0\" if torch.cuda.is_available() else \"cpu\")\n \n with open('data_nlp/Chapter3/LSTM/dic.pkl','rb') as f:\n dic = pickle.load(f)\n \n labels = {'名詞': 0, '助詞': 1, '形容詞': 2,\n '助動詞': 3, '補助記号': 4, '動詞': 5, '代名詞': 6,\n '接尾辞': 7, '副詞': 8, '形状詞': 9, '記号': 10,\n '連体詞': 11, '接頭辞': 12, '接続詞': 13,\n '感動詞': 14, '空白': 15}\n \n with open('data_nlp/Chapter3/LSTM/xtrain.pkl','rb') as f:\n xdata = pickle.load(f)\n \n with open('data_nlp/Chapter3/LSTM/ytrain.pkl','rb') as f:\n ydata = pickle.load(f)\n \n \n class MyLSTM(nn.Module):\n def __init__(self, vocsize, posn, hdim):\n super(MyLSTM, self).__init__()\n self.emdb = nn.Embedding(vocsize, hdim)\n self.lstm = nn.LSTM(hdim, hdim, batch_first=True)\n self.ln = nn.Linear(hdim, posn)\n \n def forward(self, x):\n ex = self.emdb(x)\n lo = self.lstm(ex)\n lo = lo[0]\n out = self.ln(lo)\n return out\n \n \n # net = MyLSTM(len(dic)+1, len(labels), 100) # len(dic)+1で+1がないとエラーになる\n net = MyLSTM(len(dic)+1, len(labels), 100).to(device)\n optimizer = optim.SGD(net.parameters(), lr=0.01)\n criterion = nn.CrossEntropyLoss()\n \n for ep in range(1): # 10 -> 1\n loss1k = 0.0\n for i in range(len(xdata)):\n x = [xdata[i]]\n x = torch.LongTensor(xdata[i]).to(device)\n output = net(x)\n # print(f'{ep} {i}')\n y = torch.LongTensor(ydata[i]).to(device)\n loss = criterion(output, y)\n # print(output.shape)\n # print(y.shape)\n if (i % 1000 == 0):\n print(i, loss1k)\n loss1k = loss.item()\n else:\n loss1k += loss.item()\n optimizer.zero_grad()\n loss.backward()\n optimizer.step()\n outfile = 'lstm0-' + str(ep) + '.model'\n torch.save(net.state_dict(), outfile)\n \n```\n\n```\n\n 0 0.0\n 1000 2156.185638189316\n 2000 1557.127596437931\n 3000 1287.3680111765862\n ...\n 47000 376.6789101790637\n 48000 383.22723182849586\n 49000 350.0370232462883\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2023-01-22T05:28:07.133",
"id": "93501",
"last_activity_date": "2023-01-22T05:28:07.133",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54588",
"parent_id": "91095",
"post_type": "answer",
"score": 0
}
] | 91095 | null | 93501 |
{
"accepted_answer_id": null,
"answer_count": 2,
"body": "Pythonを使用して、ファイル名が規定通りかを確認するプログラムを作成しています。 \nファイル名が規定通りかを確認するにあたり正規表現を使用しています。 \n\"$\"や\"-\"は、エスケープ文字(`\\`)を付けることで正規表現のパターン指定ができました。 \nシングルクォーテーションについては、どのように指定したらよいのでしょうか?\n\n作成したプログラム\n\n```\n\n import re\n strFileName = \"Check'XXX.tar.gz\"\n \n Reg = re.compile(r'^[a-zA-Z0-9\\$-\\.]+$')\n \n p = Reg.match(strFileName)\n if(p is None):\n print(\"False\")\n else :\n print(\"True\")\n \n```",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T05:13:41.387",
"favorite_count": 0,
"id": "91097",
"last_activity_date": "2022-09-14T05:52:59.127",
"last_edit_date": "2022-09-14T05:26:07.040",
"last_editor_user_id": "3060",
"owner_user_id": "54246",
"post_type": "question",
"score": 0,
"tags": [
"python",
"python3",
"正規表現"
],
"title": "Python の正規表現で ' (シングルクォート) が含まれているかどうかを確認する方法",
"view_count": 1016
} | [
{
"body": "(正規表現として) `'` に特別な意味は無いはずなので、そのまま入力するだけだと思います。\n\nパターンの指定時に `compile(r'...')` 内のシングルクォートと区別がつかない (うまく動かない)\nのであれば、ダブルクォートに変えてみてください。\n\n```\n\n compile(r\"^[a-zA-Z0-9\\$-\\.']+$\")\n \n```\n\n余談として、`$` が特別な意味を持つのはパターンの行末に出てきた時のみです。`[ ]` 内ではエスケープ不要だと思います。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T05:32:17.300",
"id": "91098",
"last_activity_date": "2022-09-14T05:32:17.300",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "3060",
"parent_id": "91097",
"post_type": "answer",
"score": 0
},
{
"body": "シングルクォーテーションを正規表現で扱う場合、エスケープは不要です。 \nただしpythonは文字列全体を`'シングルクォーテーション'`でくくっている時は`\\'`のようにエスケープが必要です。\n\nそれは前提知識として、\n\n> \"$\"や\"-\"は、エスケープ文字()を付けることで正規表現のパターン指定ができました。\n\nご質問のプログラムでは-がエスケープされていません。 \nこの場合、文字コード上で`$`と`.`の間にある`'`も正規表現の範囲に含まれてしまいますが、それが原因ではないでしょうか。\n\n**サンプルコード**\n\n```\n\n import re\n strFileName = \"Check'XXX.tar.gz\" \n \n if re.match(r'^[a-zA-Z0-9\\$-\\.]+$', strFileName):\n print(\"$-.($から.まで)を指定してるので'シングルクォーテーション'も範囲内\")\n \n if re.match(r'^[a-zA-Z0-9\\$\\-\\.]+$', strFileName):\n print(\"$と-と.のみ指定してるので'シングルクォーテーション'は範囲外\")\n \n if re.match(r\"^[a-zA-Z0-9\\$\\-\\.']+$\", strFileName): # 文字列全体を\"ダブルクォーテーション\"でくくっている時は単純に'シングルクォーテーション'でOK\n print(\"$と-と.と'を指定してるので'シングルクォーテーション'は範囲内\")\n \n if re.match(r'^[a-zA-Z0-9\\$\\-\\.\\']+$', strFileName): # 文字列全体を'シングルクォーテーション'でくくっている時は\\'シングルクォーテーション\\'でエスケープ\n print(\"$と-と.と'を指定してるので'シングルクォーテーション'は範囲内(ひとつ上の構文と同一の構文)\")\n \n```\n\n**実行結果**\n\n```\n\n $-.($から.まで)を指定してるので'シングルクォーテーション'も範囲内\n $と-と.と'を指定してるので'シングルクォーテーション'は範囲内\n $と-と.と'を指定してるので'シングルクォーテーション'は範囲内(ひとつ上の構文と同一の構文)\n \n```",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T05:52:59.127",
"id": "91099",
"last_activity_date": "2022-09-14T05:52:59.127",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "9820",
"parent_id": "91097",
"post_type": "answer",
"score": 1
}
] | 91097 | null | 91099 |
{
"accepted_answer_id": "91145",
"answer_count": 1,
"body": "Taro\nYoshinoさんのGithubで公開されているライブラリィを利用して、静止画を繰り返し撮影して動画ファイルに変換してSDカードに保存するスケッチを試してみました。 \nQVGAサイズで、5fpsしか速度が出ませんでした。 \n以前、SPRESENSE勉強会#1で、アドバイスのあった1frame撮影前後でのカメラのStart/Stopを止めても、変わりませんでした。他に、高速化する方法はありますか?",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T05:55:24.160",
"favorite_count": 0,
"id": "91100",
"last_activity_date": "2022-09-17T13:30:12.157",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54390",
"post_type": "question",
"score": 0,
"tags": [
"spresense"
],
"title": "動画撮影の高速化",
"view_count": 205
} | [
{
"body": "ライブラリをご使用いただきありがとうございます。フレームレートとは関係ないのですが、バグを見つけてしまいましたので改めてダウンロードしてご使用ください。(AVIヘッダーの更新に問題がありました)\n\n<https://github.com/YoshinoTaro/AviLibrary_Arduino>\n\nさて、フレームレートが出ない件ですが、一つの原因として、774RRさんのご指摘の通り、SDカードの速度が遅いことが考えられます。少なくとも物理フォーマットした直後のSDカードで試してみてください。\n\nあと、サンプルのコードですがタイムラプスで使用することを想定していたため、あまりフレームレートは出ません。SPRESENSEのカメラはストリーミング機能があるので、そちらを活用すれば、20フレーム以上は出ると思います。サンプルのコードを以下に示します。\n\n```\n\n #include <Camera.h>\n #include <SDHCI.h>\n #include \"AviLibrary.h\"\n \n SDClass theSD;\n File aviFile;\n \n AviLibrary theAvi;\n \n String filename = \"movie.avi\";\n \n void CamCB(CamImage img) {\n const static uint32_t recording_time_in_ms = 10000; /* msec */\n static uint32_t start_time = millis();\n \n if (img.isAvailable()) {\n uint32_t duration = millis() - start_time;\n if (duration > recording_time_in_ms) {\n theAvi.endRecording();\n theAvi.end();\n Serial.println(\"Movie saved\");\n Serial.println(\" Movie width: \" + String(theAvi.getWidth()));\n Serial.println(\" Movie height: \" + String(theAvi.getHeight()));\n Serial.println(\" File size (kB): \" + String(theAvi.getFileSize()));\n Serial.println(\" Captured Frame: \" + String(theAvi.getTotalFrame())); \n Serial.println(\" Duration (sec): \" + String(theAvi.getDuration()));\n Serial.println(\" Frame per sec : \" + String(theAvi.getFps()));\n Serial.println(\" Max data rate : \" + String(theAvi.getMaxDataRate()));\n theCamera.end();\n while (true) {\n digitalWrite(LED0, HIGH);\n delay(100);\n digitalWrite(LED0, LOW);\n delay(100);\n }\n } else { \n theAvi.addFrame(img.getImgBuff(), img.getImgSize());\n }\n }\n }\n \n \n void setup() {\n Serial.begin(115200);\n while (!theSD.begin()) { Serial.println(\"insert SD card\"); }\n \n const int buff_num = 2;\n theCamera.begin(buff_num, CAM_VIDEO_FPS_30 \n ,CAM_IMGSIZE_QVGA_H ,CAM_IMGSIZE_QVGA_V ,CAM_IMAGE_PIX_FMT_JPG ,5);\n \n theSD.remove(filename);\n aviFile = theSD.open(filename, FILE_WRITE);\n \n theAvi.begin(aviFile, CAM_IMGSIZE_QVGA_H, CAM_IMGSIZE_QVGA_V);\n theCamera.startStreaming(true, CamCB);\n \n Serial.println(\"Start recording...\");\n theAvi.startRecording();\n }\n \n void loop() {}\n \n```\n\n物理フォーマット直後の ScanDisk\nのSDカードに10秒間録画して30fps出ました。一方、TencentのSDカードを同じ条件で試してみたところ、27fps\nで頻繁にコマ落ちしていました。SDカードのメーカーによってパフォーマンスは異なるようですので、様々なメーカーのSDカードを試してみて安定して録画できるものを選んだほうがよさそうです。",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-17T13:24:41.410",
"id": "91145",
"last_activity_date": "2022-09-17T13:30:12.157",
"last_edit_date": "2022-09-17T13:30:12.157",
"last_editor_user_id": "27334",
"owner_user_id": "27334",
"parent_id": "91100",
"post_type": "answer",
"score": 0
}
] | 91100 | 91145 | 91145 |
{
"accepted_answer_id": "91102",
"answer_count": 1,
"body": "Amazon EC2 上の RHEL8 (x86_64) にて、とあるプログラム (バイナリファイル)\nが確実にファイルシステム上に存在するにも関わらず、実行しようとすると \"No such file or directory\" エラーで実行できません。\n\n`ldd` コマンドで共有ライブラリもチェックしてみましたが、こちらは問題無さそうです。\n\n**実行環境:**\n\n```\n\n $ cat /etc/redhat-release\n Red Hat Enterprise Linux release 8.6 (Ootpa)\n \n```\n\n**実際のエラーやファイルの情報等:**\n\n```\n\n $ ./lmutil -v\n -bash: ./lmutil: No such file or directory\n \n $ ls -l lmutil\n -rwxr-xr-x. 1 ec2-user ec2-user 1219896 Dec 21 2021 lmutil*\n \n $ file lmutil\n lmutil: ELF 64-bit LSB executable, x86-64, version 1 (SYSV), dynamically linked, interpreter /lib64/ld-lsb-x86-64.so.3, for GNU/Linux 2.6.18, stripped\n \n $ ldd lmutil\n linux-vdso.so.1 (0x00007ffeaf9fe000)\n libpthread.so.0 => /lib64/libpthread.so.0 (0x00007f2a7da7d000)\n libm.so.6 => /lib64/libm.so.6 (0x00007f2a7d6fb000)\n libgcc_s.so.1 => /lib64/libgcc_s.so.1 (0x00007f2a7d4e3000)\n libc.so.6 => /lib64/libc.so.6 (0x00007f2a7d11e000)\n libdl.so.2 => /lib64/libdl.so.2 (0x00007f2a7cf1a000)\n librt.so.1 => /lib64/librt.so.1 (0x00007f2a7cd12000)\n /lib64/ld-lsb-x86-64.so.3 => /lib64/ld-linux-x86-64.so.2 (0x00007f2a7dc9d000)\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T06:45:50.613",
"favorite_count": 0,
"id": "91101",
"last_activity_date": "2022-09-14T06:45:50.613",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "3060",
"post_type": "question",
"score": 1,
"tags": [
"linux",
"rhel"
],
"title": "RHEL8 の環境で、ファイルが存在するのに実行すると \"No such file or directory\" エラーが表示される",
"view_count": 1291
} | [
{
"body": "\"RHEL8 No such file or directory\" をキーワードに Google 検索したところ、以下のページがヒットしました。\n\n[No such file or directory? But the file exists! - Ask\nUbuntu](https://askubuntu.com/q/133389)\n\n主なやり取りは Ubuntu での話がメインですが、[回答の一つ](https://askubuntu.com/a/1035037)\nのコメント欄でちょうど自分が実行しようとしている `lmutil` についての話が出ており、\"lsb\" というキーワードで rpm\nパッケージを検索したところ、以下の通りいくつかヒットしました。\n\n```\n\n $ sudo dnf search lsb\n Last metadata expiration check: 0:44:21 ago on Wed 14 Sep 2022 05:54:35 AM UTC.\n ================================================================ Name & Summary Matched: lsb ================================================================\n redhat-lsb-core.x86_64 : LSB Core module support\n redhat-lsb-core.i686 : LSB Core module support\n redhat-lsb-cxx.x86_64 : LSB CXX module support\n redhat-lsb-cxx.i686 : LSB CXX module support\n redhat-lsb-desktop.i686 : LSB Desktop module support\n redhat-lsb-desktop.x86_64 : LSB Desktop module support\n redhat-lsb-languages.i686 : LSB Languages module support\n redhat-lsb-languages.x86_64 : LSB Languages module support\n redhat-lsb-printing.i686 : LSB Printing module support\n redhat-lsb-printing.x86_64 : LSB Printing module support\n redhat-lsb-submod-multimedia.x86_64 : LSB Multimedia submodule support\n redhat-lsb-submod-multimedia.i686 : LSB Multimedia submodule support\n redhat-lsb-submod-security.x86_64 : LSB Security submodule support\n redhat-lsb-submod-security.i686 : LSB Security submodule support\n ===================================================================== Name Matched: lsb =====================================================================\n redhat-lsb.x86_64 : Implementation of Linux Standard Base specification\n \n```\n\n今回はこの中の `redhat-lsb-core` パッケージをインストールすることで解決しました。\n\n**パッケージをインストール:**\n\n```\n\n $ sudo dnf install redhat-lsb-core\n \n```\n\n**パッケージ追加後の実行結果:** (正常に実行できるようになった)\n\n```\n\n $ ./lmutil -v\n Copyright (c) 1989-2020 Flexera. All Rights Reserved.\n lmutil v11.17.1.0 build 268393 x64_lsb\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T06:45:50.613",
"id": "91102",
"last_activity_date": "2022-09-14T06:45:50.613",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "3060",
"parent_id": "91101",
"post_type": "answer",
"score": 2
}
] | 91101 | 91102 | 91102 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "タイトルの通り、最近、ros melodic から noetic\nにロボットでバージョンアップしたところ、サンプルコードすら実行できず、エラーが報告される理由がわかりませんが、このロボットはすでに noetic\nバージョンをサポートしています。\n\n[](https://i.stack.imgur.com/HM7Qi.png)\n\n```\n\n limlab@limlab:~$ rosrun sciurus17_examples pick_and_place_right_arm_demo.py\n Traceback (most recent call last):\n File \"/home/limlab/catkin_ws/devel/lib/sciurus17_examples/pick_and_place_right_arm_demo.py\", line 15, in <module>\n exec(compile(fh.read(), python_script, 'exec'), context)\n File \"/home/limlab/catkin_ws/src/sciurus17_ros/sciurus17_examples/scripts/pick_and_place_right_arm_demo.py\", line 152, in <module>\n main()\n File \"/home/limlab/catkin_ws/src/sciurus17_ros/sciurus17_examples/scripts/pick_and_place_right_arm_demo.py\", line 15, in main\n robot = mmoveit_commander.RobotCommander()\n AttributeError: module 'moveit_cammander' has no attribute 'RobotCommander'\n limlab@limlab:~$\n \n```\n\nコードは以下の通りです。\n\n```\n\n import rospy\n import moveit_commander\n import geometry_msgs.msg\n import rosnode\n import actionlib\n from tf.transformations import quaternion_from_euler\n from control_msgs.msg import (GripperCommandAction, GripperCommandGoal)\n \n \n def main():\n rospy.init_node(\"sciurus17_pick_and_place_controller\")\n robot = moveit_commander.RobotCommander()\n arm = moveit_commander.MoveGroupCommander(\"r_arm_waist_group\")\n arm.set_max_velocity_scaling_factor(0.1)\n gripper = actionlib.SimpleActionClient(\"/sciurus17/controller1/right_hand_controller/gripper_cmd\", GripperCommandAction)\n gripper.wait_for_server()\n gripper_goal = GripperCommandGoal()\n gripper_goal.command.max_effort = 2.0\n \n rospy.sleep(1.0)\n \n print(\"Group names:\")\n print(robot.get_group_names())\n \n print(\"Current state:\")\n print(robot.get_current_state())\n \n # アーム初期ポーズを表示\n arm_initial_pose = arm.get_current_pose().pose\n print(\"Arm initial pose:\")\n print(arm_initial_pose)\n \n # 何かを掴んでいた時のためにハンドを開く\n gripper_goal.command.position = 0.9\n gripper.send_goal(gripper_goal)\n gripper.wait_for_result(rospy.Duration(1.0))\n \n # SRDFに定義されている\"home\"の姿勢にする\n arm.set_named_target(\"r_arm_waist_init_pose\")\n arm.go()\n gripper_goal.command.position = 0.0\n gripper.send_goal(gripper_goal)\n gripper.wait_for_result(rospy.Duration(1.0))\n \n # 掴む準備をする\n target_pose = geometry_msgs.msg.Pose()\n target_pose.position.x = 0.25\n target_pose.position.y = 0.0\n target_pose.position.z = 0.3\n q = quaternion_from_euler(3.14/2.0, 0.0, 0.0) # 上方から掴みに行く場合\n target_pose.orientation.x = q[0]\n target_pose.orientation.y = q[1]\n target_pose.orientation.z = q[2]\n target_pose.orientation.w = q[3]\n arm.set_pose_target(target_pose) # 目標ポーズ設定\n arm.go() # 実行\n \n # ハンドを開く\n gripper_goal.command.position = 0.7\n gripper.send_goal(gripper_goal)\n gripper.wait_for_result(rospy.Duration(1.0))\n \n # 掴みに行く\n target_pose = geometry_msgs.msg.Pose()\n target_pose.position.x = 0.25\n target_pose.position.y = 0.0\n target_pose.position.z = 0.13\n q = quaternion_from_euler(3.14/2.0, 0.0, 0.0) # 上方から掴みに行く場合\n target_pose.orientation.x = q[0]\n target_pose.orientation.y = q[1]\n target_pose.orientation.z = q[2]\n target_pose.orientation.w = q[3]\n arm.set_pose_target(target_pose) # 目標ポーズ設定\n arm.go() # 実行\n \n # ハンドを閉じる\n gripper_goal.command.position = 0.4\n gripper.send_goal(gripper_goal)\n gripper.wait_for_result(rospy.Duration(1.0))\n \n # 持ち上げる\n target_pose = geometry_msgs.msg.Pose()\n target_pose.position.x = 0.25\n target_pose.position.y = 0.0\n target_pose.position.z = 0.3\n q = quaternion_from_euler(3.14/2.0, 0.0, 0.0) # 上方から掴みに行く場合\n target_pose.orientation.x = q[0]\n target_pose.orientation.y = q[1]\n target_pose.orientation.z = q[2]\n target_pose.orientation.w = q[3]\n arm.set_pose_target(target_pose) # 目標ポーズ設定\n arm.go() # 実行\n \n # 移動する\n target_pose = geometry_msgs.msg.Pose()\n target_pose.position.x = 0.4\n target_pose.position.y = 0.0\n target_pose.position.z = 0.3\n q = quaternion_from_euler(3.14/2.0, 0.0, 0.0) # 上方から掴みに行く場合\n target_pose.orientation.x = q[0]\n target_pose.orientation.y = q[1]\n target_pose.orientation.z = q[2]\n target_pose.orientation.w = q[3]\n arm.set_pose_target(target_pose) # 目標ポーズ設定\n arm.go() # 実行\n \n # 下ろす\n target_pose = geometry_msgs.msg.Pose()\n target_pose.position.x = 0.4\n target_pose.position.y = 0.0\n target_pose.position.z = 0.13\n q = quaternion_from_euler(3.14/2.0, 0.0, 0.0) # 上方から掴みに行く場合\n target_pose.orientation.x = q[0]\n target_pose.orientation.y = q[1]\n target_pose.orientation.z = q[2]\n target_pose.orientation.w = q[3]\n arm.set_pose_target(target_pose) # 目標ポーズ設定\n arm.go() # 実行\n \n # ハンドを開く\n gripper_goal.command.position = 0.7\n gripper.send_goal(gripper_goal)\n gripper.wait_for_result(rospy.Duration(1.0))\n \n # 少しだけハンドを持ち上げる\n target_pose = geometry_msgs.msg.Pose()\n target_pose.position.x = 0.4\n target_pose.position.y = 0.0\n target_pose.position.z = 0.2\n q = quaternion_from_euler(3.14/2.0, 0.0, 0.0) # 上方から掴みに行く場合\n target_pose.orientation.x = q[0]\n target_pose.orientation.y = q[1]\n target_pose.orientation.z = q[2]\n target_pose.orientation.w = q[3]\n arm.set_pose_target(target_pose) # 目標ポーズ設定\n arm.go() # 実行\n \n # SRDFに定義されている\"home\"の姿勢にする\n arm.set_named_target(\"r_arm_waist_init_pose\")\n arm.go()\n \n print(\"done\")\n \n \n if __name__ == '__main__':\n \n try:\n if not rospy.is_shutdown():\n main()\n except rospy.ROSInterruptException:\n pass\n \n```",
"comment_count": 6,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T08:09:30.373",
"favorite_count": 0,
"id": "91103",
"last_activity_date": "2022-09-15T09:58:08.530",
"last_edit_date": "2022-09-15T09:58:08.530",
"last_editor_user_id": "26370",
"owner_user_id": "54384",
"post_type": "question",
"score": 0,
"tags": [
"python",
"python3",
"linux",
"ubuntu"
],
"title": "ROSのエラー: AttributeError: module 'moveit_commander' has no attribute 'MoveGroupCommander'",
"view_count": 244
} | [] | 91103 | null | null |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "PytorchでAIモデルを構築中です。 \n畳み込み層を作成中に以下のエラーメッセージが発生しました。\n\n```\n\n RuntimeError Traceback (most recent call last)\n <ipython-input-42-277e33b168b8> in <module>\n 767 \n 768 if __name__== '__main__':\n --> 769 run()\n \n 9 frames\n <ipython-input-42-277e33b168b8> in run()\n 763 scaling=False,\n 764 overfitting=False,\n --> 765 train_counts=6)\n 766 \n 767 \n \n <ipython-input-42-277e33b168b8> in main(gpu_id, lr, num_epochs, batch_size, weight_decay, pretrained_model, pretrained_type, start_idx, end_idx, freeze_layer, output_dir, early_stopping, downscale_median, scaling, augmentation, overfitting, train_counts)\n 564 loss_type='MSE&Cosine',\n 565 corr_w=corr_w,\n --> 566 score_metric=\"spearmanr\")\n 567 \n 568 \n \n <ipython-input-34-85643d1c012f> in val(val_loader, model, use_gpu_number, criterion, loss_type, corr_w, score_metric, mean_outputs)\n 20 time_course = Variable(time_course.cuda(use_gpu_number)).type(torch.cuda.FloatTensor)\n 21 \n ---> 22 output = model(track)\n 23 \n 24 if loss_type == 'RMSE':\n \n /usr/local/lib/python3.7/dist-packages/torch/nn/modules/module.py in _call_impl(self, *input, **kwargs)\n 1128 if not (self._backward_hooks or self._forward_hooks or self._forward_pre_hooks or _global_backward_hooks\n 1129 or _global_forward_hooks or _global_forward_pre_hooks):\n -> 1130 return forward_call(*input, **kwargs)\n 1131 # Do not call functions when jit is used\n 1132 full_backward_hooks, non_full_backward_hooks = [], []\n \n <ipython-input-28-c1073582f8a6> in forward(self, input)\n 187 if model_number != self.train_counts*-2-1:\n 188 t_out = nn.Upsample(scale_factor=2, mode='nearest')(t_out)\n --> 189 l_out = self.cnn[model_number+1](out_list[out_number])\n 190 t_out = transforms.CenterCrop([l_out.shape[2], l_out.shape[3]])(t_out)\n 191 out = torch.cat((t_out, l_out), 1)\n \n /usr/local/lib/python3.7/dist-packages/torch/nn/modules/module.py in _call_impl(self, *input, **kwargs)\n 1128 if not (self._backward_hooks or self._forward_hooks or self._forward_pre_hooks or _global_backward_hooks\n 1129 or _global_forward_hooks or _global_forward_pre_hooks):\n -> 1130 return forward_call(*input, **kwargs)\n 1131 # Do not call functions when jit is used\n 1132 full_backward_hooks, non_full_backward_hooks = [], []\n \n /usr/local/lib/python3.7/dist-packages/torch/nn/modules/container.py in forward(self, input)\n 137 def forward(self, input):\n 138 for module in self:\n --> 139 input = module(input)\n 140 return input\n 141 \n \n /usr/local/lib/python3.7/dist-packages/torch/nn/modules/module.py in _call_impl(self, *input, **kwargs)\n 1128 if not (self._backward_hooks or self._forward_hooks or self._forward_pre_hooks or _global_backward_hooks\n 1129 or _global_forward_hooks or _global_forward_pre_hooks):\n -> 1130 return forward_call(*input, **kwargs)\n 1131 # Do not call functions when jit is used\n 1132 full_backward_hooks, non_full_backward_hooks = [], []\n \n /usr/local/lib/python3.7/dist-packages/torch/nn/modules/conv.py in forward(self, input)\n 455 \n 456 def forward(self, input: Tensor) -> Tensor:\n --> 457 return self._conv_forward(input, self.weight, self.bias)\n 458 \n 459 class Conv3d(_ConvNd):\n \n /usr/local/lib/python3.7/dist-packages/torch/nn/modules/conv.py in _conv_forward(self, input, weight, bias)\n 452 _pair(0), self.dilation, self.groups)\n 453 return F.conv2d(input, weight, bias, self.stride,\n --> 454 self.padding, self.dilation, self.groups)\n 455 \n 456 def forward(self, input: Tensor) -> Tensor:\n \n RuntimeError: Given groups=1, weight of size [32, 32, 3, 3], expected input[32, 256, 10, 256] to have 32 channels, but got 256 channels instead\n \n```\n\n現在作成しているのはTDMという脳内の処理を模倣したAIの実装です。 \n恐らくエラーが出ているのは、L_0というレイヤーだと思います。 \nしかしこのレイヤーは lateral layerと言って、入力と出力のチャンネル数が等しくないといけません。 \n元になっている資料は以下のものです。 \n<https://www.arxiv-vanity.com/papers/1612.06851/>\n\nそれも考慮すると、どう対処していいのかわからず質問させていただきました。 \n書いたコードは以下の通りです。\n\n```\n\n from pandas.core.api import to_datetime\n from operator import ifloordiv\n from torchvision import transforms\n \n \n class CRNN_VGG_BN_3FC_MaxPool(nn.Module):\n \"\"\"\n Adapted from Choi, 2017 and Malik, 2017\n \"\"\"\n def __init__(self, weight_init=False,\n verbose=False,\n gpu_id=0,\n cnc=[32, 64, 128 ,128,256,256,512],\n transfer=False,\n train_counts=6):\n \n super(CRNN_VGG_BN_3FC_MaxPool, self).__init__()\n pooling = [(2, 2), (2, 2), (2, 2), (2,2), (2,2), (2,4),(4,4)]\n kernel_size = (2, 2)\n conv_num_channels = cnc\n num_conv = 7\n \n self.verbose = verbose\n self.train_counts = train_counts\n \n # cnn construction\n cnn = nn.Sequential()\n cnn.add_module(\"BN\" + str(0), \n nn.BatchNorm2d(1))\n for i in range(num_conv):\n \n if i == 0:\n prev_out_channels = 1\n \n else:\n prev_out_channels = conv_num_channels[i - 1]\n \n cnn.add_module(\"Conv\" + str(i), \n self.conv_elu(i, prev_out_channels, conv_num_channels[i])) \n cnn.add_module(\"MaxPooling\" + str(i), \n nn.MaxPool2d(pooling[i],\n stride=(2,2)))\n \n self.cnn = cnn\n \n \n # ====================================================\n # ====================== TDM =========================\n # ====================================================\n \n tdm = nn.Sequential()\n \n t_dim_list = [(512, 512), (768, 384), (640, 384), (512, 128),(256,64),(128,32)]\n l_dim_list = [(256, 256), (256, 256), (128, 128), (128, 128),(64,64),(32,32)]\n model_number_list = [5,4,3, 2, 1, 0]\n # ============= Add TDM =============\n for i in range(self.train_counts):\n model_number = model_number_list[i]\n # ============ Make T Layer ============\n block = nn.Sequential()\n block.add_module('Conv_T', nn.Conv2d(t_dim_list[i][0],\n t_dim_list[i][1],\n kernel_size=(3, 3),\n stride=1,\n padding=1))\n \n block.add_module('ReLU_T', nn.ReLU())\n tdm.add_module(f'T_{model_number+1},{model_number}', block)\n # ============ Make L Layer ============\n block = nn.Sequential()\n block.add_module('Conv_L', nn.Conv2d(l_dim_list[i][0],\n l_dim_list[i][1],\n kernel_size=(3, 3),\n stride=1,\n padding=1))\n block.add_module('ReLU_L', nn.ReLU())\n tdm.add_module(f'L_{model_number}', block)\n \n \n ##################\n ########. T_out layerをここに追加してしまおう\n \n block = nn.Sequential()\n block.add_module('Conv_T_out', \n nn.Conv2d(64,\n 512,\n kernel_size=(3,3)))\n block.add_module('ReLU_T_out', nn.ReLU())\n tdm.add_module('T_out_0', block)\n \n \n self.tdm = tdm\n \n \n \n self.AdaptiveMaxPool2d = nn.AdaptiveMaxPool2d((1, 16)) \n self.AdaptiveAvgPool2d = nn.AdaptiveAvgPool2d((1, 16))\n \n # rnn construction\n self.rnn_nHidden = 64\n self.rnn_nLayer = 2\n self.rnn = nn.LSTM(input_size=512,\n hidden_size=self.rnn_nHidden,\n num_layers=self.rnn_nLayer,\n dropout=0.75,\n bidirectional=True)\n self.linear = nn.Sequential(TimeDistributed(nn.Linear(self.rnn_nHidden * 2, self.rnn_nHidden)),\n nn.BatchNorm1d(16),\n nn.ELU(), #Expotential Linear Unit\n nn.Dropout(0.5),\n TimeDistributed(nn.Linear(self.rnn_nHidden, int(self.rnn_nHidden/2))),\n nn.BatchNorm1d(16),\n nn.ELU(),\n nn.Dropout(0.1),\n nn.Linear(int(self.rnn_nHidden/2), 1))\n self.gpu_id = gpu_id\n if weight_init:\n self.cnn.apply(self.weight_init)\n self.linear.apply(self.weight_init)\n \n \n \n def conv_elu(self, i, in_channels, out_channels):\n \"\"\"\n Convolution Block consists of Conv2d + BatchNorm + Elu\n \"\"\"\n block = nn.Sequential()\n if i >0:\n for j in range(3):\n if j < 2:\n block.add_module(\"Conv_{}_{}\".format(i, j), nn.Conv2d(in_channels,\n in_channels,\n kernel_size=(3, 3),\n stride=1,\n padding=1))\n block.add_module(\"ELU_{}_{}\".format(i, j), nn.ELU())\n else:\n block.add_module(\"Conv_{}_{}\".format(i, j), nn.Conv2d(in_channels,\n out_channels,\n kernel_size=(3, 3),\n stride=1,\n padding=1))\n block.add_module(\"BN_{}_{}\".format(i, j), nn.BatchNorm2d(out_channels))\n block.add_module(\"ELU_{}_{}\".format(i, j), nn.ELU())\n else:\n block.add_module(\"Conv_{}\".format(i), nn.Conv2d(in_channels,\n out_channels,\n kernel_size=(3, 3),\n stride=1,\n padding=1))\n block.add_module(\"BN_{}\".format(i), nn.BatchNorm2d(out_channels))\n block.add_module(\"ELU_{}\".format(i), nn.ELU())\n return block\n \n def weight_init(self, m):\n \"\"\"\n Kaiming He Weight init\n \"\"\"\n if isinstance(m, (nn.Conv2d, nn.Linear)):\n nn.init.kaiming_normal(m.weight, mode='fan_in', nonlinearity='relu') \n elif isinstance(m, (nn.BatchNorm2d, nn.BatchNorm1d)):\n nn.init.constant_(m.weight, 1) \n nn.init.constant_(m.bias, 0)\n \n def forward(self, input):\n # =========== CNN Forward ============\n conv = self.cnn.BN0(input)\n conv0 = self.cnn.Conv0(conv)\n conv0 = self.cnn.MaxPooling0(conv0)\n conv1 = self.cnn.Conv1(conv0)\n #conv1 = self.cnn.MaxPooling1(conv1)\n conv2 = self.cnn.Conv2(conv1)\n conv2 = self.cnn.MaxPooling2(conv2)\n conv3 = self.cnn.Conv3(conv2)\n #conv3 = self.cnn.MaxPooling3(conv3)\n conv4 = self.cnn.Conv4(conv3)\n conv4 = self.cnn.MaxPooling4(conv4)\n conv5 = self.cnn.Conv5(conv4)\n #conv5 = self.cnn.MaxPooling5(conv5)\n out = self.cnn.Conv6(conv5)\n # ============ T, L Layer Forward ============\n out_list = [conv5,conv4,conv3, conv2, conv1, conv0]\n for model_number, out_number in zip(range((self.train_counts*-2)-1, -1, 2), range(4)):\n t_out = self.cnn[model_number](out)\n if model_number != self.train_counts*-2-1: \n t_out = nn.Upsample(scale_factor=2, mode='nearest')(t_out) \n l_out = self.cnn[model_number+1](out_list[out_number])\n t_out = transforms.CenterCrop([l_out.shape[2], l_out.shape[3]])(t_out)\n out = torch.cat((t_out, l_out), 1)\n \n # ============ T out Layer Forward ============\n if self.train_counts > 0:\n out = self.cnn[-1](out)\n # =========== Pooling ============\n if self.train_counts == 0 or self.train_counts == 1:\n out = self.cnn.MaxPooling4(out)\n else:\n out = self.AdaptiveMaxPool2d(out)\n \n # =========== Reshape ============\n b, c, h, w = out.size()\n out = out.view(b, c, -1)\n conv = out.permute(2, 0, 1) \n # ============ RNN ===========\n rnn, hidden = self.rnn(conv)\n rnn = rnn.permute(1, 0, 2)\n # =========== linear regression ===========\n output = self.linear(rnn)\n # =========== Reshape ===========\n b, c, w = output.size()\n output = output.view(b, -1)\n \n return output\n \n```",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T08:19:01.787",
"favorite_count": 0,
"id": "91104",
"last_activity_date": "2023-02-28T04:11:26.417",
"last_edit_date": "2022-09-14T09:43:42.853",
"last_editor_user_id": "54391",
"owner_user_id": "54391",
"post_type": "question",
"score": 0,
"tags": [
"python",
"pytorch"
],
"title": "Given groups=1, weight of size [], expected input[] to have channels, but got channels insteadの解決を手伝っていただけないでしょうか?",
"view_count": 793
} | [
{
"body": "時間も経過しており既に解決済みかもしれませんが御参考です。 \n参考資料の TDM(Top-Down Modulation) のブロック図(Figure\n2)を参照しながらコードを拝見すると,C層(ボトムアップパス)の計算は `self.cnn` が担当し,L層(ラテラルパス)と\nT層(トップダウンパス)の計算は `self.tdm` が担当すると読み取れます。 \n一方,エラーとなっている `l_out = self.cnn[model_number+1](out_list[out_number])` は\nL層の計算をしているにもかかわらず `self.cnn` が使われています。そこで,`t_out =\nself.cnn[model_number](out)` も合わせて `self.cnn` を `self.tdm` に置き換えたところ for\nループではエラーは発生しなくなりました。 \n次に,出力前の `RNN` ブロックの `rnn, hidden = self.rnn(conv)`\nでもチャンネル不整合のエラーが発生するので,`self.rnn` の構築部分の `self.rnn = nn.LSTM(input_size=512,` を\n`self.rnn = nn.LSTM(input_size=256` に変更しました。 \n提示されたコードに上記の3カ所の変更を行い,先頭に\n\n```\n\n import torch\n from torch import nn\n from pytorch_forecasting.models.temporal_fusion_transformer.sub_modules import TimeDistributed\n \n```\n\nを追加をしたものを「tdm_module.py」に保存し,下記の記述例を実行した場合の出力(32行16列)の一部を示します。\n\n```\n\n import torch\n import tdm_module\n \n torch.manual_seed(11)\n \n model = tdm_module.CRNN_VGG_BN_3FC_MaxPool()\n \n x = torch.randn(32, 1, 10 * 8, 256 * 8)\n print(model(x))\n \n```\n\n```\n\n tensor([[-8.8882e-02, -3.1479e-01, 1.3590e-01, -6.0990e-02, -1.1239e-01,\n -3.5339e-02, -1.2717e-01, -8.5867e-02, -7.9190e-01, 7.5079e-01,\n 2.9482e-02, 8.2766e-02, -8.2027e-02, -4.4313e-01, 8.1381e-02,\n -3.9718e-01],\n [-4.8103e-02, 5.8515e-02, -3.8677e-01, 1.5168e-01, 3.2936e-01,\n 2.8742e-01, 2.9059e-01, 2.2381e-01, -9.4020e-01, -4.1080e-01,\n -5.9306e-02, -1.7687e-01, 1.8825e-01, 6.2861e-02, 5.9015e-01,\n -1.4683e-01],\n ...\n [-1.5363e-02, -4.0786e-01, -5.7508e-01, -5.1503e-01, -3.4224e-01,\n -1.3823e-01, -8.9653e-01, -3.1752e-01, -2.9232e-02, -1.1686e-02,\n 2.2664e-01, 2.8617e-01, -2.3849e-01, -3.7007e-02, 3.3500e-02,\n -2.8974e-01],\n [-4.9130e-01, -2.0382e-01, 1.2202e-01, -4.5300e-01, 6.2589e-03,\n 5.9880e-02, 1.7218e-01, -2.0273e-01, -5.3178e-01, -3.7083e-01,\n -2.0129e-01, -3.6231e-01, 3.2738e-01, 2.0378e-01, -6.2566e-02,\n -4.6619e-01]], grad_fn=<ViewBackward0>)\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2023-01-18T06:59:18.350",
"id": "93427",
"last_activity_date": "2023-01-18T06:59:18.350",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54588",
"parent_id": "91104",
"post_type": "answer",
"score": 0
}
] | 91104 | null | 93427 |
{
"accepted_answer_id": "91107",
"answer_count": 1,
"body": "現在CPUの創りかたを読んでいます。 \nその中で、ダイオードの必要性と電流が流れが分かりません。\n\n[](https://i.stack.imgur.com/ubjY0.jpg)\n\n左上の図では、スイッチが押されていないのでグラウンドに対して電流は流れないので出力2に対してOFFになって欲しいと思います。 \nしかし、その状態では電流が迂回して出力2には、スイッチが押されているように間違って認識されるらしいです。(左下の図)\n\n私の疑問は、なぜ電流が迂回することで出力2がスイッチが押されていると認識されるのでしょうか? \n別のスイッチが押されている回路を通すと、出力2がスイッチを押されているという意味なのでしょうか? \n[](https://i.stack.imgur.com/uMOV0.jpg) \n上記の画像のように、私が矢印で書いた回路がある限り電流が流れるので、特段スイッチが押されている回路であるか否かは関係ないように思います。 \nまた、この回路でスイッチが押されているかいないかは、見えない出力の先でプルアップ接続等が配置されているのでしょうか?\n\n是非ご教授宜しくお願い致します。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T09:35:05.877",
"favorite_count": 0,
"id": "91105",
"last_activity_date": "2022-09-14T15:43:06.093",
"last_edit_date": "2022-09-14T15:43:06.093",
"last_editor_user_id": "3060",
"owner_user_id": "47147",
"post_type": "question",
"score": 0,
"tags": [
"電子回路"
],
"title": "ROM回路のスイッチの仕組みについて",
"view_count": 120
} | [
{
"body": "> 私が矢印で書いた回路\n\nそこは線が繋がっていません \n回路図で交差する線がつながっている場合は交点に・を書きます",
"comment_count": 4,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T12:13:03.293",
"id": "91107",
"last_activity_date": "2022-09-14T12:13:03.293",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "13127",
"parent_id": "91105",
"post_type": "answer",
"score": 1
}
] | 91105 | 91107 | 91107 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "初めて質問させて頂きます。宜しくお願いします。\n\n[AdMobコミュニティ](https://support.google.com/admob/thread/178896237?authuser=1&hl=ja)で質問したのですが、回答がつかなかったので、 \nこちらでも同じ質問をさせて頂ければと思います。\n\n現在Unity(2020.3.14f1 personal)でアプリを作成中です。 \nAndroid用にアプリをビルドすることはできるのですが、実機テストをしようとすると \nAdMobのテスト広告がエラーで表示されずに困っています。\n\nAdMobの設定には [広告プレースメント](https://developers.google.com/admob/unity/ad-\nplacements?hl=ja) を使用しています。\n\nAndroidManifestのmeta-data android:valueにはアプリIDを書いています。\n\nビルド設定 \n●Target API Level 31 \n●Minimum API Level 24 \n●Scripting Backend IL2CPP \n●Target Architectures ARM64のみにチェック\n\nAPI Levelが30の時は問題なくテストできていました。\n\nAPI Level31に対応するために [ARCore](https://developers.google.com/ar/develop/unity-\narf/android-12-build?hl=ja) というページに書いてある設定を行いました。 \nそれによりビルドは問題なく行えています。\n\nAPI Levelを31にした当初はlogcatにログが出ないくらいに即落ちしていたのですが、 \nMinimum API Levelを24にした所、即落ちはしなくなりました。 \nログは長いので一番下にコピペしようと思います。\n\nただ、スタート画面のAdMobの広告バナーは表示されず、他の画面に飛ぼうとすると、 \nそこにインターステシャル広告が挟んであるからか、すぐにクラッシュしてしまいます。 \nそれを何度か繰り返していると、スマホで「アプリが繰り返し停止しています」 \nというような表示が出ます。\n\n[AdMobのリリースノート](https://developers.google.com/admob/android/rel-\nnoteshttps://developers.google.com/admob/android/rel-notes) の2021 年 9 月 22\n日に書いてある \n「Gradle ファイルに Google Mobile Ads SDK の次の依存関係を追加する」 \nということもやってみたのですが、そうするとビルドエラーになります。\n\n広告プレースメントのGoogleMobileAdsDependencies.xmlファイルを見た所、 \n「androidPackage spec=\"com.google.android.gms:play-services-ads:19.5.0\"」 \nとなっていてバージョンが古いようだったので、これをアップデートできないかと思い、[Googleモバイル広告Unityプラグイン](https://github.com/googleads/googleads-\nmobile-unity/releases/tag/v5.4.0)\nをインポートしてみたのですが、そうすると広告プレースメントが消えてしまうので、やむを得ずバックアップの状態に戻しました。\n\nまた、広告プレースメントのバージョンアップされたプラグインなどを探してみたのですが、それはないようです。\n\nどうすればエラーを消すことができるのか、どなたかお分かりになる方が \nいらっしゃったら教えて頂けると幸いです。\n\n初めての質問で到らない点があるかもしれませんが宜しくお願い致します。\n\n**logcatのログ**\n\n```\n\n 2022/09/10 08:46:38.650 26459 26480 Error Unity AndroidJavaException: java.lang.ClassNotFoundException: com.google.android.gms.ads.initialization.OnInitializationCompleteListener\n 2022/09/10 08:46:38.650 26459 26480 Error Unity java.lang.ClassNotFoundException: com.google.android.gms.ads.initialization.OnInitializationCompleteListener\n 2022/09/10 08:46:38.650 26459 26480 Error Unity at java.lang.Class.classForName(Native Method)\n 2022/09/10 08:46:38.650 26459 26480 Error Unity at java.lang.Class.forName(Class.java:454)\n 2022/09/10 08:46:38.650 26459 26480 Error Unity at com.unity3d.player.UnityPlayer.nativeRender(Native Method)\n 2022/09/10 08:46:38.650 26459 26480 Error Unity at com.unity3d.player.UnityPlayer.access$300(Unknown Source:0)\n 2022/09/10 08:46:38.650 26459 26480 Error Unity at com.unity3d.player.UnityPlayer$e$1.handleMessage(Unknown Source:95)\n 2022/09/10 08:46:38.650 26459 26480 Error Unity at android.os.Handler.dispatchMessage(Handler.java:103)\n 2022/09/10 08:46:38.650 26459 26480 Error Unity at android.os.Looper.loop(Looper.java:214)\n 2022/09/10 08:46:38.650 26459 26480 Error Unity at com.unity3d.player.UnityPlayer$e.run(Unknown Source:20)\n 2022/09/10 08:46:38.650 26459 26480 Error Unity Caused by: java.lang.ClassNotFoundException: com.google.android.gms.ads.initialization.OnInitializationCompleteListener\n 2022/09/10 08:46:38.650 26459 26480 Error Unity ... 8 more\n 2022/09/10 08:46:38.650 26459 26480 Error Unity at UnityEngine.AndroidJNISafe.CheckException () [0x00000] in <00000000000000000000000000000000>:0\n 2022/09/10 08:46:38.650 26459 26480 Error Unity at UnityEngine.AndroidJNISafe.FindClass (System.String name) [0x00000] in <000000000000000000000\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T11:46:47.677",
"favorite_count": 0,
"id": "91106",
"last_activity_date": "2022-09-14T15:42:24.937",
"last_edit_date": "2022-09-14T15:42:24.937",
"last_editor_user_id": "3060",
"owner_user_id": "54394",
"post_type": "question",
"score": 0,
"tags": [
"unity2d",
"admob"
],
"title": "Unityの実機テスト(Android)で広告(AdMob)が表示されません",
"view_count": 294
} | [] | 91106 | null | null |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "docker環境で、laravelアプリが正常に動いています。\n\ndocker exec -it app bash\n\nでコンテナに入り、laravelプロジェクト直下で、\n\nphp artisan command:test_command\n\nとコマンドを実行した際、\n\n/app/Console/Commands/TestCommand内で、 \nモデルによるDBデータの読み出しが発生するタイミングでエラーも発生せずに \n処理が終了してしまいます。\n\nphp artisan migrate:statusでは、DBに接続し、migration情報のリストが出力されます。\n\n/app/Console/Commands/TestCommand内で下記のような処理があった際、 \ntest1は出力されますが、test2は出力されず、エラーログもなく、Company::all();のところで処理が終了しているようです。\n\n```\n\n public function handle()\n {\n \n print \"test1\";\n \n $companys = Company::all();\n \n print \"test2\";\n \n exit;\n }\n \n```\n\nこのような現象の解決方法がわかる方いましたら教えていただければ幸いです。\n\ncommandではなく、ウェブ閲覧側は問題なくDBに接続し、アプリが動いています。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T12:50:55.887",
"favorite_count": 0,
"id": "91108",
"last_activity_date": "2022-09-14T22:19:39.360",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "14234",
"post_type": "question",
"score": 0,
"tags": [
"docker",
"laravel"
],
"title": "Docker環境で、laravelのコマンド実行時DB接続できない",
"view_count": 57
} | [
{
"body": "自己解決しました。\n\nCompany::all();で取得している、companiesテーブルのデータが多く \nメモリー不足かなにかで処理が落ちているようでした。\n\n```\n\n Company::chunk(100, function($companys) {\n foreach($companys as $company) {\n print $company->id;\n }\n });\n \n```\n\nのようにchunkで取得したところ動作しました。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T22:19:39.360",
"id": "91109",
"last_activity_date": "2022-09-14T22:19:39.360",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "14234",
"parent_id": "91108",
"post_type": "answer",
"score": 0
}
] | 91108 | null | 91109 |
{
"accepted_answer_id": null,
"answer_count": 2,
"body": "Ubuntu上で `chown` のmanを引くと、書式は下記のように2行で記載されているのですが、\n\n>\n```\n\n> SYNOPSIS\n> chown [OPTION]... [OWNER][:[GROUP]] FILE...\n> chown [OPTION]... --reference=RFILE FILE...\n> \n```\n\nネット上で公開されている `chown` のmanでは、`.GROUP` の書式を加えて3行で記載されているものがありました。\n\n>\n```\n\n> chown [オプション]... OWNER[.[GROUP]] FILE...\n> chown [オプション]... .GROUP FILE...\n> chown [オプション]... --reference=RFILE FILE...\n> \n```\n\n<https://linuxjm.osdn.jp/html/GNU_fileutils/man1/chown.1.html>\n\n実際に `.GROUP` の書式を試すと、意図したとおり動いているように見えるのですが、`.GROUP` の書式は `chown` の仕様なのでしょうか? \n過去の互換性の為に残っているが、非推奨の書式だったりするのでしょうか?\n\n```\n\n $ chown .test test.txt\n \n```",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T22:23:18.840",
"favorite_count": 0,
"id": "91110",
"last_activity_date": "2022-09-15T02:18:48.827",
"last_edit_date": "2022-09-15T01:34:07.500",
"last_editor_user_id": "3060",
"owner_user_id": "4260",
"post_type": "question",
"score": 3,
"tags": [
"linux",
"ubuntu"
],
"title": "chown コマンドでグループを指定する際、区切り文字に . (ドット) を使う書式は仕様なのか",
"view_count": 196
} | [
{
"body": "オイラの記憶によると\n\n * グループ名指定を `.` で始めてよいのは `chown` の古い古い仕様\n * ユーザー名にドットを含んでよいことになったので `chown firstname.familyname files` のような書き方に対応するため、グループ名指定は `:` で始めるように `chown` の仕様変更があった\n\n<https://serverfault.com/questions/194295/>\n\nオイラんちの `hppa2.0w-hp-hpux11.11` の `/bin/chown` でも(タイムスタンプが2000年だ) `chown .soft\nhoge.txt~` に対して `chown: .softというユーザ ID はありません。` とエラーが出るので、まあ相当に古い話っス。\n\n現代では `chown .group` は使えない `chown :group` は使えると解釈したほうがよさそうです。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T23:26:13.270",
"id": "91111",
"last_activity_date": "2022-09-15T02:18:48.827",
"last_edit_date": "2022-09-15T02:18:48.827",
"last_editor_user_id": "8589",
"owner_user_id": "8589",
"parent_id": "91110",
"post_type": "answer",
"score": 6
},
{
"body": "[前回の回答](https://ja.stackoverflow.com/a/90553/4236)とも被りますが、Linuxは外部パッケージの寄せ集めであることを意識する必要があります。\n\nUbuntuでパッケージ検索すると`chown`は[GNU core\nutilitiesパッケージ](https://packages.ubuntu.com/jammy/coreutils)で提供されていることがわかります。 \n[GNU core\nutilities](https://www.gnu.org/software/coreutils/)(というよりGNUのツール)は伝統的にmanpageはあまり期待しておらず自前のinfoシステムで記述する傾向があります。今はオンラインで参照することができ、[chown](https://www.gnu.org/software/coreutils/manual/html_node/chown-\ninvocation.html)のページもあります。ここには\n\n> Some older scripts may still use ‘.’ in place of the ‘:’ separator. POSIX\n> 1003.1-2001 (see Standards conformance) does not require support for that,\n> but for backward compatibility GNU chown supports ‘.’ so long as no\n> ambiguity results, although it issues a warning and support may be removed\n> in future versions. New scripts should avoid the use of ‘.’ because it is\n> not portable, and because it has undesirable results if the entire\n> owner‘.’group happens to identify a user whose name contains ‘.’.\n\nと`.`記法は互換のために残されており、将来的には削除されると書かれています。\n\nなお、 <https://linuxjm.osdn.jp/html/GNU_fileutils/man1/chown.1.html>\nを参照されたようですが、fileutilsは2002年に他のパッケージと統合してcoreutilsにリネームされています。つまり、20年以上前のドキュメントであることを理解したうえで参照する必要があります。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-14T23:36:57.890",
"id": "91112",
"last_activity_date": "2022-09-14T23:36:57.890",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "4236",
"parent_id": "91110",
"post_type": "answer",
"score": 10
}
] | 91110 | null | 91112 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "IntelliJ IDEA の Kotlin plugin を利用して Kotlin のコードを書いています。\n\n```\n\n class MyData {}\n \n fun create() = MyData()\n fun createList() = listOf(MyData(), MyData())\n \n fun main() {\n val data = create()\n val list = createList()\n }\n \n```\n\n上記のようなコードで、 `data` 変数の型が何か知りたい場合、 `data` にカーソルを合わせてコンテキストメニューから **Go To > Type\ndeclaration** を選択することで、 `MyData` 型の定義(1行目)にジャンプすることができます。 \n(実際にはこのメニューアクションにショートカットキーを割り当てて実行しています)\n\n同じように、 `list` から `MyData` へジャンプしたいことがよくあるのですが、これを実現できる操作は存在するでしょうか? \n単純に上記と同じ操作を行うと、(当然ですが) `List` 型の定義へジャンプしてしまいます。\n\n環境: \nmacOS 11.6.8 \nIntelliJ IDEA 2022.2.1(Community Edition), Kotlin plugin 222-1.7.10",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-15T00:54:15.917",
"favorite_count": 0,
"id": "91113",
"last_activity_date": "2022-09-15T00:54:15.917",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "2808",
"post_type": "question",
"score": 0,
"tags": [
"kotlin",
"intellij-idea"
],
"title": "IntelliJ で コレクションの要素の型定義にジャンプしたい",
"view_count": 54
} | [] | 91113 | null | null |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "研究でMR開発をする予定で、Hololens 2の購入を検討しています。 \nそこで、公式のドキュメントを見ていてふと疑問に思ったことがあるので、ぜひ有識者に教えてもらいたいです。\n\nHololens 2 は Hololens 2 Development EditionじゃなくてもMR開発することは可能かどうかを聞きたいです。",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-15T02:44:55.413",
"favorite_count": 0,
"id": "91114",
"last_activity_date": "2022-09-15T02:44:55.413",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54401",
"post_type": "question",
"score": 0,
"tags": [
"ios",
"c#",
"unity3d"
],
"title": "Hololens 2 は Hololens 2 Development EditionじゃなくてもMR開発することは可能かどうか",
"view_count": 101
} | [] | 91114 | null | null |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "使用機器 \n・ESP32 DevKitC \n・TCA9548A I2C Multiplexer \n・MPU6050\n\ntca9548aを使用したところ、値が全て15163になります。 \nセンサを取り外しても値は送られるため、センサの問題では無いと思われます。 \ntca9548aのA0,A1,A2ピンはgndに接続しているためtca9548aのアドレスは0x70のはずです。 \nコードはほとんどコピペです。\n\n画像は回路\n\n[](https://i.stack.imgur.com/sOhRy.png)\n\n```\n\n #include <Wire.h>\n \n int16_t axRaw, ayRaw, azRaw, gxRaw, gyRaw, gzRaw, GyroX, GyroY, GyroZ, sensor, temperature;\n \n void TCA9548A(uint8_t bus){\n Wire.beginTransmission(0x70);\n Wire.write(1 << bus); \n }\n \n void setup() {\n \n Serial.begin(9600);\n Wire.setClock(400000);\n Wire.begin();\n \n Wire.beginTransmission(0x70);\n Wire.write(0x6B);\n Wire.write(0x00);\n Wire.endTransmission(); \n //加速度初期設定\n Wire.beginTransmission(0x70);\n Wire.write(0x1C);\n Wire.write(0x10);\n Wire.endTransmission();\n //ジャイロ初期設定\n Wire.beginTransmission(0x70);\n Wire.write(0x1B);\n Wire.write(0x08);\n Wire.endTransmission();\n //LPF設定\n Wire.beginTransmission(0x70);\n Wire.write(0x1A);\n Wire.write(0x05);\n Wire.endTransmission();\n }\n \n void loop() {\n for(sensor = 2; sensor < 4; sensor++){\n TCA9548A(sensor);\n Wire.beginTransmission(0x70);\n Wire.write(0x3B);\n Wire.endTransmission();\n Wire.requestFrom(0x70, 14);\n while (Wire.available() < 14);\n axRaw = Wire.read() << 8 | Wire.read();\n ayRaw = Wire.read() << 8 | Wire.read();\n azRaw = Wire.read() << 8 | Wire.read();\n temperature = Wire.read() << 8 | Wire.read();\n gxRaw = Wire.read() << 8 | Wire.read();\n gyRaw = Wire.read() << 8 | Wire.read();\n gzRaw = Wire.read() << 8 | Wire.read();\n \n Serial.print(axRaw/1638400.0); Serial.print(\",\");\n Serial.print(ayRaw/1638400.0); Serial.print(\",\");\n Serial.print(azRaw/1638400.0); Serial.print(\",\");\n Serial.print(gxRaw/131.0); Serial.print(\",\");\n Serial.print(gyRaw/131.0); Serial.print(\",\");\n Serial.print(gzRaw/131.0);\n \n }\n Serial.println(\"\");\n delay(100);\n }\n \n```",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-15T05:55:59.363",
"favorite_count": 0,
"id": "91115",
"last_activity_date": "2022-09-15T07:09:34.877",
"last_edit_date": "2022-09-15T07:09:34.877",
"last_editor_user_id": "3060",
"owner_user_id": "53745",
"post_type": "question",
"score": 0,
"tags": [
"arduino",
"esp32",
"i2c"
],
"title": "マルチプレクサが一定の値しか送信しなくなりました",
"view_count": 64
} | [] | 91115 | null | null |
{
"accepted_answer_id": null,
"answer_count": 2,
"body": "HTMLにて、画像ボタンをクリックしたら「ファイルを開く」ダイアログを表示する機能を作成しています。\n\n画像ボタンをクリックしても「ファイルを開く」ダイアログが現れないというユーザがいました。 \n当方の環境で確認をしましたが、再現しません。 \nどのような条件で「『ファイルを開く』ダイアログが現れないことがおこりえる」と考えられるでしょうか。\n\n```\n\n <html>\n <div>\n <label for=\"FileOpen\">\n <input id=\"FileOpen\" type=\"file\" name=\"File\" class=\"FileOpen\" style=\"display: none;\"> \n <img src=\"./Test.png\" border=\"0\" style=\"cursor:pointer;\">\n </label>\n </div>\n </html>\n \n```\n\n補足: \n当方、ユーザ共にブラウザは Edge または Chromeを使用しています。 \nWebサーバは Raspberry Pi OS (Django)を使用しています。",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-15T07:10:04.230",
"favorite_count": 0,
"id": "91116",
"last_activity_date": "2022-09-16T01:24:15.190",
"last_edit_date": "2022-09-16T00:57:23.620",
"last_editor_user_id": "54246",
"owner_user_id": "54246",
"post_type": "question",
"score": 1,
"tags": [
"html"
],
"title": "HTMLの「ファイルを開く」ダイアログが表示されない場合がある",
"view_count": 434
} | [
{
"body": "自分も画像ボタンをクリックしても「ファイルを開く」ダイアログが現れないことは \nなかったですが(EdgeとIEモード、Chrome)、ソースに`<div>`が抜けてました。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-15T07:49:36.473",
"id": "91117",
"last_activity_date": "2022-09-15T08:56:18.717",
"last_edit_date": "2022-09-15T08:56:18.717",
"last_editor_user_id": "50767",
"owner_user_id": "50767",
"parent_id": "91116",
"post_type": "answer",
"score": 0
},
{
"body": "質問文から読み取れる内容だけだと関係があるかは何とも言えませんが、似た様な体験をしたことがありますので、ご参考までに回答させていただこうと思います。\n\n私の場合、ボタンが押せない、と連絡してきたユーザがブラウザのズーム機能を使って100%以外の表示をしていました。 \nそのため、ギリギリでレイアウトしていた画面の配置が一部崩れて、`<div>`だったか別の要素の領域の後に画像が配置され、見えてはいるもののいくら押しても反応しない、という現象が発生していました。\n\n可能であれば現象が発生しているユーザのブラウザのズーム率なども確認してみてはどうでしょうか。解決のヒントになれば幸いです。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-16T01:24:15.190",
"id": "91128",
"last_activity_date": "2022-09-16T01:24:15.190",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "9515",
"parent_id": "91116",
"post_type": "answer",
"score": 1
}
] | 91116 | null | 91128 |
{
"accepted_answer_id": "91144",
"answer_count": 2,
"body": "* Django 4.0.4\n * Python 3.8.9\n\nDjangoプロジェクトをGAEにデプロイしたのですが、\"502 Bad Gateway\"エラーが出ています。\nGAEのログを確認したところ以下のようなエラーでした。\n\n```\n\n Traceback (most recent call last):\n File \"/layers/google.python.pip/pip/lib/python3.8/site-packages/gunicorn/arbiter.py\", line 589, in spawn_worker\n worker.init_process()\n File \"/layers/google.python.pip/pip/lib/python3.8/site-packages/gunicorn/workers/base.py\", line 134, in init_process\n self.load_wsgi()\n File \"/layers/google.python.pip/pip/lib/python3.8/site-packages/gunicorn/workers/base.py\", line 146, in load_wsgi\n self.wsgi = self.app.wsgi()\n File \"/layers/google.python.pip/pip/lib/python3.8/site-packages/gunicorn/app/base.py\", line 67, in wsgi\n self.callable = self.load()\n File \"/layers/google.python.pip/pip/lib/python3.8/site-packages/gunicorn/app/wsgiapp.py\", line 58, in load\n return self.load_wsgiapp()\n File \"/layers/google.python.pip/pip/lib/python3.8/site-packages/gunicorn/app/wsgiapp.py\", line 48, in load_wsgiapp\n return util.import_app(self.app_uri)\n File \"/layers/google.python.pip/pip/lib/python3.8/site-packages/gunicorn/util.py\", line 359, in import_app\n mod = importlib.import_module(module)\n File \"/opt/python3.8/lib/python3.8/importlib/__init__.py\", line 127, in import_module\n return _bootstrap._gcd_import(name[level:], package, level)\n File \"<frozen importlib._bootstrap>\", line 1014, in _gcd_import\n File \"<frozen importlib._bootstrap>\", line 991, in _find_and_load\n File \"<frozen importlib._bootstrap>\", line 975, in _find_and_load_unlocked\n File \"<frozen importlib._bootstrap>\", line 671, in _load_unlocked\n File \"<frozen importlib._bootstrap_external>\", line 843, in exec_module\n File \"<frozen importlib._bootstrap>\", line 219, in _call_with_frames_removed\n File \"/workspace/SakeMarksV1/wsgi.py\", line 16, in <module>\n application = get_wsgi_application()\n File \"/layers/google.python.pip/pip/lib/python3.8/site-packages/django/core/wsgi.py\", line 12, in get_wsgi_application\n django.setup(set_prefix=False)\n File \"/layers/google.python.pip/pip/lib/python3.8/site-packages/django/__init__.py\", line 24, in setup\n apps.populate(settings.INSTALLED_APPS)\n File \"/layers/google.python.pip/pip/lib/python3.8/site-packages/django/apps/registry.py\", line 116, in populate\n app_config.import_models()\n File \"/layers/google.python.pip/pip/lib/python3.8/site-packages/django/apps/config.py\", line 304, in import_models\n self.models_module = import_module(models_module_name)\n File \"/opt/python3.8/lib/python3.8/importlib/__init__.py\", line 127, in import_module\n return _bootstrap._gcd_import(name[level:], package, level)\n File \"<frozen importlib._bootstrap>\", line 1014, in _gcd_import\n File \"<frozen importlib._bootstrap>\", line 991, in _find_and_load\n File \"<frozen importlib._bootstrap>\", line 975, in _find_and_load_unlocked\n File \"<frozen importlib._bootstrap>\", line 671, in _load_unlocked\n File \"<frozen importlib._bootstrap_external>\", line 843, in exec_module\n File \"<frozen importlib._bootstrap>\", line 219, in _call_with_frames_removed\n File \"/workspace/website/models.py\", line 1, in <module>\n import turtledemo.nim\n File \"/opt/python3.8/lib/python3.8/turtledemo/nim.py\", line 13, in <module>\n import turtle\n File \"/opt/python3.8/lib/python3.8/turtle.py\", line 107, in <module>\n import tkinter as TK\n File \"/opt/python3.8/lib/python3.8/tkinter/__init__.py\", line 36, in <module>\n import _tkinter # If this fails your Python may not be configured for Tk\n ImportError: libBLT.2.5.so.8.6: cannot open shared object file: No such file or directory \n \n```\n\nGAEのインスタンスにTKがインストールされていないか、gunicornとdjangoとの通信が失敗しているのではないかと思っているのですが、どなたかこの問題が分かる方いますでしょうか? \nよろしくお願い致します。\n\n\\-- app.yaml --\n\n```\n\n runtime: python38\n \n instance_class: F1\n \n env: standard\n \n entrypoint: gunicorn -b :$PORT <PROJECT_NAME>.wsgi:application\n \n includes:\n - secret.yaml\n \n handlers:\n - url: /static\n static_dir: static/\n - url: /.*\n script: auto\n secure: always\n \n automatic_scaling:\n max_instances: 2\n \n```\n\n\\-- settings/base.py --\n\n```\n\n from pathlib import Path\n import os\n from dotenv import load_dotenv\n \n load_dotenv()\n \n BASE_DIR = Path(__file__).resolve().parent.parent.parent\n \n AUTH_USER_MODEL = 'website.User'\n \n INSTALLED_APPS = [\n 'django.contrib.admin',\n 'django.contrib.auth',\n 'django.contrib.contenttypes',\n 'django.contrib.sessions',\n 'django.contrib.messages',\n 'django.contrib.staticfiles',\n 'website',\n 'widget_tweaks',\n 'social_django',\n 'corsheaders',\n 'django_cleanup',\n 'stdimage',\n 'storages',\n ]\n \n MIDDLEWARE = [\n 'django.middleware.gzip.GZipMiddleware',\n 'corsheaders.middleware.CorsMiddleware',\n 'django.middleware.security.SecurityMiddleware',\n 'django.contrib.sessions.middleware.SessionMiddleware',\n 'django.middleware.common.CommonMiddleware',\n 'django.middleware.csrf.CsrfViewMiddleware',\n 'django.contrib.auth.middleware.AuthenticationMiddleware',\n 'django.contrib.messages.middleware.MessageMiddleware',\n 'django.middleware.clickjacking.XFrameOptionsMiddleware',\n 'social_django.middleware.SocialAuthExceptionMiddleware',\n ]\n \n CORS_ORIGIN_ALLOW_ALL = True\n \n ROOT_URLCONF = '<PROJECT_NAME>.urls'\n \n TEMPLATES = [\n {\n 'BACKEND': 'django.template.backends.django.DjangoTemplates',\n 'DIRS': [BASE_DIR / 'templates']\n ,\n 'APP_DIRS': True,\n 'OPTIONS': {\n 'context_processors': [\n 'django.template.context_processors.debug',\n 'django.template.context_processors.request',\n 'django.contrib.auth.context_processors.auth',\n 'django.contrib.messages.context_processors.messages',\n 'social_django.context_processors.backends',\n 'social_django.context_processors.login_redirect',\n ],\n },\n },\n ]\n \n WSGI_APPLICATION = '<PROJECT_NAME>.wsgi.application'\n \n AUTH_PASSWORD_VALIDATORS = [\n {\n 'NAME': 'django.contrib.auth.password_validation.UserAttributeSimilarityValidator',\n },\n {\n 'NAME': 'django.contrib.auth.password_validation.MinimumLengthValidator',\n },\n {\n 'NAME': 'django.contrib.auth.password_validation.CommonPasswordValidator',\n },\n {\n 'NAME': 'django.contrib.auth.password_validation.NumericPasswordValidator',\n },\n ]\n \n AUTHENTICATION_BACKENDS = (\n 'social_core.backends.open_id.OpenIdAuth',\n 'social_core.backends.google.GoogleOAuth2',\n 'social_core.backends.facebook.FacebookOAuth2',\n 'django.contrib.auth.backends.ModelBackend',\n )\n \n EMAIL_BACKEND = 'django.core.mail.backends.console.EmailBackend'\n \n LANGUAGE_CODE = 'ja'\n \n TIME_ZONE = 'Asia/Tokyo'\n \n USE_I18N = True\n \n USE_TZ = True\n \n PROJECT_NAME = os.path.basename(BASE_DIR)\n \n STATIC_URL = 'static/'\n STATICFILES_DIRS = [os.path.join(BASE_DIR, 'static')]\n STATIC_ROOT = f'var/www/{PROJECT_NAME}/static'\n \n \n MEDIA_ROOT = os.path.join(BASE_DIR, 'media')\n MEDIA_URL = '/media/'\n \n LOGIN_REDIRECT_URL = 'index'\n LOGOUT_REDIRECT_URL = 'index'\n \n DEFAULT_AUTO_FIELD = 'django.db.models.BigAutoField'\n \n \n```\n\n\\-- settings/production.py --\n\n```\n\n from .base import *\n \n SECRET_KEY = os.getenv('SECRET_KEY')\n \n DEBUG = False\n \n ALLOWED_HOSTS = ['<CUSTOM_DOMAIN>']\n \n # データベース\n import pymysql\n \n pymysql.install_as_MySQLdb()\n \n DATABASES = {\n 'default': {\n 'ENGINE': 'django.db.backends.mysql',\n 'HOST': '/cloudsql/' + os.getenv('DB_CONNECTION_NAME'),\n 'USER': os.getenv('DB_USER'),\n 'PASSWORD': os.getenv('DB_PASSWORD'),\n 'NAME': os.getenv('DB_NAME'),\n }\n }\n \n \n # ストレージ\n from google.oauth2 import service_account\n GS_CREDENTIALS = service_account.Credentials.from_service_account_file(\n os.path.join(BASE_DIR, '<PROJECT_NAME>/settings/<CREDENTIAL_FILE>.json')\n )\n \n DEFAULT_FILE_STORAGE = 'storages.backends.gcloud.GoogleCloudStorage'\n STATICFILES_STORAGE = 'storages.backends.gcloud.GoogleCloudStorage'\n \n GS_BUCKET_NAME = os.getenv('GS_BUCKET_NAME')\n GS_PROJECT_ID = '<PROJECT_NAME>'\n \n # ソーシャルログイン\n SOCIAL_AUTH_GOOGLE_OAUTH2_KEY = os.getenv('SOCIAL_AUTH_GOOGLE_OAUTH2_KEY')\n SOCIAL_AUTH_GOOGLE_OAUTH2_SECRET = os.getenv('SOCIAL_AUTH_GOOGLE_OAUTH2_SECRET')\n \n SOCIAL_AUTH_FACEBOOK_KEY = os.getenv('SOCIAL_AUTH_FACEBOOK_KEY')\n SOCIAL_AUTH_FACEBOOK_SECRET = os.getenv('SOCIAL_AUTH_FACEBOOK_SECRET')\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-15T08:06:43.283",
"favorite_count": 0,
"id": "91118",
"last_activity_date": "2022-09-19T10:58:19.327",
"last_edit_date": "2022-09-19T10:58:19.327",
"last_editor_user_id": "3060",
"owner_user_id": "54404",
"post_type": "question",
"score": 0,
"tags": [
"python",
"django",
"tkinter",
"google-app-engine"
],
"title": "GAEにデプロイしたDjangoで502 Bad Gatewayになる & \"libBLT.2.5.so.8.6 No such file or directory\"",
"view_count": 327
} | [
{
"body": "Google App Engine はブラウザ上で動作する環境であり、Tk\nのようなデスクトップアプリ向けのライブラリを必要とするプログラムはそもそも動かないと思います。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-17T11:03:30.933",
"id": "91144",
"last_activity_date": "2022-09-17T11:03:30.933",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "3060",
"parent_id": "91118",
"post_type": "answer",
"score": 0
},
{
"body": "こちらcubickさんの回答を参考に自己解決できました。 \n`views.py`で、アプリケーションでは使わない`turtledemo`というライブラリがimportされており、これがTKを必要としていたことが原因のようです。 \nPyCharmの自動補完で勝手にimport文が追加されていたようです。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T05:08:27.477",
"id": "91171",
"last_activity_date": "2022-09-19T05:08:27.477",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54404",
"parent_id": "91118",
"post_type": "answer",
"score": 0
}
] | 91118 | 91144 | 91144 |
{
"accepted_answer_id": null,
"answer_count": 2,
"body": "以下の動画の6:00〜によると、不要領域が増えるとメモリにキャッシュされにくくなるとのことです。 \n一方、7:30〜によるとFULLでないVACUUMは不要領域をFSMに登録するだけと言われています。 \nこれではVACUUM後も相変わらず、ディスクの半分が不要領域だとするとキャッシュ用メモリが1GBあっても0.5GB分のレコードしかキャッシュできないのではないでしょうか?\n\n[今、改めて学ぶVACUUM 佐藤 友章\n(YouTube)](https://www.youtube.com/watch?v=TMAWwonPGmU&t=2230s)",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-15T11:23:53.810",
"favorite_count": 0,
"id": "91121",
"last_activity_date": "2022-09-16T05:22:33.940",
"last_edit_date": "2022-09-15T11:42:11.723",
"last_editor_user_id": "3060",
"owner_user_id": "13882",
"post_type": "question",
"score": 0,
"tags": [
"postgresql"
],
"title": "PostgreSQLで(FULLでない)VACUUMするとメモリにキャッシュされやすくなりますか?",
"view_count": 212
} | [
{
"body": "文言「不要領域」が何なのかわかりませんが、データーベースファイルのうち今この瞬間には読み書きしなくて事足りる領域のことなら、そこは読み書きされないのだからキャッシュメモリを使いません。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-16T02:48:03.093",
"id": "91129",
"last_activity_date": "2022-09-16T02:48:03.093",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "8589",
"parent_id": "91121",
"post_type": "answer",
"score": -1
},
{
"body": "> 以下の動画の6:00〜によると、不要領域が増えるとメモリにキャッシュされにくくなるとのことです。\n\nここでいうキャッシュとはPostgreSQLが管理するもので、ディスクから読んだデータをメモリ上に保持しているようです。 \n不要領域とはUPDATE時の旧データやDELETEされた行のデータのことで内部的に削除フラグが立つだけの論理削除のようです。キャッシュされた8KB単位のページには不要領域も含まれるためキャッシュに占める有効なデータ(不要領域でないデータ)が少なくなります。\n\n> 一方、7:30〜によるとFULLでないVACUUMは不要領域をFSMに登録するだけと言われています。 \n>\n> これではVACUUM後も相変わらず、ディスクの半分が不要領域だとするとキャッシュ用メモリが1GBあっても0.5GB分のレコードしかキャッシュできないのではないでしょうか?\n\nFULLでないVACUUM直後は不要領域が再利用されていないので状況に変わりないと思います。その後のUPDATEやINSERTで不要領域は再利用されるので有効なキャッシュのデータの比率は増えていきます。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-16T05:21:23.957",
"id": "91134",
"last_activity_date": "2022-09-16T05:22:33.940",
"last_edit_date": "2022-09-16T05:22:33.940",
"last_editor_user_id": "3060",
"owner_user_id": "35558",
"parent_id": "91121",
"post_type": "answer",
"score": 0
}
] | 91121 | null | 91134 |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "いろいろなサイトを見ても `placeholder` と `session`\nの機能がよくわからなかったため、tensorflow2.0では直接コードを書けばいいと言われてもどうやって書けばいいのかわかりません。 \n説明だけではなくコードも例を用いて一緒に教えて欲しいです。 \nあとこの二つ以外にもtensorflowのアップデートで消えた機能を教えて欲しいです、お願いします。 \ntensorflowをダウングレードしたり以前の機能を引き継いだりするといったことはしたくありません。",
"comment_count": 4,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-15T13:44:50.213",
"favorite_count": 0,
"id": "91122",
"last_activity_date": "2022-09-15T16:57:27.920",
"last_edit_date": "2022-09-15T16:57:27.920",
"last_editor_user_id": "3060",
"owner_user_id": "43775",
"post_type": "question",
"score": -1,
"tags": [
"python",
"python3",
"tensorflow"
],
"title": "tensorflow2.0で廃止された placeholder と session について詳しく教えてください",
"view_count": 1038
} | [
{
"body": "私自身は TensorFlow を使ったことがないので今回少し調べた程度になります。\n\n* * *\n\n[Tensorflow 2で1系記法のCNNを動かす方法 -\nQiita](https://qiita.com/rawHam/items/626d9b119cbefcee1452)\nで紹介されている、以下のガイドが参考になりそうです。\n\n[TensorFlow 1 のコードを TensorFlow 2 に移行する | TensorFlow\nCore](https://www.tensorflow.org/guide/migrate)\n\n### 方法1\n\n> TensorFlow 2.x で 1.x のコードを未修正で実行することは、(contrib を除き)依然として可能です。\n```\n\n> import tensorflow.compat.v1 as tf tf.disable_v2_behavior()\n> \n```\n\n>\n> しかし、これでは TensorFlow 2.0\n> で追加された改善の多くを活用できません。このガイドでは、コードのアップグレード、さらなる単純化、パフォーマンス向上、そしてより容易なメンテナンスについて説明します。\n\n既存コードの以下 `import` 文を、上記の記述に置き換えるという事のようです。\n\n```\n\n import tensorflow as tf\n \n```\n\n### 方法2\n\nもしくは、前述の Qiita の記事に書かれている通り、既存コードの記述を `tf.compat.v1.*` の記述に変更する方法もあるようです。\n\n> コード内の '1系' の列に該当するAPIを '2系' にある記載の通りに変更する。\n\n# | 1.x 系 | 2.x 系 \n---|---|--- \n1 | tf.placeholder | tf **.compat.v1**.placeholder \n2 | tf.Session() | tf **.compat.v1**.Session() \n \n他にも自動移行スクリプトなども用意されているようなので、[TensorFlow\nのガイド](https://www.tensorflow.org/guide/migrate) に目を通してみてください。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-15T16:55:09.100",
"id": "91123",
"last_activity_date": "2022-09-15T16:55:09.100",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "3060",
"parent_id": "91122",
"post_type": "answer",
"score": 0
}
] | 91122 | null | 91123 |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "runボタンを押してandroidのエミュレータを起動させようとしたんですが、下記のようなエラーが発生して動きません。\n\nエラー文 \n[](https://i.stack.imgur.com/94Bf2.png)\n\n以下の投稿を参考にkotlinのバージョンを上げたんですが、だめでした。\n\n[Your project requires a newer version of the Kotlin Gradle plugin. (Android\nStudio) - Stack Overflow](https://stackoverflow.com/questions/70919127/your-\nproject-requires-a-newer-version-of-the-kotlin-gradle-plugin-android-stud)\n\n修正したコード \n/Users/fujitayuusaku/Private/sample/flutter_app/my_first_app/android/build.gradle\n\n```\n\n buildscript {\n ext.kotlin_version = '1.7.0' // Change here\n repositories {\n google()\n mavenCentral()\n }\n \n dependencies {\n classpath 'com.android.tools.build:gradle:4.1.0'\n classpath \"org.jetbrains.kotlin:kotlin-gradle-plugin:$kotlin_version\"\n }\n }\n \n allprojects {\n repositories {\n google()\n mavenCentral()\n }\n }\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-16T00:12:18.947",
"favorite_count": 0,
"id": "91124",
"last_activity_date": "2022-09-26T07:05:15.883",
"last_edit_date": "2022-09-16T00:34:57.267",
"last_editor_user_id": "3060",
"owner_user_id": "42008",
"post_type": "question",
"score": 0,
"tags": [
"android",
"android-studio",
"kotlin",
"flutter",
"dart"
],
"title": "androidのエミュレータが起動しない",
"view_count": 127
} | [
{
"body": "こんにちは。解決しましたか?このサイトを参考にしてみてはどうでしょうか? \n<https://minpro.net/flutter-2-10-your-project-requires-a-newer-version-of-the-\nkotlin-gradle-plugin>",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-26T07:05:15.883",
"id": "91306",
"last_activity_date": "2022-09-26T07:05:15.883",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "45538",
"parent_id": "91124",
"post_type": "answer",
"score": 0
}
] | 91124 | null | 91306 |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "開発環境は \nサーバOS : Raspberry Pi OS \nサーバ側:Python(Django) \nクライアント側:HTML+JavaScript\n\nパスワード入力によるログインが必要なWebサイトを作成しています。 \n一定時間操作が行われなかった場合、強制的にログアウトとする仕様にしています。\n\nWebサイト内では、ファイルのインポート/エクスポートが行える画面があります。 \n現在、インポート時にファイルダイアログを出しっぱなしにしていても \n一定時間操作が行われなかった場合、強制的にログアウトとなります。 \nその場合、ファイルダイアログが出しっぱなしとなってしまいます。 \nこの動きはおかしいのではないかと思いましたが、一般的にはどのような動作が良いのでしょうか? \n(インポートが完了するまでログアウトはしないといった仕様にしていることが多いのでしょうか?)",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-16T01:09:31.427",
"favorite_count": 0,
"id": "91125",
"last_activity_date": "2022-09-16T04:05:42.040",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54246",
"post_type": "question",
"score": 0,
"tags": [
"python",
"javascript",
"html",
"django"
],
"title": "ログインが必要なWebサイトでのファイルダイアログの制御について",
"view_count": 142
} | [
{
"body": ">\n> インポート時にファイルダイアログを出しっぱなしにしていても一定時間操作が行われなかった場合、強制的にログアウトとなります。その場合、ファイルダイアログが出しっぱなしとなってしまいます。この動きはおかしいのではないかと思いましたが、一般的にはどのような動作が良いのでしょうか?\n\n質問者さんの使っている認証システムがどういうものか不明ですが・・・\n\n例えばよくある認証チケットをクッキーに入れてやり取りし、認証チケットには有効期限があって、それが切れた場合とかの話であれば何ともならないはずです。\n\nたとえばユーザーがログインしたあと長時間席を外して認証チケットの有効期限が切れた場合、ブラウザに表示されているのは席を外した時の画面そのままです。ユーザーが席を外している間に、サーバー側で有効期限をチェックして、期限が切れていたら画面を変更するなんてことはできません。\n\nおかしいと思っても何ともならないです。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-16T04:05:42.040",
"id": "91131",
"last_activity_date": "2022-09-16T04:05:42.040",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "51338",
"parent_id": "91125",
"post_type": "answer",
"score": 0
}
] | 91125 | null | 91131 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "curl -IでCloudFrontの挙動を確認したら、HTTP/2 301でリダイレクトでレスポンスが返ってきます。 \nブラウザ上でも、代替えドメイン名からALBのドメインにリダイレクトされます。\n\n通常の200で返ってくるようにして、ドメインがリダイレクトされないようにしたいので \n原因、解消方法をアドバイス頂きたいです。 \n[](https://i.stack.imgur.com/rTokN.png)\n\nオリジン\n\n * オリジンにはALBを指定\n * ALBのターゲットはポート80でECS(FAGATE)に向けている\n * リスナーはhttp(80)とhttps(443)で、httpはhttpsにリダイレクトされるようにしている\n\nCloudFront\n\n * 代替えドメインを発行して、Route53でエイリアスで指定している\n * オリジンプロトコルはHTTPSのみ\n * ビヘイビアはビューワープロトコルがHTTPからHTTPSへリダイレクト\n * httpメソッドはGET, HEAD, OPTIONS, PUT, POST, PATCH, DELETE\n * キャッシュポリシーのヘッダーにAuthorizationHeaderを含めるようにしている\n * 他はデフォルト設定\n\n試したこと\n\n * キャッシュキーにhostヘッダーを含める→今度は502を返すようになる(error from CloudFront)\n * CloudFront とオリジン間の通信をHTTPSのみを利用するようにする→変わらず301応答\n * キャッシュポリシーをCachingOptimizedにする→変わらず\n\n参考にしたドキュメント\n\n * <https://qiita.com/yuta_vamdemic/items/f717a022539a3e6836f7>\n * <https://repost.aws/questions/QUC9nkA3S1Ti2y9vUyL7e2ZA/cloud-front-redirects-301-to-custom-origin-elb-instead-of-caching>\n * <https://aws.amazon.com/jp/premiumsupport/knowledge-center/custom-origin-cloudfront-fails/>",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-16T03:07:35.550",
"favorite_count": 0,
"id": "91130",
"last_activity_date": "2022-09-16T03:07:35.550",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54409",
"post_type": "question",
"score": 0,
"tags": [
"aws",
"amazon-elb"
],
"title": "AWS CloudFrontを導入したら301(リダイレクト)でレスポンスが返ってくるので、リダイレクトされないようにしたい",
"view_count": 353
} | [] | 91130 | null | null |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "よろしくお願い申し上げます。 \nPycaretを使用し、機械学習を行い、ROC曲線を記載すると、その前の図とAUCが大きく異なります。 \n何か問題があるのでしょうか? \n何卒よろしくお願い申し上げます。[](https://i.stack.imgur.com/u6lVj.png)\n\n環境:Googlecolab",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-16T04:52:13.397",
"favorite_count": 0,
"id": "91133",
"last_activity_date": "2022-09-16T04:52:13.397",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54416",
"post_type": "question",
"score": 0,
"tags": [
"python",
"機械学習"
],
"title": "Pycaret, ROC曲線作成時のPlot_modelの時に、ROC_AUCが下がることについて",
"view_count": 70
} | [] | 91133 | null | null |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "### 背景/現状\n\nRuby 3.1.2 と Rails 7.0.4 を用いて、ローカルに開発環境を構築したい\n\n#### 環境\n\nM1チップ \nBig Sur ver 11.2.3 \nRuby 3.1.2\n\n### やりたいこと\n\nRails 7.0.4 をインストールしたい\n\n### 実際に出てるエラーメッセージ\n\n`gem install rails -v 7.0.4` 実行時\n\n```\n\n cannot load such file -- psych (LoadError)\n \n```\n\n### 既に試したこと\n\nrbenvアンインストール後、再度インストールし実行\n\n### 他におかしいと思うこと\n\n・`rails -v` 実行時、\"zsh: command not found: rails\" が出ずに以下が出る\n\n```\n\n rails -v\n rbenv: rails: command not found\n \n The `rails' command exists in these Ruby versions:\n 2.7.6\n \n```\n\n・`bundle install` 実行時\n\n\"Could not locate Gemfile\" と表示される\n\n■iterms画面(文字列貼り付け)\n\n```\n\n hirokinagai@HirokinoMBP ~ % gem list\n <internal:/Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/core_ext/kernel_require.rb>:85:in `require': cannot load such file -- psych (LoadError)\n from <internal:/Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/core_ext/kernel_require.rb>:85:in `require'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems.rb:609:in `load_yaml'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/config_file.rb:346:in `load_file'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/config_file.rb:189:in `initialize'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/gem_runner.rb:73:in `new'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/gem_runner.rb:73:in `do_configuration'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/gem_runner.rb:38:in `run'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/bin/gem:21:in `<main>'\n hirokinagai@HirokinoMBP ~ % gem install rails -v 7.0.4\n <internal:/Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/core_ext/kernel_require.rb>:85:in `require': cannot load such file -- psych (LoadError)\n from <internal:/Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/core_ext/kernel_require.rb>:85:in `require'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems.rb:609:in `load_yaml'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/config_file.rb:346:in `load_file'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/config_file.rb:189:in `initialize'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/gem_runner.rb:73:in `new'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/gem_runner.rb:73:in `do_configuration'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/lib/ruby/3.1.0/rubygems/gem_runner.rb:38:in `run'\n from /Users/hirokinagai/.rbenv/versions/3.1.2/bin/gem:21:in `<main>'\n hirokinagai@HirokinoMBP ~ % ruby -v\n ruby 3.1.2p20 (2022-04-12 revision 4491bb740a) [x86_64-darwin20]\n hirokinagai@HirokinoMBP ~ % rails -v\n rbenv: rails: command not found\n \n The `rails' command exists in these Ruby versions:\n 2.7.6\n \n hirokinagai@HirokinoMBP ~ % which ruby\n /Users/hirokinagai/.rbenv/shims/ruby\n hirokinagai@HirokinoMBP ~ % which rails\n /Users/hirokinagai/.rbenv/shims/rails\n hirokinagai@HirokinoMBP ~ % which gem\n /Users/hirokinagai/.rbenv/shims/gem\n hirokinagai@HirokinoMBP ~ % bundle install\n Could not locate Gemfile\n hirokinagai@HirokinoMBP ~ % bundle update\n Could not locate Gemfile\n hirokinagai@HirokinoMBP ~ %\n \n```\n\n■参考画像\n\n[](https://i.stack.imgur.com/qFgQm.jpg)",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-16T09:07:19.070",
"favorite_count": 0,
"id": "91135",
"last_activity_date": "2023-07-24T02:01:25.133",
"last_edit_date": "2022-09-16T12:42:47.087",
"last_editor_user_id": "3060",
"owner_user_id": "45480",
"post_type": "question",
"score": 0,
"tags": [
"ruby-on-rails"
],
"title": "Rails 7.0.4 のインストールができない (エラー:cannot load such file -- psych (LoadError))",
"view_count": 623
} | [
{
"body": "> bundle install 実行時 \n> \"Could not locate Gemfile\" と表示される\n\nそもそもプロジェクトの準備ができていないのでは? \nプロジェクトフォルダ内にGemfileを用意してから、フォルダ内にrailsをインストールしてください。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-17T01:33:43.537",
"id": "91140",
"last_activity_date": "2022-09-17T01:33:43.537",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "43005",
"parent_id": "91135",
"post_type": "answer",
"score": 0
}
] | 91135 | null | 91140 |
{
"accepted_answer_id": "91510",
"answer_count": 1,
"body": "Githubのリポジトリをクローンし、それをwindows10環境下のgitをインストールしたVisual Studio\nCodeで内容を書き換えコミットし、それをGitHubにプッシュしようとしたところ、以下のエラーが表示されました。 \nまた、プッシュと同様にプルも同じエラー文が表示されました。\n\n```\n\n fatal: unable to access 'https://github.com/XXX/XXXXX.git/': OpenSSL SSL_connect: Connection was reset in connection to github.com:443\n \n```\n\n二か月前まではVSCode内でプル/プッシュ共にできたのですが、二か月ぶりに行おうとしたところ、エラー文が表示されるようになりました。\n\nエラー文で検索したところ、下記を打ち込めばいいと書かれているので試したのですが、解決しませんでした。\n\n```\n\n git config --global --unset-all remote.origin.proxy\n \n```\n\n正常にプッシュするにはどうすればよいでしょうか? \n素人程度の知識しかないので情報が不足していたらすみません。",
"comment_count": 5,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-16T12:12:35.070",
"favorite_count": 0,
"id": "91136",
"last_activity_date": "2022-10-09T11:31:36.497",
"last_edit_date": "2022-09-16T12:57:39.120",
"last_editor_user_id": "3060",
"owner_user_id": "54425",
"post_type": "question",
"score": 0,
"tags": [
"git",
"github"
],
"title": "GitHub にプッシュしようとすると \"SSL_connect: Connection was reset in connection to github.com:443\" エラーが発生する",
"view_count": 2104
} | [
{
"body": "Yahoo知恵袋で質問したところ、問題が解決したためこちらにも解決方法を記載いたします。\n\n参考URL: <https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q14269174659>\n\n私はプル/プッシュ先としてhttpsで指定したURLを使っていました。 \n理由は、以前はSSHを使うとエラーが発生していたからです。 \n今回、httpsのURLではなくSSHの方に変更したところ、正常にプル/プッシュできるようになりました。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-10-09T11:31:36.497",
"id": "91510",
"last_activity_date": "2022-10-09T11:31:36.497",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54425",
"parent_id": "91136",
"post_type": "answer",
"score": 0
}
] | 91136 | 91510 | 91510 |
{
"accepted_answer_id": "91146",
"answer_count": 3,
"body": "現在私はPython\n(ラズパイ)で計算した数値をC言語(Arduino)にfloatとして送信することを目標としています.なぜそうしたいかというとある深層学習中のモデルからの指令値をArduinoに渡してモーター速度を制御したいためです.リアルタイムでの学習ですのでRaspiにはそのことに集中してもらいたいです. \nI2CのRaspi ->\nArduino(float)についてネットで,英語/日本語どちらもの検索をしましたが,解決策を統一的に載せている方がいなかったので,改めましてステップバイステップでみなさんの意見を伺いたく質問させていただきます.\n\n私が考えるに,以下のようなステップがあり,そしてそのステップの実現方法がわからないため,教えてくださいませ.\n\n 1. Pythonで送信したい数字(speedと名づけます)を,Cが読める型に変更します.\n 2. おそらくそれは4byteなので,Pythonはそれを区切って送信します\n 3. Cは受け取った4byteを繋げてfloatとしてspeedを復元します\n\n各ステップについて,やり方あるいはライブラリを知っていれば是非教えて下さい.よろしくお願いします",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-17T00:07:08.243",
"favorite_count": 0,
"id": "91138",
"last_activity_date": "2022-09-19T02:06:54.967",
"last_edit_date": "2022-09-17T11:38:36.870",
"last_editor_user_id": "3060",
"owner_user_id": "41334",
"post_type": "question",
"score": 0,
"tags": [
"python",
"c",
"raspberry-pi",
"arduino"
],
"title": "Python (ラズパイ)で計算した数値をC言語(Arduino)にfloatとして送信したいです",
"view_count": 337
} | [
{
"body": "以下の理由で、質問に提示した方法そのままでの通信はやめておいた方が良いでしょう。\n\nI2Cを含むシリアル通信は1バイト単位で行われるもので、通信に関わるAPI・デバイスドライバ・ハードウェア等のすべてがその時点で送受信対象の各バイトがどのような属性のデータ(構造の一部)であるかの情報を持っていません。\n\nつまり浮動小数点数のようにそれぞれのバイトが0x00から0xFFまでのどんな値でも取り得る、複数のバイトで構成されるデータがあった時に、その先頭・最後・途中の順番を表すものは何もないわけです。\n\n浮動小数点数のデータだけを通信している場合、そのほとんどは問題無く通信出来るとは思われますが、何かの事象があって順番がズレた場合に、そのズレを検出したり修正する方法はほぼありません。 \n強いて言えば各バイト間の時間間隔を計測して指定以上の時間が経過したらそこで区切ると言ったものですが、かえって重い処理になったりタイミングや処理性能にシビアになったりします。\n\n参考: \n[Raspberry PiでI2C通信をする](https://www.raspberrypirulo.net/entry/raspberrypi-i2c) \n[Arduino初心者編:I2C通信によるArduino間のデータ送受信](https://stemship.com/arduino-\nbeginner-i2c/) \n[ラズパイ(Raspberry Pi)とArduinoをI2Cで接続【基本編】\nラズパイからPythonのSMBusモジュールを使ってArduinoにデータを送信しよう](https://deviceplus.jp/raspberrypi/raspberry-\npi-and-arduino-connect-with-i2c-01/)\n\n* * *\n\nではどのようにすれば良いかと言うと、以下のように考えましょう。\n\n * 1件のデータの開始を示すデータを定義する \n例えばモーター制御用に`M`あるいは速度なら`S`とするなど\n\n * 浮動小数点データは文字列に変換する\n\n * 単純に`str()`関数で処理すれば、可変長にはなりますが特別な処理は不要だし、何かプログラム上(別の処理でも)の不具合があった時に確認するのが簡単になります。\n * 浮動小数点データを4バイトの配列に見立てて16進数文字列に変換する方法もあります。8文字の固定長なのでバッファに関する扱いは簡単になるでしょう。\n * 1件のデータの終了を示すデータを定義する \n単純に改行コードの0x0D(`'\\r'`)だけでも良いし、更に1件分のデータのチェックサム等を付けても良いでしょう。\n\n[浮動小数点数内部表現シミュレーター](https://tools.m-bsys.com/calculators/ieee754.php)\n\n* * *\n\n送信側(Raspberry Pi, Python)では上記を連結して1件のデータとし、1バイトづつ送信していけば良いでしょう。\n\n浮動小数点データを16進数文字列に変換する方法には、以下のような記事が使えるでしょう。 \n[Pythonで浮動小数点数floatと16進数表現の文字列を相互に変換](https://note.nkmk.me/python-float-hex/) \n[How to convert a float into\nhex](https://stackoverflow.com/q/23624212/9014308) \n[Python program to represent floating number as hexadecimal by IEEE 754\nstandard](https://www.geeksforgeeks.org/python-program-to-represent-floating-\nnumber-as-hexadecimal-by-ieee-754-standard/)\n\n* * *\n\n受信側(Arduino, C)では受信したデータを判定しつつバッファに格納し、1件分のデータが揃ったら浮動小数点数に変換すれば良いでしょう。\n\n可変長の文字列であれば[String.toFloat()](https://garretlab.web.fc2.com/arduino_reference/language/variables/data_types/String/functions/toFloat.html)とかの標準的な関数が使えるでしょう。 \n16進数文字列なら、バイトの配列に変換してからそのアドレスを使って(float *)とかで浮動小数点扱いに出来るのでは? \n[Convert IEEE 754 32 to float](https://forum.arduino.cc/t/convert-\nieee-754-32-to-float/323109)",
"comment_count": 8,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-17T13:26:11.033",
"id": "91146",
"last_activity_date": "2022-09-17T13:26:11.033",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "26370",
"parent_id": "91138",
"post_type": "answer",
"score": 2
},
{
"body": "floatで送信する、ってのは筋が悪いです。\n\nラズパイ側からは生データのバイナリデータを送信し、それをarduino側でfloatに変換するようにしましょう。 \nそもそもシリアル通信する時間に比べれば、float変換する時間は誤差程度しかないですよ",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-17T22:38:40.467",
"id": "91148",
"last_activity_date": "2022-09-17T22:38:40.467",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "27481",
"parent_id": "91138",
"post_type": "answer",
"score": 2
},
{
"body": "ラズパイとArduinoの通信はシリアル通信での通信でしょうか? \n私の場合、シリアル通信で2つのボード間の通信を行う場合、テキストに変換して \n通信しています。 \nテキストに変換した場合、ターミナルソフト等で別々にテスト、動作確認を \n行うことが容易になります。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T02:06:54.967",
"id": "91166",
"last_activity_date": "2022-09-19T02:06:54.967",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "24490",
"parent_id": "91138",
"post_type": "answer",
"score": 1
}
] | 91138 | 91146 | 91146 |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "### 前提\n\nawsのsagemakerにて音響モデルを用いたTTSシステムを作っています。\n\n### 実現したいこと\n\nsagemakerで音響モデルをデプロイしたいと考えています。\n\n### 発生している問題・エラーメッセージ\n\nデプロイ時に下記のエラーが繰り返し発生します。\n\n```\n\n Please specify --force/-f option to overwrite the model archive output file.\n See -h/--help for more details./.sagemaker/mms/models/model\n ERROR - %s already exists.\n \n```\n\n### 以下、デプロイ用コード\n\n```\n\n from sagemaker import get_execution_role\n from sagemaker.pytorch.model import PyTorchModel\n \n role = get_execution_role()\n \n pytorch_model = PyTorchModel(model_data='s3://sagemaker-alterly/model.tar.gz', \n role=role,\n framework_version=\"1.3.1\",\n py_version=\"py3\",\n entry_point='inference.py')\n \n predictor = pytorch_model.deploy(instance_type='ml.t2.2xlarge', initial_instance_count=1)\n \n```\n\n※entry_pointの推論コード:iference.py\n\n```\n\n import os\n import time\n import torch\n import pyopenjtalk\n from espnet2.bin.tts_inference import Text2Speech\n import matplotlib.pyplot as plt\n from espnet2.tasks.tts import TTSTask\n from espnet2.text.token_id_converter import TokenIDConverter\n import numpy as np\n \n import argparse\n import text_processing as texp\n import os\n \n import boto3\n \n prosodic = True\n \n model_dir = \"model/\"\n vocoder_dir = \"vocoder/\"\n CONTENT_TYPE = \"text/plain\"\n \n train_config = \"model/config.yaml\"\n model_file = \"model/50epoch.pth\"\n # train_config=\"\"\n # model_file=\"\n \n vocoder_tag = \"parallel_wavegan/jsut_hifigan.v1\"\n # ボコーダを指定\n vocoder_config = \"vocoder/config.yaml\"\n vocoder_file = \"vocoder/50epoch.pth\"\n \n \n def model_fn(model_dir):\n print(model_dir + \"config.yaml\")\n print(model_dir + \"100epoch.pth\")\n model = Text2Speech.from_pretrained(\n train_config=model_dir + \"config.yaml\",\n model_file=model_dir + \"100epoch.pth\",\n vocoder_tag=vocoder_tag,\n device=\"cpu\",\n speed_control_alpha=1.0,\n noise_scale=0.333,\n noise_scale_dur=0.333,\n )\n \n return model\n \n \n def input_fn(request_body, content_type=CONTENT_TYPE):\n input_data = \"あいうえお\"\n return input_data\n \n \n def predict_fn(input_data, model):\n import torch\n import os\n import numpy as np\n \n x = \"デモテキスト\"\n \n # model, train_args = TTSTask.build_model_from_file(\n # train_config, model_file, \"cuda\"\n # )\n \n token_id_converter = TokenIDConverter(\n token_list=model.train_args.token_list,\n unk_symbol=\"<unk>\",\n )\n \n text = x\n if prosodic:\n tokens = texp.a2p(x)\n text_ints = token_id_converter.tokens2ids(tokens)\n text = np.array(text_ints)\n else:\n print(\"\\npyopenjtalk_accent_with_pauseによる解析結果:\")\n print(texp.text2yomi(x), \"\\n\")\n \n # synthesis\n with torch.no_grad():\n start = time.time()\n data = model(text)\n wav = data[\"wav\"]\n # print(text2speech.preprocess_fn(\"<dummy>\",dict(text=x))[\"text\"])\n rtf = (time.time() - start) / (len(wav) / model.fs)\n print(f\"RTF = {rtf:5f}\")\n \n if not os.path.isdir(\"generated_wav\"):\n os.makedirs(\"generated_wav\")\n \n # let us listen to generated samples\n from IPython.display import display, Audio\n import numpy as np\n #display(Audio(wav.view(-1).cpu().numpy(), rate=text2speech.fs))\n #Audio(wav.view(-1).cpu().numpy(), rate=text2speech.fs)\n np_wav = wav.view(-1).cpu().numpy()\n \n fs = 48000\n print(\"サンプリングレート\", fs, \"で出力します。\")\n from scipy.io.wavfile import write\n samplerate = fs\n t = np.linspace(0., 1., samplerate)\n amplitude = np.iinfo(np.int16).max\n data = amplitude * np_wav/np.max(np.abs(np_wav))\n write(\"espnet/egs2/jsut/tts1/generated_wav/\"+x +\n \".wav\", samplerate, data.astype(np.int16))\n print(\"\\n\\n\\n\")\n \n # バケットへの接続\n s3 = boto3.resource('s3')\n bucket = s3.Bucket('alterly-source')\n bucket.upload_file(\"espnet/egs2/jsut/tts1/generated_wav/\" +\n x + \".wav\", \"source/\"+x+\".wav\")\n \n x = \"exit\"\n \n \n input_object = input_fn(\"あいうえお\", \"text/plain\")\n model = model_fn(model_dir)\n prediction = predict_fn(input_object, model)\n \n```\n\n以下のコマンドで実行\n\n```\n\n !inference.py\n \n```\n\n### 補足情報\n\n圧縮前のディレクトリ構造は下記です。\n\n[](https://i.stack.imgur.com/5jQAW.png)\n\nこちらをmodel.tar.gzに圧縮してs3に設置しています。\n\n急ぎの案件のため、他サイトでも相談させてもらっています。 \n進捗があった際にはこちらにも共有いたします。 \n<https://teratail.com/questions/j8ux53rs8n7v2t>\n\n対処方法をご存知の方がいましたら、ご教授いただけますと幸いです。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-17T08:57:32.527",
"favorite_count": 0,
"id": "91142",
"last_activity_date": "2022-09-20T05:22:52.203",
"last_edit_date": "2022-09-20T01:57:48.850",
"last_editor_user_id": "53797",
"owner_user_id": "53797",
"post_type": "question",
"score": 0,
"tags": [
"python",
"python3",
"aws",
"機械学習"
],
"title": "sagemaker環境にてデプロイに失敗する",
"view_count": 114
} | [
{
"body": "自己解決しました。 \n下記のコードの `flamework_version` と `py_version` で指定する値をそれぞれ修正したところ改善しました。\n\n誤:\n\n```\n\n pytorch_model = PyTorchModel(model_data='s3://sagemaker-alterly/model.tar.gz',\n role=role,\n framework_version=\"1.3.1\",\n py_version=\"py3\",\n entry_point='inference.py')\n \n```\n\n正:\n\n```\n\n pytorch_model = PyTorchModel(model_data='s3://sagemaker-alterly/model.tar.gz',\n role=role,\n framework_version=\"1.12\",\n py_version=\"py38\",\n entry_point='inference.py')\n \n```\n\nコメント等いただいた方、お手数おかけして失礼しました。 \n誠にありがとうございました。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T03:15:13.343",
"id": "91188",
"last_activity_date": "2022-09-20T05:22:52.203",
"last_edit_date": "2022-09-20T05:22:52.203",
"last_editor_user_id": "3060",
"owner_user_id": "53797",
"parent_id": "91142",
"post_type": "answer",
"score": 0
}
] | 91142 | null | 91188 |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "現在Webaアプリケーションを作成しながらプログラミングの学習をしているものです。 \njQueryのSortableを使用して、li要素の並び替えを行なっております。 \n下記のソースコードは、要素をドラッグして任意に並び替えた後、要素クリックでコンソールに、innerHTMLを出力するコードになります。 \nしかし、要素を並び替えた後、クリックすると違う要素の情報が取得されてしまいます。どのような実装をすれば良いかご教授いただければ幸いです。\n\nfor文はページを開いた一度目しか実行されないため、要素の順番が変わるとそこに誤差が生じているのだと思いますが、上記のソースコード以外での実装が調べても見当つかない状態です。\n\n```\n\n $(function () {\n // リストを並べ替え可能に\n $('#sortable').sortable({\n // updateで並べ替えるたびに更新\n update: function () {\n // toArrayで現在の順番を取得し出力\n $('#log').text($('#sortable').sortable('toArray'));\n },\n });\n });\n window.addEventListener('load', function () {\n let sortable = document.getElementById('sortable');\n let liClass = document.getElementsByClassName('liClass');\n \n for (let i = 0; i < liClass.length; i++) {\n liClass[i].addEventListener('click', function (e) {\n console.log(`${liClass[i].innerHTML}`);\n });\n }\n });\n```\n\n```\n\n <!DOCTYPE html>\n <html>\n <head>\n <meta charset=\"utf-8\" />\n <meta name=\"viewport\" content=\"width=device-width, initial-scale=1\" />\n <title>サンプル Sortable</title>\n <!-- jQuery、jQuery UIの読み込み -->\n <script src=\"https://code.jquery.com/jquery-1.12.4.js\"></script>\n <script src=\"https://code.jquery.com/ui/1.12.1/jquery-ui.js\"></script>\n <!-- Sortableの実装 -->\n <body>\n <!-- リストにid属性を追加 -->\n <ul id=\"sortable\">\n <li class=\"liClass\" id=\"1\">項目1</li>\n <li class=\"liClass\" id=\"2\">項目2</li>\n <li class=\"liClass\" id=\"3\">項目3</li>\n <li class=\"liClass\" id=\"4\">項目4</li>\n <li class=\"liClass\" id=\"5\">項目5</li>\n </ul>\n <p>リストの順番は「<span id=\"log\"></span>」です</p>\n </body>\n </head>\n </html>\n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-17T09:00:38.000",
"favorite_count": 0,
"id": "91143",
"last_activity_date": "2022-09-17T17:36:23.170",
"last_edit_date": "2022-09-17T11:00:47.730",
"last_editor_user_id": "30760",
"owner_user_id": "30760",
"post_type": "question",
"score": 0,
"tags": [
"javascript",
"html",
"jquery",
"jquery-ui"
],
"title": "jQuery UIのSortableを用い、li要素並び替え後にも要素の情報を取得したい",
"view_count": 213
} | [
{
"body": "以下で解決いたしました。\n\n```\n\n $(function () {\n // sortable 設定\n $('#sortable').sortable({\n update: function () {\n $('#log').text($(this).sortable('toArray'));\n },\n });\n // リストアイテムにクリックハンドラ設定\n $('.liClass').on('click', function() {\n console.log($(this).html());\n });\n });\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-17T17:36:23.170",
"id": "91147",
"last_activity_date": "2022-09-17T17:36:23.170",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "30760",
"parent_id": "91143",
"post_type": "answer",
"score": 0
}
] | 91143 | null | 91147 |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "パッケージ版サイボウズガルーンのSOAPAPIを今まで問題なく使っていたのですが、 \n何かが原因でAPIで取得ができなくなり困っております。\n\n症状としては、curlを使った通信がイントラネット側サーバに到達できないという症状です。\n\n下記コードのaaaaaをホスト名にするとDNSエラーのページが返ってきて、 \nIPアドレスにしても、タイムアウトになります。 \nクラウド版も利用しているので、URL自体をクラウド用に変えると正常にxmlが返ってきます。 \n(URLをhttps://www.google.com/にすると、HTMLの戻りがありますが、イントラサーバーのURLだとDNSエラー)\n\nなお、file_get_contentsを使うとパッケージ版、クラウド版両方まったく問題なくxmlが返ってきます。\n\nサーバはwindows2012でガルーンと同じセグメントに設置してあり、 \nwinhttpプロキシは無しの状態(IEオプションのプロキシはセット)\n\n別のwindows2012サーバに同じバージョンのPHPをセットして、同じコードを試しましたが問題ありませんでした。 \nサーバーの再インストールしかないのでしょうか…\n\n```\n\n echo curl_get_contents( \"http://aaaaa/scripts/cbgrn/grn.exe?WSDL\", \"\", $timeout = 60 ); \n //echo file_get_contents(\"http://aaaaa/scripts/cbgrn/grn.exe?WSDL\");\n exit;\n \n function curl_get_contents( $url, $request, $timeout = 60 ){\n $ch = curl_init();\n $header = array('Content-Type: application/soap+xml; charset=UTF-8;');\n curl_setopt($ch, CURLOPT_URL, $url );\n curl_setopt($ch, CURLOPT_RETURNTRANSFER, true );\n curl_setopt($ch, CURLOPT_TIMEOUT, $timeout );\n curl_setopt($ch, CURLOPT_HTTPHEADER, $header);\n $result = curl_exec( $ch );\n curl_close( $ch );\n return $result;\n }\n \n```",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T00:49:20.170",
"favorite_count": 0,
"id": "91149",
"last_activity_date": "2022-09-20T02:48:56.983",
"last_edit_date": "2022-09-20T02:48:56.983",
"last_editor_user_id": "3060",
"owner_user_id": "27823",
"post_type": "question",
"score": 0,
"tags": [
"php",
"php-curl"
],
"title": "PHP の curl でイントラネットのサーバに接続できない",
"view_count": 234
} | [
{
"body": "自己解決しました!\n\nイントラ側向けには明示的にプロキシを空でセットしないといけないようです…\n\n```\n\n curl_setopt($ch, CURLOPT_PROXY, '');\n \n```\n\nさらにわかりづらいことに、一度この処理を走らせると記憶されるようで \n以降このサーバーに関しては上記一文なしでもいけてしまうという('Д')…",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T00:37:04.023",
"id": "91187",
"last_activity_date": "2022-09-20T01:10:52.193",
"last_edit_date": "2022-09-20T01:10:52.193",
"last_editor_user_id": "3060",
"owner_user_id": "27823",
"parent_id": "91149",
"post_type": "answer",
"score": 2
}
] | 91149 | null | 91187 |
{
"accepted_answer_id": "91151",
"answer_count": 1,
"body": "Windowsで環境変数設定後にPycharmでターミナルを開いたのですが、画面キャプチャのようにAnacondaが読み込まれていないようです。Anaconda\npromptにて「conda init\npowershell」を実行したみても改善することができませんでした](https://i.stack.imgur.com/5O93b.png)",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T02:01:17.457",
"favorite_count": 0,
"id": "91150",
"last_activity_date": "2022-09-18T03:36:28.490",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54439",
"post_type": "question",
"score": 1,
"tags": [
"python",
"python3",
"anaconda",
"powershell",
"pycharm"
],
"title": "PycahrmでAnacondaが「アクティブ」状態になりません!",
"view_count": 163
} | [
{
"body": "環境変数は親プロセスから子プロセスに引き継がれます。 \n環境変数の設定前に起動したPycharmを終了し、改めてPycharmを起動すると設定済の環境変数が引き継がれ、PycharmやPycharmのターミナルで環境変数が有効になります。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T03:36:28.490",
"id": "91151",
"last_activity_date": "2022-09-18T03:36:28.490",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "35558",
"parent_id": "91150",
"post_type": "answer",
"score": 0
}
] | 91150 | 91151 | 91151 |
{
"accepted_answer_id": "91184",
"answer_count": 1,
"body": "まず、クラスを利用したコンポーネントを2つ用意します。\n\n```\n\n class AdminInfoComponent {\n public userCount: number = 0;\n }\n \n```\n\n```\n\n class UserComponent {\n public id: string = \"\";\n public createdAt: number = 0;\n }\n \n```\n\n次に、クラスのプロパティ(コンポーネントのフィールド)名を取得する型を作ります。\n\n```\n\n type ExtractFields<T> = {\n [K in keyof T]: K\n }[keyof T];\n \n```\n\n参考: \n<https://stackoverflow.com/questions/55479658/how-to-create-a-type-excluding-\ninstance-methods-from-a-class-in-typescript>\n\n例えば、この型をそれぞれのコンポーネント(クラス)に適用すると以下のようになります。\n\n```\n\n let test1: ExtractFields<AdminInfoComponent>; // \"userCount\"\n let test2: ExtractFields<UserComponent>; // \"userID\" | \"createdAt\"\n \n```\n\nここで私は型に設定するコンポーネントがユニオン型(2通り以上のケース)の場合も正常に実行できるのかを確認したところ、\n\n```\n\n let test3: ExtractFields<AdminInfoComponent | UserComponent>; // NEVER\n \n```\n\nまさかの`never`でした。予想してた(求めてた)型:`\"userCount\" | \"userID\" | \"createdAt\"`\n\n`never`になる理由が分からず、どこを修正したら求めてた型が返されるのかがいつまで経っても分からないので質問させていただきました。 \nよろしくお願いします。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T04:26:41.867",
"favorite_count": 0,
"id": "91152",
"last_activity_date": "2022-09-20T00:36:42.590",
"last_edit_date": "2022-09-20T00:05:43.333",
"last_editor_user_id": "3060",
"owner_user_id": "35941",
"post_type": "question",
"score": 1,
"tags": [
"typescript"
],
"title": "ユニオン型クラスでプロパティ名を取得する型について",
"view_count": 232
} | [
{
"body": "求める型はこれだろうと思います。\n\n```\n\n let test3: ExtractFields<AdminInfoComponent> | ExtractFields<UserComponent>\n \n```\n\n* * *\n\n質問中ではあえて省略した部分があるのだと思いますが、そうでないならば、`ExtractFields` は単純な `keyof`\nで代替できると思います(念のため)。\n\n```\n\n let test1: keyof AdminInfoComponent\n let test2: keyof UserComponent\n let test3: keyof AdminInfoComponent | keyof UserComponent\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T22:12:12.737",
"id": "91184",
"last_activity_date": "2022-09-20T00:36:42.590",
"last_edit_date": "2022-09-20T00:36:42.590",
"last_editor_user_id": "3054",
"owner_user_id": "3054",
"parent_id": "91152",
"post_type": "answer",
"score": 0
}
] | 91152 | 91184 | 91184 |
{
"accepted_answer_id": null,
"answer_count": 2,
"body": "例えば、`●N◆XY時計` という文字列があるとき、文字`XY`は固定され、`●N◆`は記号問わず様々な文字、`時計`は様々な漢字やひらがなを取るとする。 \nこのとき、固定されている`XY`までの先頭の文字を削除したいです。\n\n正規表現を使えばできそうな気がしているのですが、正規表現で削除する方法がわかりません。 \n初歩的な質問かもしれませんが、ご教授のほどよろしくお願いいたします。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T07:21:12.407",
"favorite_count": 0,
"id": "91153",
"last_activity_date": "2022-09-20T21:17:00.827",
"last_edit_date": "2022-09-18T07:43:18.417",
"last_editor_user_id": "3060",
"owner_user_id": "30173",
"post_type": "question",
"score": 1,
"tags": [
"python",
"python3",
"正規表現"
],
"title": "正規表現を使用して、特定の文字の前の文字を削除したい",
"view_count": 354
} | [
{
"body": "色々と検討しまして、下記のような正規表現で期待通りできたかもしれません。\n\n```\n\n import re\n \n a = re.sub(r'^[^XY]*', '', '●N◆XY時計')\n \n print(a)\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T07:42:20.110",
"id": "91154",
"last_activity_date": "2022-09-18T07:42:20.110",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "30173",
"parent_id": "91153",
"post_type": "answer",
"score": 0
},
{
"body": "wilwilco さんが自己回答されていますが、 `r'^[^XY]*'` では条件を満たしていないと思われます。 \n「XまたはYではない任意の文字列」を削除しているため、例えば、以下の様な結果になります。\n\n```\n\n >>> re.sub(r'^[^XY]*', '', '●N◆YYXY時計')\n 'YYXY時計'\n >>> re.sub(r'^[^XY]*', '', '●N◆YYYX時計')\n 'YYYX時計'\n >>> re.sub(r'^[^XY]*', '', '●N◆X時計')\n 'X時計'\n \n```\n\n## 案1: 残したい文字列を指定し、キャプチャして使う\n\n```\n\n >>> re.sub(r'^.*(XY.*)', r'\\1', '●N◆XY時計')\n 'XY時計'\n >>> re.sub(r'^.*(XY.*)', r'\\1', '●N◆YYXY時計')\n 'XY時計'\n >>> re.sub(r'^.*(XY.*)', r'\\1', '●N◆X時計')\n '●N◆X時計'\n \n```\n\nXYで始まる任意の文字列をキャプチャして、 `r'\\1'` で置換後の文字列として使っています。\n\n## 案2: 肯定先読みを使う\n\n```\n\n >>> re.sub(r'^.*(?=XY)', r'', '●N◆YYXY時計')\n 'XY時計'\n >>> re.sub(r'^.*(?=XY)', r'', '●N◆XY時計')\n 'XY時計'\n >>> re.sub(r'^.*(?=XY)', r'', '●N◆X時計')\n '●N◆X時計'\n \n```\n\n`(?=...)` を使って、XYの直前までを対象として、空文字列に置換しています。\n\n## 補足\n\n> `時計`は様々な漢字やひらがなを取る\n\n私の回答にこの条件は含めていません。 \n漢字とひらがな、以外のどんな文字でも許容しています。 \nwilwilcoさんの回答も同様のため、今回はスルーしています。 \n(漢字とひらがなにのみ一致する正規表現はちょっと面倒なのです)",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T21:17:00.827",
"id": "91201",
"last_activity_date": "2022-09-20T21:17:00.827",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "806",
"parent_id": "91153",
"post_type": "answer",
"score": 2
}
] | 91153 | null | 91201 |
{
"accepted_answer_id": "91160",
"answer_count": 2,
"body": "Pythonの全くの初心者で、分かりにくい質問かと思いますが、投稿させていただきます。 \n時系列モデルのシミュレーションを行うためのコード作成に関する質問です。\n\n具体的には、 \n`X(t)=0.5*X(t-1)+e(t) for t<=50` \n`X(t)=X(t-1)+e(t) for t>50` \n(ただし、e(t)は、平均0、標準偏差1の正規分布の乱数) \nについて、 \n(1): t=100のときのX(100)の値をシミュレートする関数のコードを作成する \n(2):\n適当な値X(0)を入力した場合のX(1),X(2),X(3),...X(100)の値をプロットしたグラフ(横軸にt=1,2,3,...100、縦軸にX(1),X(2),X(3),...X(100))を作成する \nが目標です。\n\n(1)については、以下のコードを作成しましたが、正しいでしょうか。\n\n```\n\n import numpy as np\n x = 0\n for i in range(50):\n x = 0.5*x + np.random.randn()\n print(x)\n for i in range(50):\n x += np.random.randn()\n print(x)\n \n```\n\n(2)については、例えば、numpyを利用する方法も試しましたが、関数(x = 0.5*x +\nnp.random.randn())から導かれる計算結果を行列やベクトルに変換したり組み込む方法が分かりませんでした。\n\nなお、 \nPython 3 \nJupyter Notebook (anaconda 3) \nを使用しています。\n\nかなり色々なサイトで探したのですが、類似のケースが見つからず、こちらに投稿させていただいた次第です。 \n分かりにくい質問で申し訳ありませんが、何卒よろしくお願いいたします。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T07:47:50.153",
"favorite_count": 0,
"id": "91155",
"last_activity_date": "2022-09-19T06:00:22.580",
"last_edit_date": "2022-09-18T11:32:37.350",
"last_editor_user_id": "43025",
"owner_user_id": "54440",
"post_type": "question",
"score": 0,
"tags": [
"python"
],
"title": "Pythonの時系列モデルのシミュレーション",
"view_count": 99
} | [
{
"body": "`print(x)`で単に表示している所をグラフ作成用のリストに追加していく処理にすれば良いのでは? \nあと初期値X(0)を外から与えるパラメータとする関数として定義すれば良いでしょう。 \n以下のように出来ると思われます。`####`でコメントした所が変更点です。\n\n```\n\n import numpy as np\n \n #### X(0) の値をパラメータとするシミュレーション用Y軸データ作成関数を定義\n def simfunc(initial):\n x = initial #### X(0) は外部から与えられたパラメータ値とする\n y = [] #### グラフのY軸データ用リスト初期化\n for i in range(50):\n x = 0.5*x + np.random.randn()\n y.append(x) #### グラフのX軸1~50用 Y軸データリスト追加\n \n for i in range(50):\n x += np.random.randn()\n y.append(x) #### グラフのX軸51~100用 Y軸データリスト追加\n \n return y\n \n import matplotlib.pyplot as plt #### 以下グラフ作成・表示\n \n y = simfunc(np.random.randn()) #### グラフのY軸データ作成関数呼び出し\n x = list(range(1,101)) #### グラフのX軸データリスト(1~100)\n \n plt.plot(x, y)\n plt.show()\n \n```",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T13:28:31.003",
"id": "91160",
"last_activity_date": "2022-09-18T15:31:19.617",
"last_edit_date": "2022-09-18T15:31:19.617",
"last_editor_user_id": "26370",
"owner_user_id": "26370",
"parent_id": "91155",
"post_type": "answer",
"score": 0
},
{
"body": "作図の都合上, 前半の数値を `0.99`で \n計算には以下を利用\n\n * (docs.python.org) [itertools.accumulate](https://docs.python.org/ja/3/library/itertools.html#itertools.accumulate)\n * NumPy [numpy.cumsum](https://numpy.org/doc/stable/reference/generated/numpy.cumsum.html)\n\n```\n\n from itertools import accumulate\n import matplotlib.pyplot as plt\n import numpy as np\n \n fhalf = list(accumulate(np.random.randn(50), lambda a, b: a *.99 +b, initial=150))\n lhalf = np.cumsum(np.random.randn(50)) +fhalf[-1]\n \n fig = plt.figure()\n plt.plot(fhalf +lhalf.tolist())\n plt.savefig('plt.png')\n \n```\n\n[](https://i.stack.imgur.com/gM7wf.png)\n\n* * *\n\n質問がなんらかの授業の課題のようにも見えたので, 回答付けるのどうかと判断迷ったけれど \nとりあえず付けてみました \n[https://ja.meta.stackoverflow.com/questions/1805/学校の宿題は回答するべきでしょうか](https://ja.meta.stackoverflow.com/questions/1805/%E5%AD%A6%E6%A0%A1%E3%81%AE%E5%AE%BF%E9%A1%8C%E3%81%AF%E5%9B%9E%E7%AD%94%E3%81%99%E3%82%8B%E3%81%B9%E3%81%8D%E3%81%A7%E3%81%97%E3%82%87%E3%81%86%E3%81%8B)",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T04:05:20.810",
"id": "91170",
"last_activity_date": "2022-09-19T06:00:22.580",
"last_edit_date": "2022-09-19T06:00:22.580",
"last_editor_user_id": "43025",
"owner_user_id": "43025",
"parent_id": "91155",
"post_type": "answer",
"score": 0
}
] | 91155 | 91160 | 91160 |
{
"accepted_answer_id": "91163",
"answer_count": 2,
"body": "現在,pythonで計算した値,例えば,pi=3.141592 をArduinoに渡そうと考えています.(とりあえずはI2Cで) \n今回は「piを4bytesに分ける」「分けて送信して後でArduinoが4byte繋げる」ということを目標にしています.strに直す方法などもありますが,自分の勉強のためにこの方法で進めようと思っています.\n\nそこで,わからない点が,「Python上でpiをどうすれば,Arduinoが後から読める形にできるのか」ということです.例えば,piを\nstructのpackメソッドを使って,f(32bit float)の4バイトの配列を作りました\n\n```\n\n from struct import pack\n pi=3.141592\n b=pack(\"f\", pi)\n \n```\n\nこれで,Arduinoが後から読める形になったと思います.なので後はこの配列を順番にわたします.\n\n```\n\n bus.write(adress, b[0])\n bus.write(adress, b[1])\n bus.write(adress, b[2])\n bus.write(adress, b[3])\n \n```\n\n後は,Arduio側ではbitシフトをしながら繋げていくだけで,\nfloatとしてpiが受け取れるはずです.しかし,うまくいきません.原因は受け取る側(arduino)にも考えられるかもしれませんが,別の実験でうまく動いたプログラムなので,Arduinoには問題がないと仮定してそのプログラムは割愛します. \nとにかく,現在私の中で問題があるのではないかと思うのが,繰り返しになりますが,\n\n「 Python上でpiを,Arduinoが後から読める形に変換できていない」「あるいは変換できているけれど,分割して送れていない」\n\nということです.必ずしもこのコードを訂正していただく必要はなく,皆様の知っている変換方法,分割方法も教えて下さいませ\n\nよろしくお願いします",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T09:00:10.940",
"favorite_count": 0,
"id": "91156",
"last_activity_date": "2022-09-18T15:11:03.710",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "41334",
"post_type": "question",
"score": 0,
"tags": [
"python",
"c++",
"c",
"raspberry-pi",
"arduino"
],
"title": "Python上の小数を含む数を,Arduinoが扱える形に成形したいです.",
"view_count": 98
} | [
{
"body": "> ということです.必ずしもこのコードを訂正していただく必要はなく,皆様の知っている変換方法,分割方法も教えて下さいませ\n\n文字列で渡してそこから変換すればよろしいかと。",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T12:59:02.337",
"id": "91159",
"last_activity_date": "2022-09-18T12:59:02.337",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "27481",
"parent_id": "91156",
"post_type": "answer",
"score": 0
},
{
"body": "Pythonで作成したバイト列の内容を表示すると、Windowsでは以下のようになりますが、Raspberry Piではどうなっていますか?\n\n```\n\n b'\\xd8\\x0fI@'\n \n```\n\n上記の順番が以下のように逆に表示されるなら:\n\n```\n\n b'@I\\x0f\\xd8'\n \n```\n\n変換の際にエンディアンを明示的に指定してみれば良いと思われます。\n\n```\n\n b=pack(\"<f\", pi)\n \n```\n\n* * *\n\nArduinoのボードや環境は持っていないのでソースコード上の扱いになりますが、前回の回答で紹介した以下の記事を参考に、通信はしないで上記のバイト配列を即値で設定した場合にどのような値が表示されるでしょう? \n[Convert IEEE 754 32 to float](https://forum.arduino.cc/t/convert-\nieee-754-32-to-float/323109)\n\n```\n\n union \n { byte b[4] ;\n float f ;\n } u ;\n \n u.b[0] = '\\xd8' ;\n u.b[1] = '\\x0f' ;\n u.b[2] = 'I' ;\n u.b[3] = '@' ;\n \n Serial.println( u.f ) ;\n \n```\n\n上記で表示が`3.141592`といったπの数値ではなく、別の値だったら、どこかで変換する処理が必要になるでしょう。 \n上記でπの数値が正しく表示されるなら、Raspberry PiとArduinoの間の通信が何か上手くいっていない可能性があります。\n\nちなみにVC++で同様に以下のように作成・実行した場合は`3.141592`が表示されました。\n\n```\n\n #include <stdio.h>\n \n int main(int argc, char** argv)\n {\n union {\n unsigned char b[4];\n float f;\n } u;\n \n u.b[0] = '\\xd8';\n u.b[1] = '\\x0f';\n u.b[2] = 'I';\n u.b[3] = '@';\n \n printf(\"%f\\n\", u.f);\n }\n \n```\n\n* * *\n\nそして質問ではRaspberry Pi, Pythonから`bus.write(adress,\nb[0])`と言う風に送信していて、おそらく[smbus2](https://pypi.org/project/smbus2/)の`Example 5:\nSingle i2c_rdwr`あたりの書き方を参考にしているのでしょうが、微妙に合っていない(かつ記述が不足している)ようです。\n\n上記PyPIページの記述に合わせるか、前回の回答で紹介した以下の記事のように、smbus2の(基となった?)少し前の[smbus](https://pypi.org/project/smbus/)のライブラリを使ってみてはどうでしょう? \n[Raspberry PiでI2C通信をする](https://www.raspberrypirulo.net/entry/raspberrypi-i2c) \n[ラズパイ(Raspberry Pi)とArduinoをI2Cで接続【基本編】\nラズパイからPythonのSMBusモジュールを使ってArduinoにデータを送信しよう](https://deviceplus.jp/raspberrypi/raspberry-\npi-and-arduino-connect-with-i2c-01/)",
"comment_count": 6,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T15:11:03.710",
"id": "91163",
"last_activity_date": "2022-09-18T15:11:03.710",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "26370",
"parent_id": "91156",
"post_type": "answer",
"score": 0
}
] | 91156 | 91163 | 91159 |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "下記のページを参考に、Next.jsでreact-draft-wysiwygを導入しようと考えています。\n\n[ブラウザ上で動くリッチなテキストエディタを、React Draft\nWysiwygを使って手軽に実装する](https://harionote.net/2022/01/07/%E3%80%90react-draft-\nwysiwyg%E3%80%91%E3%83%96%E3%83%A9%E3%82%A6%E3%82%B6%E4%B8%8A%E3%81%A7%E5%8B%95%E3%81%8F%E3%83%AA%E3%83%83%E3%83%81%E3%81%AA%E3%83%86%E3%82%AD%E3%82%B9%E3%83%88%E3%82%A8%E3%83%87/)\n\n### 実現したいこと\n\nreact-draft-wysiwygを動かして、入力内容を `const [editorState, setEditorState] =\nuseState(\"\");` で受け取りたい\n\n### 発生している問題・エラーメッセージ\n\nエラーではないですが、なぜか \n`const [editorState, setEditorState] = useState(\"\");` \nを記述し、 \n`<Editor editorState={editorState} 〜省略〜`\n\nを追加すると、本番環境とローカル環境で記入できなくなります。(vercelで確認できます。) \nこのusestateがないと値を受け取れないので、実装したいのですが、原因がまだ分かっていません。 \n分かる方がいれば教えて頂きたいです。 \nよろしくお願いします。\n\n<https://sample-file.vercel.app/>\n\ngithub \n<https://github.com/takoyan33/sample-file>\n\n### 該当のソースコード\n\nJavaScript\n\n```\n\n import React, { useCallback, useContext, useEffect, useState } from \"react\";\n import dynamic from \"next/dynamic\";\n \n const Editor = dynamic(\n () => import(\"react-draft-wysiwyg\").then((mod) => mod.Editor),\n { ssr: false }\n );\n \n import { ContentState, convertToRaw, EditorState } from \"draft-js\";\n \n import \"react-draft-wysiwyg/dist/react-draft-wysiwyg.css\";\n \n export default function Home() {\n const [editorState, setEditorState] = useState(\"\");\n \n const handleImageUpload = useCallback(async (file) => {\n return await axios\n .post\n // fileをアップロードし、アップロード後の画像のurlを返す処理\n ()\n .then((response) => {\n return { data: { link: response } };\n })\n .catch((error) => {\n return error;\n });\n }, []);\n \n console.log(editorState);\n \n return (\n <div className=\"container my-5\">\n <Editor\n editorState={editorState}\n toolbarClassName=\"toolbarClassName\"\n wrapperClassName=\"wrapperClassName\"\n editorClassName=\"editorClassName\"\n editorStyle={{\n border: \"solid 1px lightgray\",\n padding: \"5px\",\n }}\n localization={{ locale: \"ja\" }}\n />\n </div>\n );\n }\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T10:00:09.357",
"favorite_count": 0,
"id": "91157",
"last_activity_date": "2022-09-21T02:43:52.590",
"last_edit_date": "2022-09-18T11:07:55.913",
"last_editor_user_id": "3060",
"owner_user_id": "52921",
"post_type": "question",
"score": 0,
"tags": [
"reactjs",
"next.js"
],
"title": "Next.jsで上手くreact-draft-wysiwygが動かない",
"view_count": 278
} | [
{
"body": "draft-js のバージョンの問題ではないでしょうか?\n\nreact-draft-wysiwyg の公式ドキュメントでは、 \ndraft-js 0.10.x が必要とかいてありました。\n\n<https://jpuri.github.io/react-draft-wysiwyg/#/docs>",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T02:43:52.590",
"id": "91204",
"last_activity_date": "2022-09-21T02:43:52.590",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54462",
"parent_id": "91157",
"post_type": "answer",
"score": 0
}
] | 91157 | null | 91204 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "### 前提\n\nECSをターゲットにしたALBをオリジンにして、CloudFrontをたてました。 \nECSではfargateでAuth0を利用したBearer認証があるAPIを立てています。\n\nAPIはバージニアリージョンにあるため、アクセス速度が遅い、速度を改善したい。 \n一人目のユーザーがアクセスした後、二人目以降はオリジンに情報を取りに行かなくていいようにしたい。\n\n### 実現したいこと\n\nオリジンには認証情報が渡るようにしたいが(リクエストに Authorization ヘッダーが含まれて、ディストリビューションは Authorization\nヘッダーをオリジンに転送する形。) \nユーザー⇔CloudFrontの間ではキャッシュ単位でAuthorizationを渡さない形にしたいので \n他にやり方は無いか、知見のある方に教えて頂きたいです。\n\n### 発生している問題・エラーメッセージ\n\nドキュメントを見る限りでは、オリジンリクエストポリシーを使用して Authorization ヘッダーを転送することはできません。 \n<https://aws.amazon.com/jp/premiumsupport/knowledge-center/cloudfront-\nauthorization-header/>\n\nキャッシュポリシーにAuthorizationヘッダーを含める形にするしかなさそうですが \nユーザー毎に認証情報が違うので、毎回キャッシュが無い状態となり、オリジンに通信しないといけないような状況を避けたい。 \n二人目以降はアクセスを早くできるようにしたいため。\n\n### 試したこと\n\n * キャッシュポリシーにAuthorizationヘッダーを含める\n\n### 補足情報(FW/ツールのバージョンなど)\n\n他によさそうな情報を見つけられなかったのですが \n不足情報あったらすみませんが教えてください、宜しくお願い致します。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T10:44:24.613",
"favorite_count": 0,
"id": "91158",
"last_activity_date": "2022-09-18T10:44:24.613",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54409",
"post_type": "question",
"score": 0,
"tags": [
"aws",
"api",
"oauth"
],
"title": "認証APIがバックエンドにあるCloudFrontへのアクセス速度を向上させたい",
"view_count": 119
} | [] | 91158 | null | null |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "windows10でブラウザでubuntuの環境設定の方法を見つつ、同じマシンにUSBで外付けしたHDDのubuntu22.04を実行して環境設定をする方法はありますでしょうか。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T13:55:59.660",
"favorite_count": 0,
"id": "91161",
"last_activity_date": "2022-09-25T05:25:46.307",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54442",
"post_type": "question",
"score": 0,
"tags": [
"ubuntu",
"vmware"
],
"title": "windows10を使用中に、外付けUSBHDDのubuntu22.04を実行する方法はあるか?",
"view_count": 288
} | [
{
"body": "Pro,Enterprise,Educationの場合のみになりますが、Hyper-Vであれば、パススルーでUSB-HDDを直接マウントできるようです。\n\n 1. USB-HDDを繋ぎます。\n 2. キーボード Win + X で表示されるメニューで「ディスクの管理」を選択します。\n 3. ディスクの管理で該当の **ディスク** を右クリックして「オフライン」にします。\n 4. 「Hyper-V マネージャー」を起動します。\n 5. 仮想マシンを「新規」で作成します。作成時に「仮想ハード ディスクの接続」で「後で仮想ハード ディスクを接続する」を選択します。(手元の検証では第2世代で行いましたが、第1世代でも可能かと思われます)\n 6. 仮想マシンの「設定」を開きます。 \n 1. (第2世代のみ)「ハードウェア」 > 「セキュリティ」で「テンプレート」を「Microsoft UEFI 認証機関」にします。(Ubuntu等はセキャアブート対応ですが、そうではないLinuxディストリビューションの場合はセキュアブートそのものを無効にする必要があります)\n 2. 「ハードウェア」 > 「SCSI コントローラー」(第1世代の場合は「IDE コントローラー 0」)で「ハード ドライブ」を追加します。このとき、メディアのところで「物理ハードディスク」を選び、先程オフラインにしたディスクを選択します。\n 3. 「管理」 > 「チェックポイント」で「チェックポイントを有効にする」のチェックを外して、チェックポイントを無効にします。\n 7. 設定を保存後、仮想マシンを起動します。\n\n一応、上の方法でインストールするところまでは試しています。仮想と物理の違いで細かいところがうまくいかない可能性もありますので、後は試行錯誤してみて下さい。\n\n参考記事: [Hyper-V 仮想マシンにパススルーディスク(Pass-through Disk)を使って外付けHDDディスクを接続する -\nWindows10](https://www.billionwallet.com/windows10/hyper-v-pass-through-\ndisk.html)",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-23T14:19:09.187",
"id": "91264",
"last_activity_date": "2022-09-25T05:25:46.307",
"last_edit_date": "2022-09-25T05:25:46.307",
"last_editor_user_id": "7347",
"owner_user_id": "7347",
"parent_id": "91161",
"post_type": "answer",
"score": 0
}
] | 91161 | null | 91264 |
{
"accepted_answer_id": "91169",
"answer_count": 2,
"body": "git は、例えば CI などにおいて git clone をすると、それによりチェックアウトされたファイル達のファイル情報としての最終変更日時は、その\nclone を行ったタイミングになります。\n\n例えば [Nuxt Content](https://content.nuxtjs.org/)\nなど、データファイルの最終変更日時を利用するアプリケーションないしフレームワークを利用していると、このファイルの最終更新日時は、せっかくバージョン管理システムを利用しているので、そのファイルを最後にコミットした日時を反映していきたくなります。\n\n# 質問\n\ngit において、チェックアウトされたファイルたち(Working Tree\nのファイルたち)の、ファイルの最終変更日時を、現ブランチにおいてそのファイルを最後にコミットした日時に変更したいです。\n\nこれどうやったら実現できるでしょうか。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T14:45:49.717",
"favorite_count": 0,
"id": "91162",
"last_activity_date": "2022-10-08T16:05:10.873",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "754",
"post_type": "question",
"score": 1,
"tags": [
"git"
],
"title": "git でチェックアウトされたファイルたちの最終変更日時を、コミット日時にしたい",
"view_count": 1831
} | [
{
"body": "Gitの標準機能としては用意されていないようです。自分でプログラムを作るか、誰かが作ったプログラムを使うしか無いと思われます。それらの作り方等は下記が参考になります。\n\n * [ファイルのタイムスタンプをコミット日時に合わせる - Qiita](https://qiita.com/mAster_rAdio/items/246fcab7984e50d7d66f)\n * [ブログズミ: [GIT] 「ファイルのタイムスタンプをコミット日時に合わせる」を爆速にした](https://srz-zumix.blogspot.com/2020/06/git.html)\n * [Groovyスクリプトで、ファイルの最終更新日時をgit clone/pullの日時ではなく、commit日時にしてみた | フューチャー技術ブログ](https://future-architect.github.io/articles/20220221a/)\n * [git pull した後にファイルの日付をコミット時のものに変更する - いろいろ備忘録日記](https://devlights.hatenablog.com/entry/2022/04/20/073000)\n\nプロジェクトとして保守されている(?)ものとしては、最初のサイトで紹介されているrsyncのサポートファイルの一つとして提供されているgit-set-\nfile-\ntimesになると思います。Linuxであれば、rsyncパッケージをインストールすれば、`/usr/share/doc/rsync/support/git-\nset-file-times`(Rocky9)や`/usr/share/rsync/scripts/git-set-file-\ntimes`(Ubuntu22.04)として入りますので、それを使用するといいかと思います。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T04:00:30.907",
"id": "91169",
"last_activity_date": "2022-09-19T04:00:30.907",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "7347",
"parent_id": "91162",
"post_type": "answer",
"score": 2
},
{
"body": "自分の場合は node 系のコンテナを使っていて、そのためだけに rsync を入れるのもどうかと思ったので、やりたいことを実現する node\nスクリプトを自作しました。参考までに置いておきます。\n\n```\n\n #!/usr/bin/env node\n \n const childProcess = require('node:child_process');\n const util = require('node:util');\n const fs = require('node:fs/promises')\n const execFile = util.promisify(childProcess.execFile);\n \n const readFilePaths = (dir) => {\n const readline = require('node:readline');\n \n const lsFiles = childProcess.spawn('git', ['ls-files', '--', dir]);\n const rl = readline.createInterface({\n input: lsFiles.stdout,\n crlfDelay: Infinity\n });\n return rl\n }\n \n const fixTimestamp = async (filePath) => {\n const gitLog = await execFile('git', ['log', '--pretty=%ct', '-n1', '--', filePath])\n const timestamp = gitLog.stdout.trim()\n console.log(`updating: ${filePath} to ${timestamp}`)\n return fs.utimes(filePath, timestamp, timestamp)\n }\n \n const main = async () => {\n const dirPath = process.argv.length > 2 ? process.argv[2] : '.'\n const promises = []\n for await (const filePath of readFilePaths(dirPath)) {\n promises.push(fixTimestamp(filePath))\n }\n await Promise.all(promises)\n }\n \n main()\n \n```\n\n使い方: 第一引数に `git ls-files` に渡すディレクトリを指定(なければ `.` が与えられます)",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-10-08T15:12:56.333",
"id": "91500",
"last_activity_date": "2022-10-08T16:05:10.873",
"last_edit_date": "2022-10-08T16:05:10.873",
"last_editor_user_id": "754",
"owner_user_id": "754",
"parent_id": "91162",
"post_type": "answer",
"score": 0
}
] | 91162 | 91169 | 91169 |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "現在作成中のサイトで、トップのメニューバーがおかしくなってしまいます。 \nPCで見るときはいいのですが、スマホ(iPhone SE)で見ると `ul` タグの左側 (`li` タグの左側?)に空白が入ってしまいます。\n\nどのCSSが原因なのかChromeのDevToolsでいくつかCSSを消してみたのですが、どれを消してみても空白が消えません。どうすれば消えますか?\n\n一応HTMLとCSSのメニューバーのところだけ載せさせていただきます。 \nもし他の部分も必要であれば追記します。 \n(JavaScriptはclassを切り替えるのみなので省略します)\n\n**HTML**\n\n```\n\n <!DOCTYPE html>\n <html lang=\"ja\" dir=\"ltr\">\n <head>\n <script src=\"https://code.jquery.com/jquery-3.6.1.js\"></script>\n <meta charset=\"utf-8\">\n <meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0\">\n <title>タイトル</title>\n <link rel=\"stylesheet\" href=\"/../css/top.css\">\n <script src=\"/js/top.js\"></script>\n </head>\n <body>\n <ul id=\"menus\">\n <li class=\"page_title\">ロゴ</li>\n <li class=\"normal\">メニュー1</li>\n <li class=\"normal\">メニュー2</li>\n <li class=\"normal\">メニュー3</li>\n <li class=\"normal\">メニュー4</li>\n <li class=\"normal\">メニュー5</li>\n <li class=\"normal\">メニュー6</li>\n </ul>\n </body>\n </html>\n \n```\n\n**CSS**\n\n```\n\n body {\n display: flex;\n flex-direction: column;\n }\n \n .page_title{\n background-color: #dda0dd;\n border-radius: 10px;\n cursor: default;\n }\n \n .normal{\n cursor: pointer;\n }\n \n #menus{\n overflow: hidden;\n background-color: #4b0082;\n width: 100%;\n height: 20%;\n text-align: center;\n color: white;\n font-size: 1.5vw;\n }\n \n #menus li{\n float: left;\n list-style: none;\n margin: auto 3px;\n width: 10%;\n }\n \n .normal:hover{\n background-color: #9370db;\n cursor: pointer;\n }\n \n @media screen and (max-width: 480px) {\n #menus{\n overflow: hidden;\n background-color: #4b0082;\n width: 100%;\n height: 50%;\n text-align: center;\n color: white;\n font-size: 5vw;\n margin: 2px auto;\n }\n \n \n #menus li{\n list-style: none;\n margin: 2px 3px;\n width: 100%;\n text-align: center;\n }\n }\n \n```",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-18T17:38:54.490",
"favorite_count": 0,
"id": "91164",
"last_activity_date": "2022-09-20T08:18:24.953",
"last_edit_date": "2022-09-20T08:18:24.953",
"last_editor_user_id": "3060",
"owner_user_id": "46953",
"post_type": "question",
"score": 0,
"tags": [
"html",
"css"
],
"title": "iPhone での表示時、ul の左側に変な空白ができてしまう",
"view_count": 99
} | [
{
"body": "コメントいただいた通りpadding:0;をメニューバーのulに追加したら無事に中央になりました。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T00:50:06.263",
"id": "91165",
"last_activity_date": "2022-09-19T00:50:06.263",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "46953",
"parent_id": "91164",
"post_type": "answer",
"score": 1
}
] | 91164 | null | 91165 |
{
"accepted_answer_id": "91168",
"answer_count": 1,
"body": "変数 a は boolean です。 \nこの a から True のみを出力する際のコマンドは、以下で良いのでしょうか?\n\n```\n\n print(np.where(a == True))\n \n```\n\n以下のようなエラーが出てしまいます。レベルの低い質問で申し訳ありませんが何方か教えてください。\n\n```\n\n (array([0, 3, 4, 5, 6], dtype=int32),) \n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T03:24:27.820",
"favorite_count": 0,
"id": "91167",
"last_activity_date": "2022-09-19T03:48:14.067",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "49248",
"post_type": "question",
"score": 0,
"tags": [
"python",
"numpy"
],
"title": "boolean値である変数の Trueのみ含むnumpy配列 の出力",
"view_count": 141
} | [
{
"body": "```\n\n >>> import numpy as np\n >>> a = np.array([True, False, False, True, False, True, True, False])\n >>> a\n array([ True, False, False, True, False, True, True, False])\n >>> a[a]\n array([ True, True, True, True])\n \n```\n\n> 以下のようなエラーが出てしまいます。\n\nそれはエラーではなく、インデックス番号です。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T03:48:14.067",
"id": "91168",
"last_activity_date": "2022-09-19T03:48:14.067",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "47127",
"parent_id": "91167",
"post_type": "answer",
"score": 0
}
] | 91167 | 91168 | 91168 |
{
"accepted_answer_id": "91175",
"answer_count": 1,
"body": "初めてのコミットを「Git Bash」で「git push -u origin master」したら、「Default branch」ではなく「Your\nbranches」と「Active branches」へアップロードされました。\n\n```\n\n $ git status\n On branch master\n Your branch is up to date with 'origin/master'.\n \n nothing to commit, working tree clean\n \n \n $ git remote -v\n origin [email protected]:hoge/xx.git (fetch)\n origin [email protected]:hoge/xx.git (push)\n \n```\n\nQ1.「Your branches」が作成されたのは、「git push -u origin main」ではなく「git push -u origin\nmaster」としたためですか?\n\nQ2.「Active branches」というのは、ここへアップロードされているわけではない? \n3 か月以内の履歴を表示しているだけですか?",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T05:25:59.227",
"favorite_count": 0,
"id": "91172",
"last_activity_date": "2022-09-19T15:48:05.310",
"last_edit_date": "2022-09-19T15:48:05.310",
"last_editor_user_id": "3060",
"owner_user_id": "7886",
"post_type": "question",
"score": -2,
"tags": [
"git",
"github"
],
"title": "「git push -u origin master」の結果できた「Default branch」「Your branches」「Active branches」について",
"view_count": 229
} | [
{
"body": "GitHub ではリポジトリごとに Default Branch を設定できるので、必要なら master に変更することももちろん可能です。\n\n**設定画面の表示例:**\n\n[](https://i.stack.imgur.com/Yhcaj.png)\n\n\"Your Branches\" と \"Active branches\"\nはそれぞれフィルタの結果なので、「ここにアップロードされた」という表現は適切ではない気がします。\n\n * Your Branches ... 他から Fork したリポジトリで、自分が追加したブランチが表示される\n * Active Branches ... 過去3ヶ月以内にコミットが追加されたブランチが表示される",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T06:12:52.447",
"id": "91175",
"last_activity_date": "2022-09-19T06:12:52.447",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "3060",
"parent_id": "91172",
"post_type": "answer",
"score": 1
}
] | 91172 | 91175 | 91175 |
{
"accepted_answer_id": "91174",
"answer_count": 1,
"body": "Git BASH 経由で GitHub へ PUSH\nする際、他の誰もコミットしない一人開発で、後から履歴を振り返りたいだけの場合は、「GitHub」のどこへ PUSH すればよいですか?\n\n本体とブランチがあるのではなく、デフォルトブランチ(「Default branch」=「main」)とそれ以外のブランチがあるという感じですか? \n「git push -u origin」みたいなことは(本体がないので)できない?\n\nブランチを切らない、とはどういう意味ですか? \nデフォルトブランチ(「Default branch」=「main」)だけで開発を進めていくということですか?",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T05:34:15.310",
"favorite_count": 0,
"id": "91173",
"last_activity_date": "2022-09-19T06:02:24.917",
"last_edit_date": "2022-09-19T06:02:24.917",
"last_editor_user_id": "3060",
"owner_user_id": "7886",
"post_type": "question",
"score": 0,
"tags": [
"git",
"github"
],
"title": "他の誰もコミットしない一人開発で、後から履歴を振り返りたいだけの場合は、「GitHub」のどこへ PUSH すればよいですか?",
"view_count": 132
} | [
{
"body": "GitHub を利用するのは、主に複数ユーザーでコードを共有する場合ですが、自分自身が複数のPCを利用する場合も含まれます。\n\n単純に履歴を管理したいだけであれば、GitHub に push せずとも、ローカルで Git を利用するだけで事足ります。\n\n* * *\n\nGitHub\nを利用した場合も、コラボレータとして他のユーザを追加しない限りは、自分自身しか直接コミットを更新することはできません。ただし、デフォルトではパブリック\n(公開) に設定されるので、見られたらコードが含まれるような場合にはプライベートに設定するといった運用も考えられます。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T06:02:15.660",
"id": "91174",
"last_activity_date": "2022-09-19T06:02:15.660",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "3060",
"parent_id": "91173",
"post_type": "answer",
"score": 0
}
] | 91173 | 91174 | 91174 |
{
"accepted_answer_id": null,
"answer_count": 2,
"body": "JavaScript(ECMAScript)において、`Function.prototype.length` は必須パラメータの数を返します。\n\n * [Function.length - JavaScript | MDN](https://developer.mozilla.org/ja/docs/Web/JavaScript/Reference/Global_Objects/Function/length)\n\nECMAScriptでオプション引数を指定するには、`arguments` もしくは「rest parameter」を使用する方法があります。 \n`arguments` は class 構文等の一部構文で使用できない為、「rest parameter」を使用するのが概ね現実解となります。\n\n```\n\n 'use strict';\n function foo (...args) {\n if (args.length && typeof args[0] !== 'string') throw new TypeError(args[0] + ' is not a string');\n }\n \n function bar () {\n if (arguments.length && typeof arguments[0] !== 'string') throw new TypeError(arguments[0] + ' is not a string');\n }\n \n console.log(foo.length); // 0\n console.log(bar.length); // 0\n foo();\n bar();\n```\n\n一方、TypeScriptではオプション引数を指定する方法に `?` がありますが、この構文を使用した場合、\n**Function.prototype.length が不正値になります** 。\n\n```\n\n // TypeScript\n function foo (string?:string) {}\n console.log(foo.length); // 1\n foo();\n \n```\n\n「rest parameter」でany型を指定しつつ、各々の引数を型付き変数に代入すれば、ECMAScriptと同じ実装になりますが、\n**変数定義が必須** になってしまいます。。\n\n```\n\n // TypeScript\n function foo (...args:any) {\n const string: string = args[0];\n }\n console.log(foo.length); // 0\n foo();\n \n```\n\nTypeScriptで次の条件を満たすことは可能でしょうか。\n\n * `Function.prototype.length` が必須パラメータの数を返す\n * 仮引数で「型指定」かつ「オプション引数指定」を行う",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T10:12:15.173",
"favorite_count": 0,
"id": "91176",
"last_activity_date": "2022-09-22T14:41:50.657",
"last_edit_date": "2022-09-19T21:43:18.127",
"last_editor_user_id": "3054",
"owner_user_id": "20262",
"post_type": "question",
"score": 1,
"tags": [
"javascript",
"typescript"
],
"title": "TypeScriptでオプション引数を指定しつつ、Function#lengthに正規の値を入れる方法",
"view_count": 257
} | [
{
"body": "トランスパイル結果から想像するに、 TypeScript の `function foo(text?: string) {}` は JavaScriptの\n`function foo(text) {}` 相当になるようにデザインされているので無理ではないでしょうか。 \n(引数が存在しないわけではなく、呼び出し時に省略した場合に`undefined`が代入される)\n\n代替策としては、[仕様](https://developer.mozilla.org/ja/docs/Web/JavaScript/Reference/Global_Objects/Function/length#%E8%A7%A3%E8%AA%AC)の\n\n> 既定値を持つ引数が最初に登場する前までしか含みません\n\nを利用する方法が考えられます。 \n(`\"target\": \"ES6\"` (以降)の設定が必要)\n\n```\n\n // TypeScript\n function foo(text: string | undefined = undefined) {}\n console.log(foo.length); // 0\n foo();\n \n```\n\n([playground](https://www.typescriptlang.org/play?target=2#code/PTAEBUE8AcFMGUDGAnAltALgKAGYFcA7RDVAewNB1NIAoNYAPDALlAGcM0CBzUAH1CEAJrByoCsIaAC8ggiLEShASlABvAL5ZE5NqQA2sAHT7S3GlVInYPDAAtlAblAhQABlzUaTrEA))",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T16:32:22.557",
"id": "91182",
"last_activity_date": "2022-09-19T16:32:22.557",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "2808",
"parent_id": "91176",
"post_type": "answer",
"score": 1
},
{
"body": "### Tuple型と分割代入を使う方法\n\n> 「rest\n> parameter」でany型を指定しつつ、各々の引数を型付き変数に代入すれば、ECMAScriptと同じ実装になりますが、変数定義が必須になってしまいます。。\n\n[Tuple\nType](https://www.typescriptlang.org/docs/handbook/2/objects.html#tuple-types)\nを使うと、`any` とせずに `...args: [string?]` とできます。さらに、分割代入を使うと変数定義は不要となります。\n\n```\n\n function foo(...[str]: [string?]) {\n console.log(str)\n }\n \n```\n\n### 引数に `undefined` を許容しない方法\n\n> 「foo(undefined) が通ってしまう」と「foo()とfoo(undefined)を区別できない」の2つの課題があるのがネック \n> —— [出羽和之さんの回答\n> へのコメント](https://ja.stackoverflow.com/questions/91176/91182#comment103550_91182)\n\nこれは一般的なことで、上のように Rest parameters\n(残余引数)を用いても同じです。どうしても回避したい場合は、[オーバーロード](https://www.typescriptlang.org/docs/handbook/2/functions.html#function-\noverloads)の関数シグネチャで引数の数と型を場合ごとに明示できます。\n\n```\n\n // 関数シグネチャ:\n function foo(): void\n function foo(str: string): void\n \n // 実装:\n // 呼び出しの型チェックは下にある実装部の関数シグネチャではなく、\n // 上の関数シグネチャで行われます。\n // よって、foo(undefined) はコンパイルエラーとなります。\n function foo(...[str]: [string?]) {\n console.log(str)\n }\n \n```\n\n### 追記: 省略可能な引数の型\n\n上で `foo(undefined)` が通るのが「一般的」としたのは、JavaScript\nがそのような仕様であることはもちろんですが、その仕様に依存し利用するコードが書かれている、という意味合いです。TypeScript\nの設計方針は、このようなコーディングを咎めることなく許容しつつ、厳密な null チェックも可能にするものだと思います。\n\n参考: [Use Optional\nParameters](https://www.typescriptlang.org/docs/handbook/declaration-files/do-\ns-and-don-ts.html#use-optional-parameters)\nでは型定義ファイルの作成という文脈ですが、オーバーロードよりもオプション引数を用いて `undefined` を許容することが推奨されています。",
"comment_count": 4,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T21:41:56.503",
"id": "91183",
"last_activity_date": "2022-09-22T14:41:50.657",
"last_edit_date": "2022-09-22T14:41:50.657",
"last_editor_user_id": "3054",
"owner_user_id": "3054",
"parent_id": "91176",
"post_type": "answer",
"score": 1
}
] | 91176 | null | 91182 |
{
"accepted_answer_id": "91185",
"answer_count": 2,
"body": "こんにちは, \n今回はArduinoのfloat, つまりIEEE 754表現について教えていただきたいです.\n\nfloatは4byteで構成されていますが,その1byteずつを数字で表すとどうなるのでしょうか?2進数でも,10進数でも,16進数でも構いません.\n\nたとえば,pi=3.141592というfloatは,1byteずつ数字で表すとどうなりますでしょうか?\n\nいただいた回答は,私の手持ちのプログラムによって,\n\n```\n\n data[0]=上位1byte \n data[1]=次の1byte \n data[2]=次の次の1byte \n data[3]=下位1byte \n \n```\n\nとして格納し,以下のようなbitシフトを使って元の値に戻るか確かめます.(もしbitシフトの方法も間違えているようであれば教えてくださいませ)\n\n```\n\n float re_pi = (float) (\n (((uint32_t)data[0] << 24) & 0xFF000000)\n | (((uint32_t)data[1] << 16) & 0x00FF0000)\n | (((uint32_t)data[2] << 8) & 0x0000FF00)\n | (((uint32_t)data[3] << 0) & 0x000000FF)\n );\n \n```\n\n9/20追記 SPIに使っているコードを追記します.\n\n```\n\n #include <SPI.h>\n \n volatile uint32_t data[4];\n volatile uint8_t count=0;\n \n \n \n \n void setup(){\n Serial.begin(115200);\n SPCR |= _BV(SPE);\n SPI.attachInterrupt(); // (3)\n }\n \n void loop(){\n \n \n }\n \n \n \n ISR(SPI_STC_vect){ // (4)\n \n data[count]=SPDR;\n count += 1;\n \n if(count==4){\n count=0;\n \n \n float result = (float) (\n (((uint32_t)data[0] << 24) & 0xFF000000)\n | (((uint32_t)data[1] << 16) & 0x00FF0000)\n | (((uint32_t)data[2] << 8) & 0x0000FF00)\n | (((uint32_t)data[3] << 0) & 0x000000FF)\n );\n \n Serial.println(result);\n \n }\n }\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T12:04:03.800",
"favorite_count": 0,
"id": "91177",
"last_activity_date": "2022-09-20T04:45:32.323",
"last_edit_date": "2022-09-20T04:45:32.323",
"last_editor_user_id": "41334",
"owner_user_id": "41334",
"post_type": "question",
"score": 1,
"tags": [
"c++",
"c",
"arduino"
],
"title": "ArduinoのfloatつまりIEEE 754表現の,1byteずつに着目したいです",
"view_count": 240
} | [
{
"body": "こういうのは自分の手でいろいろ試してみるのが吉。 \n[浮動小数点数内部表現シミュレータ](https://tools.m-bsys.com/calculators/ieee754.php) \nこれによると `3.141592` は `0x40490FD8` だそうな。\n\nんで、後者の代入なんですが文法的には正しいのですが `0x40490FD8` という整数(10進数表記すると `1078530008`) を `float`\nに代入するという意味に解釈されるので期待した動作にはならないでしょう。なのでここは別途の工夫が必要です。今のこの時点では宿題にしておこう。\n\n通信で送る受けるの際にはたいていバイト列として送るとよいのですが、先の値を\n\n * 0x40 0x49 0x0F 0xD8 の順に送るか\n * 0xD8 0x0F 0x49 0x40 の順に送るか\n\nは送る側と受ける側での事前の合意が必要です(ネットワーク電文の設計っスね) \nそして(先の変換の話に絡んでくるので)こういうときは[エンディアネス](https://ja.wikipedia.org/wiki/%E3%82%A8%E3%83%B3%E3%83%87%E3%82%A3%E3%82%A2%E3%83%B3)という話が必ず出てきます。\nArduino がどっち raspberrypi がどっちかは練習なので自分で調べてみましょう。\n\n* * *\n\nSPI 通信って1つのトランザクション内でコマンドとデータが不可分なので、コメントにある通り受信側はたいてい「コマンドとデータが1つにまとまった値」を\n(32bit なり 16bit なりで) 受け取ることになります。今欲しいのはそのうちのデータペイロード 8bit\n分だけのはず。よって受信側はデータ部だけを抽出するコードが必要です。\n\n```\n\n // コンパイルとか一切してない手書きプログラムっス\n uint32_t data[4]; // SPI 受信結果の生データ(コマンドを含むもの)\n union my_receive_data_converter_type {\n uint8_t bytes[4]; // SPI 受信1回に含まれるペイロードバイト\n float value; // SPI 受信4回で成立する float の値\n };\n my_recive_data_coverter_type f;\n // ペイロードバイトが 32bit 値の下位 8bit に入っているとして\n for (int i=0; i<4; ++i) { f.bytes[i]=(uint8_t)(data[i]&0xFF); }\n DebugPrint(f.value);\n \n```\n\nこんな感じ。このコードを実行するタイミングがいつであるとかはあえて省略しますので考えてみてください。\n\nこのサンプル自体はエンディアンについては意識していません。どこをどう修正すると「バス上観測されるであろう信号のエンディアン」「メモリに格納する際のエンディアン」が変わるかも宿題にしときます。\n\n# SPI の場合 32bit Transaction で 16bit Payload が運べそうな気がする。",
"comment_count": 4,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T23:30:13.947",
"id": "91185",
"last_activity_date": "2022-09-20T01:49:25.590",
"last_edit_date": "2022-09-20T01:49:25.590",
"last_editor_user_id": "8589",
"owner_user_id": "8589",
"parent_id": "91177",
"post_type": "answer",
"score": 3
},
{
"body": "`float re_pi = *((float*)data);` ででてくるんじゃないかと。",
"comment_count": 7,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T00:06:34.640",
"id": "91186",
"last_activity_date": "2022-09-20T00:06:34.640",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "27481",
"parent_id": "91177",
"post_type": "answer",
"score": 0
}
] | 91177 | 91185 | 91185 |
{
"accepted_answer_id": "91181",
"answer_count": 3,
"body": "3列入れ子配列[[i,j,k],[l,m,n],...]から、2列(i=lかつj=m)が一致しているときのみ、もう一列を足し合わせたい(k+n...)と考えております。\n\n言葉でうまくまとめられないので、画像を用いて説明すると現在、 \n[](https://i.stack.imgur.com/B4Tx3.png)\n\nのような、配列のデータを持っています。 \nこのうち先頭の二列が一致する配列の場合、末尾の一列を足し合わせる処理を行いたいです。\n\n(例)[-0.01,37.225,49.526255],[-0.01,37.225,37.288825])の場合に、 \n→[-0.01,37.225,86.81508]\n\n全配列数は6000ほどで、先頭の二列が一致するのは一回のみとは限りません。 \n上記の処理により最終的には、先頭の二列が同じ組が全配列内に存在しないようにしたいです。\n\nお手数をお掛けして申し訳ございませんが、どなたか知恵を授けていただけると幸いです。 \nよろしくお願い致します。\n\n[追記] \n現在考えているコードを張ります。勉強を始めたばかりで、意味不明なコードになっているかも知れません。\n\n[](https://i.stack.imgur.com/OqpOq.png)",
"comment_count": 6,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T12:27:16.857",
"favorite_count": 0,
"id": "91178",
"last_activity_date": "2022-09-20T22:38:48.630",
"last_edit_date": "2022-09-20T22:38:48.630",
"last_editor_user_id": "54449",
"owner_user_id": "54449",
"post_type": "question",
"score": 1,
"tags": [
"python",
"array"
],
"title": "3列入れ子配列[[i,j,k],[l,m,n],...]から、2列(i=lかつj=m)が一致しているときのみ、もう一列を足し合わせたい(k+n...)",
"view_count": 98
} | [
{
"body": "元の並びは保持していません。Pandas使用された方が良いかと思いますが、numpy.ndarrayで実装してみました。\n\n```\n\n import numpy as np\n \n a = np.random.randint(4, 10, (10, 3))\n print(a)\n #array([[5, 8, 4],\n # [5, 4, 6],\n # [5, 8, 9],\n # [5, 7, 8],\n # [4, 4, 7],\n # [8, 7, 8],\n # [9, 6, 6],\n # [4, 8, 8],\n # [9, 9, 4],\n # [7, 7, 4]])\n \n first = np.unique(a[:,0])\n second = np.unique(a[:,1])\n \n result = []\n for f in first:\n for s in second:\n u, counts = np.unique((np.where(a[:,0] == f)[0].tolist()+np.where(a[:,1] == s)[0].tolist()), return_counts=True)\n if len(np.where(counts > 1)[0]) > 1:\n result.append(np.hstack((a[u[counts != 1]][0, 0:2], a[u[counts != 1],2].sum())).tolist())\n else:\n tmp = a[np.where((a[:,0] == f) & (a[:,1] == s))[0]]\n if len(tmp) > 0:\n result.append(tmp[0].tolist())\n \n result = np.array(result)\n print(result)\n #array([[ 4, 4, 7],\n # [ 4, 8, 8],\n # [ 5, 4, 6],\n # [ 5, 7, 8],\n # [ 5, 8, 13],\n # [ 7, 7, 4],\n # [ 8, 7, 8],\n # [ 9, 6, 6],\n # [ 9, 9, 4]])\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T14:20:36.747",
"id": "91179",
"last_activity_date": "2022-09-19T14:20:36.747",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "39819",
"parent_id": "91178",
"post_type": "answer",
"score": 0
},
{
"body": "並びは保持しない (pandasとかじゃない) Pythonでの方法 \n(別解の初期処理そのまま利用させてもらいました)\n\n```\n\n from itertools import groupby\n import numpy as np\n \n arr = np.random.randint(4, 10, (20, 3))\n \n grpkey = lambda x: [x[0], x[1]]\n res = [k +[sum(m[-1]for m in g)]\n for k,g in groupby(sorted(arr, key=grpkey), grpkey)]\n \n \n # 結果の表示\n for k,g in groupby(sorted(arr, key=grpkey), grpkey):\n print(k, list(g))\n # [4, 8] [array([4, 8, 8])]\n # [5, 4] [array([5, 4, 4])]\n # [5, 5] [array([5, 5, 6])]\n # [5, 6] [array([5, 6, 7])]\n # [5, 7] [array([5, 7, 8]), array([5, 7, 6]), array([5, 7, 7]), array([5, 7, 6]), array([5, 7, 5])]\n # [5, 8] [array([5, 8, 4])]\n # [6, 4] [array([6, 4, 6])]\n # [6, 9] [array([6, 9, 8])]\n # [7, 7] [array([7, 7, 4])]\n # [7, 9] [array([7, 9, 6]), array([7, 9, 8])]\n # [8, 5] [array([8, 5, 5]), array([8, 5, 8])]\n # [8, 9] [array([8, 9, 4]), array([8, 9, 4])]\n # [9, 8] [array([9, 8, 4])]\n \n display(res)\n # [[4, 8, 8],\n # [5, 4, 4],\n # [5, 5, 6],\n # [5, 6, 7],\n # [5, 7, 32],\n # [5, 8, 4],\n # [6, 4, 6],\n # [6, 9, 8],\n # [7, 7, 4],\n # [7, 9, 14],\n # [8, 5, 13],\n # [8, 9, 8],\n # [9, 8, 4]]\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T15:20:48.880",
"id": "91180",
"last_activity_date": "2022-09-19T15:20:48.880",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "43025",
"parent_id": "91178",
"post_type": "answer",
"score": 0
},
{
"body": "```\n\n import pandas as pd\n from pprint import pprint\n \n data_list_ACF_2 = [\n [-0.01, 37.225, 49.526255],\n [-0.0098, 37.225, 11.429136],\n [-0.0096, 37.225, 7.31264],\n [-0.0094, 37.225, 2.089326],\n [-0.01, 37.225, 37.288825]]\n \n df = pd.DataFrame(data=data_list_ACF_2)\n data_list_ACF_3 = df.groupby([0, 1], sort=False, as_index=False)[2].sum().values.tolist()\n \n pprint(data_list_ACF_3)\n \n #\n [[-0.01, 37.225, 86.81508],\n [-0.0098, 37.225, 11.429136],\n [-0.0096, 37.225, 7.31264],\n [-0.0094, 37.225, 2.089326]]\n \n```",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-19T16:00:15.943",
"id": "91181",
"last_activity_date": "2022-09-19T16:09:43.543",
"last_edit_date": "2022-09-19T16:09:43.543",
"last_editor_user_id": "47127",
"owner_user_id": "47127",
"parent_id": "91178",
"post_type": "answer",
"score": 0
}
] | 91178 | 91181 | 91179 |
{
"accepted_answer_id": "91190",
"answer_count": 1,
"body": "こんにちは,\n\n今,1.「ある数を定義すると」2.「あとはその数をIEEE754表現に直して(4byte)」3.「それを1byteずつの要素のリストにしてくれる」プログラムを書いています.ほとんど出来ているのですが,どうにも最後の工程のスマートなやり方がわかりません.ぜひ教えていただきたいです,\n\n1.「ある数を定義すると」は例としてpiを採用します\n\n```\n\n pi=3.141592\n \n```\n\n2.「あとはその数をIEEE754表現に直して(4byte)」についてはstructを使います,リトルエンディアンにしてます.\n\n```\n\n import struct\n buff=struct.pack(“<f”,pi) \n print( buff.hex()) #d80f4940\n \n```\n\n3.「それを1byteずつの要素のリストにしてくれる」最後ここがわかりません.\n\n目標は `bytes=[ 0xd8, 0x0f, 0x49, 0x40 ]` あるいは `bytes=[ 216, 15, 73, 64\n]`のようなものを自動で生成することなのですが,これをやろうとするとどうにも回りくどくなってしまって…(strを分けて,0xをくっつけて...のように)\n\nただ,数のリストが帰って来れば良いです.何かシンプルな方法はありませんか?",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T06:43:00.013",
"favorite_count": 0,
"id": "91189",
"last_activity_date": "2022-09-20T06:47:57.383",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "41334",
"post_type": "question",
"score": 0,
"tags": [
"python",
"raspberry-pi"
],
"title": "ある数を各要素1byteずつのリストに変換したい",
"view_count": 232
} | [
{
"body": "すでに1byteずつ扱えます\n\n```\n\n import struct\n pi=3.141592\n buff=struct.pack(\"<f\", pi) \n print( buff[0]) #216\n print( buff[1]) #15\n print( buff[2]) #73\n print( buff[3]) #64\n \n```\n\n`list`にしたいならば\n\n```\n\n print(list(buff)) # [216, 15, 73, 64]\n \n```",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T06:47:57.383",
"id": "91190",
"last_activity_date": "2022-09-20T06:47:57.383",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "13127",
"parent_id": "91189",
"post_type": "answer",
"score": 3
}
] | 91189 | 91190 | 91190 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "Googleサポート様に案内を頂きまして始めて書き込みをさせて頂きます。\n\nGoogle workspace for Education FundamentalsでVaultでデータを保持する設定を行っておりますが、 \n数カ月でデータが自動消去される関係で自動的にGoogleドライブ等にエクスポートできないかと考えています。\n\n通常機能では実装が無い事を確認しておりますが、 \nその他に対応手法などございましたらご教示いただきたいです。\n\n宜しくお願い致します。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T07:01:34.150",
"favorite_count": 0,
"id": "91191",
"last_activity_date": "2022-09-20T07:52:33.860",
"last_edit_date": "2022-09-20T07:52:33.860",
"last_editor_user_id": "3060",
"owner_user_id": "54458",
"post_type": "question",
"score": 0,
"tags": [
"google-apps-script",
"google-workspace"
],
"title": "Vaultデータを定期的にGoogleドライブにエクスポートしたい",
"view_count": 76
} | [] | 91191 | null | null |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "Google workspace for Education\nFundamentalsの監査ログをAPI等を利用して全ログの保管を1日単位などでエクスポートして保管したいと考えております。\n\n通常機能では実装が無い事を確認しておりますが、 \nその他に対応手法などございましたらご教示いただきたいです。 \n宜しくお願い致します。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T08:17:53.603",
"favorite_count": 0,
"id": "91192",
"last_activity_date": "2022-09-20T08:51:47.547",
"last_edit_date": "2022-09-20T08:51:47.547",
"last_editor_user_id": "54458",
"owner_user_id": "54458",
"post_type": "question",
"score": 0,
"tags": [
"google-apps-script",
"google-workspace"
],
"title": "監査ログをエクスポートしてGドライブ等に保管したい",
"view_count": 40
} | [] | 91192 | null | null |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "ドメイン内部で共有リンクを利用している一覧の抽出をしたいと考えております。\n\n利用環境:Google workspace for Education Fundamentals\n\nGoogle社サポートには既存GUIでは対応できないと回答を頂いています。\n\n何かしらの対処方法など御座いましたらご教示頂きたいです。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T09:02:11.193",
"favorite_count": 0,
"id": "91193",
"last_activity_date": "2022-09-20T09:05:03.983",
"last_edit_date": "2022-09-20T09:05:03.983",
"last_editor_user_id": "54458",
"owner_user_id": "54458",
"post_type": "question",
"score": 1,
"tags": [
"google-apps-script",
"google-workspace"
],
"title": "内部共有リンクを探し出す",
"view_count": 37
} | [] | 91193 | null | null |
{
"accepted_answer_id": "91208",
"answer_count": 2,
"body": "下記はテキストを整形するメソッドを定義したものですが、 \nif文の条件文がelementという変数名のみとなっており、elifやelseifが存在しません。\n\nこの場合、if文による条件分岐の処理の流れはどのようなものになるのでしょうか?\n\n```\n\n def strip_person(element):\n if element:\n return element.replace('人', '')\n return element\n \n```",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T09:03:19.853",
"favorite_count": 0,
"id": "91194",
"last_activity_date": "2022-09-21T06:12:15.547",
"last_edit_date": "2022-09-20T18:17:07.230",
"last_editor_user_id": "3060",
"owner_user_id": "27812",
"post_type": "question",
"score": 0,
"tags": [
"python"
],
"title": "条件分岐のない?if文の挙動について",
"view_count": 162
} | [
{
"body": "elementが空文字であればif文の下の文は実行されず、 \n一番下のreturn elementが実行されます。 \nelementが空文字で無ければreturn element.replace('人', '')が \n実行されます。 \nつまりelementが空文字で無ければ'人'が''に変換されますので、 \n'人'の文字を消していることになります。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T09:17:53.617",
"id": "91195",
"last_activity_date": "2022-09-20T09:23:27.723",
"last_edit_date": "2022-09-20T09:23:27.723",
"last_editor_user_id": "24490",
"owner_user_id": "24490",
"parent_id": "91194",
"post_type": "answer",
"score": 1
},
{
"body": "論理演算子、比較演算子は「演算子」というように、計算して値を返すものです。\n\n例えば`and`演算子は\n\n> 式 x and y は、まず x を評価します; x が偽なら x の値を返します; それ以外の場合には、 y の値を評価し、その結果を返します。\n\n[6\\. 式 (expression) — Python 3.10.6\nドキュメント](https://docs.python.org/ja/3/reference/expressions.html#boolean-\noperations)\n\nif文の\n\n```\n\n if [cond.] : \n \n```\n\nの[cond.]部は論理演算子や比較演算子を使った式がよく使われているだけで、 \n実際には式を評価した値を見ています。\n\nというわけで\n\n```\n\n if element:\n \n```\n\nは`element`が真かどうかみています。\n\nPythonにおいて何を真、偽と扱うかはこちら\n\n> ブール演算のコンテキストや、式が制御フローの文で使われる際には、次の値は偽だと解釈されます: False 、 None 、すべての型における数値の\n> 0、空の文字列、空のコンテナ (文字列、タプル、リスト、辞書、集合、凍結集合など)。 それ以外の値は真だと解釈されます。\n\n[6\\. 式 (expression) — Python 3.9.12\nドキュメント](https://docs.python.org/ja/3.9/reference/expressions.html#booleans)",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T06:12:15.547",
"id": "91208",
"last_activity_date": "2022-09-21T06:12:15.547",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "13127",
"parent_id": "91194",
"post_type": "answer",
"score": 2
}
] | 91194 | 91208 | 91208 |
{
"accepted_answer_id": "91247",
"answer_count": 2,
"body": "slice_list_dataとdict_dataのデータがあります。\n\nslice_list_data→スライス値が含まれた空配列のリスト \ndict_data→各keyに配列の要素が含まれた辞書\n\nこちらのリストに辞書内のデータを格納したいのですが、思った通りの格納が出来ない状態です。 \nもし、お分かりの方がいましたら、教えて頂けますと幸いです。\n\n```\n\n # 自身の出力結果\n [[1, 2, 3, 4]\n [5, 6]\n [7, 8, 9]\n [1, 2]\n [3]\n [1, 2]\n [3, 4]\n [5]\n [1, 2, 3, 4]\n [5, 6]\n [7]\n [1]\n [1, 2, 3]]\n \n # 期待する出力結果\n [[1, 2, 3, 4],\n [5, 6],\n [7, 8, 9],\n [1, 2], \n [3], \n [1, 2], \n [3, 4, 5], \n [1, 2], \n [3, 4, 5, 6], \n [7], \n [1], \n [1, 2], \n [3]]\n \n```\n\n現在は、リストの5番目までは期待する結果になるのですが、 \nそれ以降は思いつかない状態です。\n\nよろしくお願い致します。\n\n現状試したコードを下記に記載します。\n\n```\n\n slice_list_data = [[[[], 0, 4], [[], 4, 6], [[], 6, 10], [[], 10, 12]],\n [[[], 0, 4], [[], 4, 6], [[], 6, 10], [[], 10, 12]],\n [[[], 0, 4], [[], 4, 6], [[], 6, 10], [[], 10, 12]],\n [[[], 0, 4], [[], 4, 6], [[], 6, 10], [[], 10, 12]],\n [[[], 0, 4], [[], 4, 6], [[], 6, 10], [[], 10, 12]],\n [[[], 0, 4], [[], 4, 6], [[], 6, 10], [[], 10, 12]]]\n \n dict_data = {1: [1, 2, 3, 4, 5, 6, 7, 8, 9],\n 2: [1, 2, 3],\n 3: [1, 2, 3, 4, 5],\n 4: [1, 2, 3, 4, 5, 6, 7],\n 5: [1],\n 6: [1, 2, 3]}\n \n \n # ここで各keyに格納されている要素を、指定した値まで各配列に格納\n temp_list = []\n for list_num, i in enumerate(list_data):\n for list_idx, j in enumerate(i):\n temp_list.append([])\n temp_list[list_num].append(dict_data[list_num+1][j[1]:j[2]])\n \n value_only_list = [ j for i in temp_list for j in i if j != [] ]\n \n # 指定した値をvalue_only_listの要素数分追加する\n # 例: [4, 2, 4, 2, 4, 2,・・・・, 4, 2, 4, 2]\n upper_limit_list = []\n \n count = 0\n while True:\n for i in num_list:\n upper_limit_list.append(i)\n \n count += len(num_list)\n \n if count > len(value_only_list*n_val):\n break\n \n # ここでは、指定した値分配列に格納されてるか確認、もし超えていた場合、再度詰め直し\n for idx, (x, y) in enumerate(zip(upper_limit_list, value_only_list)):\n if len(y) > x:\n value_only_list[idx] = y[:x]\n value_only_list.insert(idx+1, y[x:])\n \n \n # 出力結果確認\n for x in value_only_list:\n print(x)\n \n \n # 期待する出力結果\n result = [[1, 2, 3, 4],\n [5, 6],\n [7, 8, 9],\n [1, 2], \n [3], \n [1, 2], \n [3, 4, 5], \n [1, 2], \n [3, 4, 5, 6], \n [7], \n [1], \n [1, 2], \n [3]]\n \n \n print('期待する出力結果', result)\n \n```",
"comment_count": 4,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T09:37:43.833",
"favorite_count": 0,
"id": "91196",
"last_activity_date": "2022-09-23T02:04:27.520",
"last_edit_date": "2022-09-20T09:42:13.360",
"last_editor_user_id": "3060",
"owner_user_id": "47752",
"post_type": "question",
"score": 0,
"tags": [
"python",
"python3"
],
"title": "指定した上限値の値分、各配列に要素を追加する",
"view_count": 72
} | [
{
"body": "これは質問に対する回答ではなく \n質問に記載されているコードが動かなかったための, 変更です\n\nもとの`upper_limit_list` の代わりに `iter(cycle())` を使用 \n(質問を改訂する場合などに, もしも参考になるような部分があればどうぞ)\n\n```\n\n from itertools import cycle\n import pprint\n \n slice_list_data = [\n [[[], 0, 4], [[], 4, 6], [[], 6, 10], [[], 10, 12]],\n [[[], 0, 4], [[], 4, 6], [[], 6, 10], [[], 10, 12]],\n [[[], 0, 4], [[], 4, 6], [[], 6, 10], [[], 10, 12]],\n [[[], 0, 4], [[], 4, 6], [[], 6, 10], [[], 10, 12]],\n [[[], 0, 4], [[], 4, 6], [[], 6, 10], [[], 10, 12]],\n [[[], 0, 4], [[], 4, 6], [[], 6, 10], [[], 10, 12]]]\n \n dict_data = {1: [1, 2, 3, 4, 5, 6, 7, 8, 9],\n 2: [1, 2, 3],\n 3: [1, 2, 3, 4, 5],\n 4: [1, 2, 3, 4, 5, 6, 7],\n 5: [1],\n 6: [1, 2, 3]}\n \n # dict_data の内容から, slice_list_data による抜き出し\n value_only_list = []\n for p, row in enumerate(slice_list_data):\n for col in row:\n v = dict_data[p +1][col[1]: col[2]]\n if v: value_only_list.append(v)\n \n # 指定の長さより長い項目は, さらに分割\n it = iter(cycle((4,2)))\n res = []\n for v in value_only_list:\n sz = next(it)\n #print(v, sz)\n while len(v) > sz:\n res.append(v[:sz])\n v = v[sz:]\n sz = next(it)\n \n if v: res.append(v)\n \n # 中間結果, 最終結果\n pprint.pprint(value_only_list)\n pprint.pprint(res)\n \n```\n\n* * *\n\n【問題点】(コメントから転載) \n前半で`value_only_list`生成し, 後半で `[4,2]*n` のサイズ毎にさらに分割してるようで, 合成してる処理は無さそう。 \nなので `[1, 2, 3, 4], [5, 6], [7, 8, 9],` のように分割され, 「期待する出力結果」のように `[3, 4, 5]`\n(5が途中に) が現れることは無いのでは?",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T09:21:20.930",
"id": "91240",
"last_activity_date": "2022-09-22T09:21:20.930",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "43025",
"parent_id": "91196",
"post_type": "answer",
"score": 0
},
{
"body": "自己解決\n\n```\n\n # そもそものデータ構成変更\n data = [1, 2, 3, 4, 5, 6, 7, 8, 9, 1, 2, 3, 1, 2, 3, 4, 5, 1, 2, 3, 4, 5, 6, 7, 1, 1, 2, 3]\n num_list = [4, 2, 4, 2]\n \n num_list2 = []\n \n count = 0\n while True:\n for i in num_list:\n num_list2.append(i)\n \n count += len(num_list)\n \n if count >= len(data):\n \n break\n \n \n data[0] = 0\n \n tmp_list = [[]]\n \n data_idx = 0\n list_idx = 0\n \n # 下記処理でデータの中身一つずつ確認して空リストに格納する\n while data_idx < len(data):\n target_val = data[data_idx]\n storage_list = num_list2[list_idx]\n \n if target_val == 1 or len(tmp_list[list_idx]) == storage_list:\n list_idx += 1\n tmp_list.append([])\n \n tmp_list[list_idx].append(target_val)\n \n data_idx += 1\n \n \n tmp_list\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-23T02:04:27.520",
"id": "91247",
"last_activity_date": "2022-09-23T02:04:27.520",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "47752",
"parent_id": "91196",
"post_type": "answer",
"score": 0
}
] | 91196 | 91247 | 91240 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "chartクラスで作成した描画する際、通常の設定では表示できない線の種類がある且つ出力先によってDPIが異なり、描画時、以下処理にてChartGraphicsをカスタムした線、解像度を修正してから出力しております。\n\nしかし、出力あたって、現状以下の課題がございます。\n\n * グラフの数だけ処理を行う必要があるため、数が多い場合、処理に時間が掛かっている\n * PDFなどで出力した際、容量が大きくなる\n\n出力速度と容量を改善したいのですが、何か良い方法はありますでしょうか。\n\n宜しくお願い致します。\n\n**現状のコード:**\n\n```\n\n try {\n \n ChartGraphics cg = e.ChartGraphics;\n \n if((e.ChartElement is Series)) {\n \n RectangleF backup = cg.Graphics.ClipBounds;\n \n float basex = 0;\n float basey = 2005;\n float baseWidth = 4107;\n float baseHeight = 3543;\n int baseDpi = 600;\n \n float calcDpi = baseDpi / cg.Graphics.DpiX;\n \n RectangleF clipRect = new RectangleF(basex / calcDpi, basey / calcDpi, baseWidth / calcDpi, baseHeight / calcDpi);\n \n cg.Graphics.SetClip(clipRect);\n foreach(Series s in e.Chart.Series) {\n if(e.ChartElement == s) {\n if(s.BorderDashStyle != ChartDashStyle.Solid) {\n s.BorderDashStyle = ChartDashStyle.NotSet;\n \n Color penColor = s.BorderColor;\n int borderWidth = s.BorderWidth;\n s.BorderWidth = 0;\n \n string borderStyleListValue = \"\";\n foreach(KeyValuePair<string, string> kvp in borderStyleList) {\n if(kvp.Key == s.Name) {\n borderStyleListValue = kvp.Value;\n break;\n }\n }\n \n Pen blackPen = new Pen(penColor, borderWidth);\n \n switch(borderStyleListValue) {\n case \"2\":\n blackPen.DashPattern = Const.Border_Dash_Point.Long_Dash;\n break;\n case \"3\":\n blackPen.DashPattern = Const.Border_Dash_Point.Point_Dash;\n break;\n case \"4\":\n blackPen.DashPattern = Const.Border_Dash_Point.One_Point_Dash;\n break;\n case \"5\":\n blackPen.DashPattern = Const.Border_Dash_Point.Two_Point_Dash;\n break;\n case \"6\":\n blackPen.DashPattern = Const.Border_Dash_Point.Short_Dash;\n break;\n case \"7\":\n blackPen.DashPattern = Const.Border_Dash_Point.Short_Point_Dash;\n break;\n default:\n break;\n }\n int maxCount = 27;\n for(int i = 0; i < s.Points.Count - 1; i++) {\n if(maxCount >= s.Points[i + 1].XValue) {\n System.Drawing.PointF pos = System.Drawing.PointF.Empty;\n pos.X = (float)cg.GetPositionFromAxis(s.ChartArea, AxisName.X, s.Points[i].XValue);\n pos.Y = (float)cg.GetPositionFromAxis(s.ChartArea, AxisName.Y, s.Points[i].YValues[0]);\n \n System.Drawing.PointF pos2 = System.Drawing.PointF.Empty;\n pos2.X = (float)cg.GetPositionFromAxis(s.ChartArea, AxisName.X, s.Points[i + 1].XValue);\n pos2.Y = (float)cg.GetPositionFromAxis(s.ChartArea, AxisName.Y, s.Points[i + 1].YValues[0]);\n \n pos = cg.GetAbsolutePoint(pos);\n pos2 = cg.GetAbsolutePoint(pos2);\n \n cg.Graphics.DrawLine(blackPen, pos.X, pos.Y, pos2.X, pos2.Y);\n }\n }\n }\n }\n }\n \n cg.Graphics.SetClip(backup);\n } else if((e.ChartElement is LegendCell)) {\n \n Legend col = e.Chart.Legends[0];\n int count = 0;\n foreach(LegendItem item in col.CustomItems) {\n \n LegendCell cell = item.Cells[1];\n if(e.ChartElement == cell) {\n if(cell.LegendItem.BorderDashStyle != ChartDashStyle.Solid) {\n cell.LegendItem.BorderDashStyle = ChartDashStyle.NotSet;\n \n Color penColor = cell.LegendItem.Color;\n int borderWidth = cell.LegendItem.BorderWidth;\n \n Pen blackPen = new Pen(penColor, borderWidth);\n \n string borderStyleListValue = \"\";\n foreach(KeyValuePair<string, string> kvp in borderStyleList) {\n if(kvp.Key == cell.LegendItem.Name) {\n borderStyleListValue = kvp.Value;\n break;\n }\n }\n \n switch(borderStyleListValue) {\n case \"2\":\n blackPen.DashPattern = Const.Border_Dash_Point.Long_Dash;\n break;\n case \"3\":\n blackPen.DashPattern = Const.Border_Dash_Point.Point_Dash;\n break;\n case \"4\":\n blackPen.DashPattern = Const.Border_Dash_Point.One_Point_Dash;\n break;\n case \"5\":\n blackPen.DashPattern = Const.Border_Dash_Point.Two_Point_Dash;\n break;\n case \"6\":\n blackPen.DashPattern = Const.Border_Dash_Point.Short_Dash;\n break;\n case \"7\":\n blackPen.DashPattern = Const.Border_Dash_Point.Short_Point_Dash;\n break;\n default:\n break;\n }\n \n PointF pos = PointF.Empty;\n PointF pos2 = PointF.Empty;\n \n pos.X = e.Position.X;\n pos.Y = e.Position.Y + e.Position.Height / 2;\n pos2.X = e.Position.X + e.Position.Width;\n pos2.Y = e.Position.Y + e.Position.Height / 2;\n \n pos = cg.GetAbsolutePoint(pos);\n pos2 = cg.GetAbsolutePoint(pos2);\n \n cg.Graphics.DrawLine(blackPen, pos.X, pos.Y, pos2.X, pos2.Y);\n }\n }\n count++;\n }\n \n } else {\n return;\n }\n \n }catch(Exception ex) {\n Console.WriteLine(\"例外\");\n }\n \n```",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T10:39:45.040",
"favorite_count": 0,
"id": "91197",
"last_activity_date": "2022-09-20T11:54:39.540",
"last_edit_date": "2022-09-20T11:54:39.540",
"last_editor_user_id": "3060",
"owner_user_id": "54293",
"post_type": "question",
"score": 0,
"tags": [
"c#"
],
"title": "chartクラスでグラフを出力する際の描画速度の効率化",
"view_count": 451
} | [] | 91197 | null | null |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "APIを作成しました。 \nPostmanで目的のjsonデータを取得することができます。 \nフロントエンドでAxiosを用いると取得できません。 \nしばらく調べましたが、原因がわからなかったの教えていただきたいです。 \nよろしくお願いします。\n\n_`Postman`_ \nGET `http://localhost:4000/api/money/month`\n\n```\n\n {\n \"date\": \"2022-09-11\",\n \"userId\": 1\n }\n \n```\n\n_`結果`_\n\n```\n\n [\n {\n \"id\": 1,\n \"userId\": 1,\n \"amount\": 1200,\n \"memo\": \"食費\",\n \"bool\": true,\n \"date\": \"2022-09-11T00:00:00.000Z\",\n \"createdAt\": \"2022-09-19T17:31:42.000Z\",\n \"updatedAt\": \"2022-09-19T17:31:42.000Z\",\n \"UserId\": 1\n },\n {\n \"id\": 2,\n \"userId\": 1,\n \"amount\": 1200,\n \"memo\": \"食費\",\n \"bool\": true,\n \"date\": \"2022-09-11T00:00:00.000Z\",\n \"createdAt\": \"2022-09-19T17:31:50.000Z\",\n \"updatedAt\": \"2022-09-19T17:31:50.000Z\",\n \"UserId\": 1\n },\n ]\n \n```\n\n_`バックエンドAPI`_\n\n```\n\n // 月単位でレコードを取得\n router.get(\"/month\", async (req, res) => {\n try {\n const data = await Money.findAll({\n where: {\n date: { [Op.substring]: req.body.date.slice(0, 7) },\n userId: req.body.userId,\n },\n });\n if (!data) {\n return res.status(200).json({ msg: \"該当データが存在しませんでした\" });\n } else {\n return res.status(200).json(data);\n }\n } catch (err) {\n return res.status(500).json(err);\n }\n });\n \n```\n\n_`フロントエンド・コード`_\n\n```\n\n const { default: axios } = require(\"axios\");\n \n const data = {\n date: \"2022-09-11\",\n userId: 1,\n };\n \n const getFetch = async () => {\n const all = await axios.get(\"http://localhost:4000/api/money/month\", data);\n console.log(all.data);\n };\n \n getFetch();\n \n```\n\n_`結果`_\n\n```\n\n node:internal/process/promises:279\n triggerUncaughtException(err, true /* fromPromise */);\n ^\n \n [UnhandledPromiseRejection: This error originated either by throwing inside of an async function without a catch block, or by rejecting a promise which was not handled with .catch(). The promise rejected with the reason \"AxiosError: Request failed with status code 500\".] {\n code: 'ERR_UNHANDLED_REJECTION'\n }\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T11:01:36.677",
"favorite_count": 0,
"id": "91198",
"last_activity_date": "2022-09-20T11:29:06.953",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "51745",
"post_type": "question",
"score": 0,
"tags": [
"javascript",
"api",
"axios"
],
"title": "自作APIをAxios.getで叩きたい",
"view_count": 218
} | [
{
"body": "解決しました。 \nAxiosは第2引数にbody要素ではなくparamsを渡すのですね。 \nここが間違えていました。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T11:29:06.953",
"id": "91199",
"last_activity_date": "2022-09-20T11:29:06.953",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "51745",
"parent_id": "91198",
"post_type": "answer",
"score": 1
}
] | 91198 | null | 91199 |
{
"accepted_answer_id": "91202",
"answer_count": 2,
"body": "どのようにコードを書き換えれば「期待する結果」のような出力がだせるのかわかりません。 \nお知恵をいただければ幸いです。\n\n### データセット\n\n```\n\n import pandas as pd\n import numpy as np\n \n df = pd.DataFrame([[\"tanaka\", 81], [\"naka\", 63], [\"ka\", 89], [\"saitou\", 93], [\"ito\", 56], [\"suzuki\", 76]], columns=['name', 'score'])\n df\n \n```\n\n[](https://i.stack.imgur.com/P6yyT.png)\n\n### 【試したこと】条件列追加コード\n\n```\n\n conditions = [\n 'ta' in df['name'],\n 'su' in df['name']\n ]\n \n choices = ['ta','su']\n \n df['test1'] = np.select(conditions, choices, default=0) #defaultを入れることでelseの代わりになる!\n df\n \n```\n\n#### その結果(すべてデフォルト値のゼロになってしまう)\n\n[](https://i.stack.imgur.com/kyk0Z.png)\n\n#### 期待する結果\n\n[](https://i.stack.imgur.com/DAsyu.png)",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T18:20:00.997",
"favorite_count": 0,
"id": "91200",
"last_activity_date": "2022-09-21T00:05:15.347",
"last_edit_date": "2022-09-21T00:05:15.347",
"last_editor_user_id": "3060",
"owner_user_id": "52824",
"post_type": "question",
"score": 0,
"tags": [
"python",
"pandas"
],
"title": "データフレームである列の値に特定の文字列を含む場合、追加した列に指定した文字列を表示したい",
"view_count": 262
} | [
{
"body": "```\n\n conditions = ['ta' in df['name'], 'su' in df['name']]\n \n```\n\nですと、`[False, False]`となってしまいますので、\n\n```\n\n conditions = [df['name'].str.contains('ta'), df['name'].str.contains('su')]\n \n```\n\nとします。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T23:09:47.883",
"id": "91202",
"last_activity_date": "2022-09-20T23:09:47.883",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "39819",
"parent_id": "91200",
"post_type": "answer",
"score": 0
},
{
"body": "```\n\n import pandas as pd\n import numpy as np\n \n df = pd.DataFrame([[\"tanaka\", 81], [\"naka\", 63], [\"ka\", 89],\n [\"saitou\", 93], [\"ito\", 56], [\"suzuki\", 76]],\n columns=['name', 'score'])\n \n choices = ['ta', 'su']\n conditions = [df['name'].str.contains(c) for c in choices]\n df['test1'] = np.select(conditions, choices, default=0)\n print(df)\n \n```\n\nname | score | test1 \n---|---|--- \ntanaka | 81 | ta \nnaka | 63 | 0 \nka | 89 | 0 \nsaitou | 93 | 0 \nito | 56 | 0 \nsuzuki | 76 | su",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-20T23:13:27.500",
"id": "91203",
"last_activity_date": "2022-09-20T23:13:27.500",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "47127",
"parent_id": "91200",
"post_type": "answer",
"score": 0
}
] | 91200 | 91202 | 91202 |
{
"accepted_answer_id": null,
"answer_count": 2,
"body": "HTMLとJavaScriptで作成した「入力フォーム&HTTPリクエスト」のプログラムをAmazon S3にホスティングすると、 **corsエラー**\nが発生してしまいます。\n\n色々と調べてみましたが、まだまだ知識がなく、HTML、JavaScriptコードのどこにどのように `Access-Control-Allow-\nOrigin: *` を設定すれば解決できるかわからないため、教えて頂けないでしょうか。\n\n**エラー内容1**\n\n```\n\n Access to XMLHttpRequest at 'https://〇〇〇' from origin 'https://△△△' has been blocked by CORS policy: Request header field access-control-allow-origin is not allowed by Access-Control-Allow-Headers in preflight response.\n \n```\n\n**エラー内容2**\n\n```\n\n GET https://〇〇〇 net::ERR_FAILED\n \n```\n\n**HTMLコード**\n\n```\n\n <!DOCTYPE html>\n <heml lang=\"ja\">\n <head>\n <meta charset=\"utf-8\">\n <title>私のWebアプリケーション</title>\n </head>\n <body>\n \n <article>\n <h1>API Gatewayを呼び出すツール</h1>\n <p>入力した文章をAWS Lambdaで処理します。Outputに処理した結果が表示されます。</p>\n <section>\n <h2>Input</h2>\n <textarea id=\"input_textfield\" name=\"input\" rows=\"4\" cols=\"60\"></textarea>\n <br>\n <input type=\"submit\" value=\"変換\" onclick=\"send_message();\">\n <script src=\"MyWebApplicationTest.js\"></script>\n <h2>Output</h2>\n <p id=\"output_label\">(ここに結果が表示されます)</p>\n </section>\n </article>\n </body>\n </heml>\n \n```\n\n**JavaScriptコード**\n\n```\n\n const send_message = () => {\n // URLを作成\n let input_label = document.getElementById(\"input_textfield\");\n var parameter = input_label.value;\n parameter = parameter.replace(/\\r?\\n/g, '\\\\r\\\\n'); // 改行コードを入れるとAWSでの処理が怪しかったので、文字列に置換している(TODO:改善)\n parameter = encodeURI(parameter);\n console.log(parameter);\n \n request_url = \"https://〇〇〇\";\n request_url = request_url + parameter;\n console.log(request_url);\n \n // リクエストオブジェクトの作成\n var request = new XMLHttpRequest();\n request.open('GET', request_url, true);\n request.setRequestHeader(\"x-api-key\", \"×××\");\n request.responseType = 'json';\n \n // リクエストが成功したときに呼ばれる関数\n request.onload = function () {\n var json_data = this.response;\n var return_message = JSON.parse(json_data[\"body\"]);\n // 結果をhtmlに表示する\n let output_label = document.getElementById(\"output_label\");\n output_label.innerText = return_message\n };\n \n request.send(); // URLリクエストを送信する\n }\n \n```\n\n**Lambdaコード**\n\n```\n\n import json\n \n def lambda_handler(event, context):\n message = event['input']\n edited_message = \"「\" + message + \"」という文章をLambdaで受信しました。\"\n \n return {\n 'statusCode': 200,\n 'headers': {\n 'Access-Control-Allow-Origin': '*',\n },\n 'body': json.dumps(edited_message)\n }\n \n```\n\n※下記ページのコードを参考にさせて頂いております。 \n[Pythonしか書きたくない人が、AWS上にWEBアプリを作ってみました。](https://qiita.com/IKEH/items/d1495a37649c25bcfc27)",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T05:26:13.517",
"favorite_count": 0,
"id": "91205",
"last_activity_date": "2022-10-14T19:02:42.983",
"last_edit_date": "2022-09-28T01:02:55.313",
"last_editor_user_id": "54463",
"owner_user_id": "54463",
"post_type": "question",
"score": 1,
"tags": [
"javascript",
"html",
"aws",
"cors"
],
"title": "corsエラー「Access-Control-Allow-Origin: *」の設定方法",
"view_count": 5704
} | [
{
"body": "CORSヘッダーは API側(ajaxリクエストに対してレスポンスを返す側)で指定します。\n\n大雑把には [REST API リソースの CORS を有効にする - Amazon API\nGateway](https://docs.aws.amazon.com/ja_jp/apigateway/latest/developerguide/how-\nto-cors.html) にあるとおりです。\n\n今回は単純なGETリクエストであり、`Access-Control-Allow-Origin`だけ付与して返せばいいので\n\n```\n\n import json\n \n def lambda_handler(event, context):\n message = event['input']\n edited_message = \"「\" + message + \"」という文章をLambdaで受信しました。\"\n \n return {\n 'statusCode': 200,\n 'headers': {\n 'Access-Control-Allow-Origin': '*',\n },\n 'body': json.dumps(edited_message)\n }\n \n \n```\n\nといったところでしょうか。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-27T10:51:23.510",
"id": "91337",
"last_activity_date": "2022-09-27T10:51:23.510",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "2376",
"parent_id": "91205",
"post_type": "answer",
"score": 1
},
{
"body": "JS のコードを拝見するにカスタムヘッダーを用いたいという意図がみえますので、プリフライトを伴う CORS の設定を行う必要があります。 \n<https://developer.mozilla.org/ja/docs/Web/HTTP/CORS#preflighted_requests>\n\nAPI GW + Lambda の構成の場合、下記URLのような実装パターンがあり、ご自身の環境に合わせて最適な実装を選択していただく必要があります。 \n<https://docs.aws.amazon.com/ja_jp/apigateway/latest/developerguide/how-to-\ncors.html>\n\n主に API GW あるいは Lambda で以下のヘッダーを適切に実装することになります。ご参考まで。\n\n * Access-Control-Allow-Methods\n * Access-Control-Allow-Headers\n * Access-Control-Allow-Origin",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-10-14T19:02:42.983",
"id": "91606",
"last_activity_date": "2022-10-14T19:02:42.983",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "16793",
"parent_id": "91205",
"post_type": "answer",
"score": 0
}
] | 91205 | null | 91337 |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "こんにちは, \n現在,ラズパイが4byteを生成し,それを1byteずつSPIで送り,Arduinoが4byte受け取ったら繋げて情報を復元する,というプログラムを作っています.floatを送りたかったのです.(正直,小数点の数字さえ送れるなら\nI2CでもSPIでも良いですが,海外サイトを含めて統一的に書いているサイトが見つけられませんでした.もう五日くらい探しています)\n\nうまいこと作れたのですが,早いループだと受信側?がきちんと数を再構成できずに,メチャクチャな数字を吐き出します.これはおそらく,Arduinoが受け取りのタイミングをミスして,間違った結合で数を再構築しているからだと思います.Arduinoは,「1bye受け取るたびに\ncounter に+1して,counter==4\nになると,つまり4byte揃うと今までのデータを結合する」という単純な処理になっています.これはつまり,”4回受信さえ”すれば,とにかくくっつけて吐き出してください,という処理のため,メチャクチャな数字を吐き出すのだと考えます. \nラズパイ側がそもそもbyteを伝えられていない(レベルシフターを使っていないので,Arduinoは3.3Vの矩形波を受け取っていて,それがよくない?)\nなど他にも問題があるかもしれませんが,まずは一番考えられそうな,タイミングずれてる問題について質問します.何かうまいこと,「4byteの数字を受け取ったら結合」という指示にできませんでしょうか,あるいはそれ以外でまずいことをしていたら教えていただきたいです.\n\n```\n\n //Arduinoスレーブコード\n #include <SPI.h>\n \n \n \n volatile uint32_t data[4];\n volatile uint8_t count=0;\n \n union my_receive_data_converter_type {\n uint8_t bytes[4]; // SPI 受信1回に含まれるペイロードバイト\n float value; // SPI 受信4回で成立する float の値\n };\n \n \n \n \n void setup(){\n Serial.begin(115200);\n SPCR |= _BV(SPE);\n SPI.attachInterrupt(); // (3)\n \n \n \n }\n \n void loop(){\n \n \n \n }\n \n \n \n \n ISR(SPI_STC_vect){ // (4)\n \n \n data[count]=SPDR;\n count += 1;\n \n if(count==4){\n count=0;\n \n \n my_receive_data_converter_type f;\n for (int i=0; i<4; ++i) { f.bytes[i]=(uint8_t)(data[i]&0xFF); }\n Serial.println((f.value));\n \n }\n \n \n }\n \n```\n\n次にマスターです.piを一回こっきり送るだけは成功します.が,While loopのように連続送信ではクラッシュします.\n\n```\n\n #Raspiマスターコード\n \n \n import spidev\n import RPi.GPIO as GPIO\n import struct\n \n \n spi=spidev.SpiDev()\n spi.open(0,0)\n spi.max_speed_hz =250000\n spi.lsbfirst=False\n channel=2\n TIME=0\n \n buff=struct.pack(\"<f\",3.141592)\n bytelist=list(buff)\n spi.xfer2(bytelist)\n #spi.xfer2([1])\n spi.close()\n \n \"\"\"\n #------RUN main------------------\n while True:\n \n Timer = time.perf_counter()\n TIME += dt\n \n \n buff=struct.pack(\"<f\",TIME)\n bytelist=list(buff)\n spi.xfer2(bytelist)\n \n \n dt = time.perf_counter() - Timer\n \"\"\"\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T05:32:02.137",
"favorite_count": 0,
"id": "91206",
"last_activity_date": "2022-09-21T07:25:44.070",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "41334",
"post_type": "question",
"score": 0,
"tags": [
"python",
"c++",
"c",
"raspberry-pi",
"arduino"
],
"title": "ラズパイ to Arduino: SPI送受信のタイミングが合わずに乱れる",
"view_count": 197
} | [
{
"body": "その使用している相手のデバイスのデータシートをよく読もう。\n\nSPIってのは単にバイトデータを連続して送るだけなので、途中でなにかあって余計なビットが欠落したり余分に認識したりするとあとのデータ送信/受信が破綻します。 \nこうならないように、SPIデバイス側ではCS(ChipSelect)信号などで同期を取ります \n提示のコードでは、こういう同期用の操作というのが見えません\n\nあまつさえ、一つの信号を送るたびに、いちいちSPIデバイスのOpen/Closeを繰り返しているというのは非常にマズイです。デバイスをCloseすると言うのは当該ポートを開放するってことなので、その間にポートになにがあっても知ったこっちゃないということになります\n\n#別質問の質疑応答もそうですが、まだまだそういうのを扱うスキルがついてないような気がします。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T07:25:44.070",
"id": "91213",
"last_activity_date": "2022-09-21T07:25:44.070",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "27481",
"parent_id": "91206",
"post_type": "answer",
"score": 1
}
] | 91206 | null | 91213 |
{
"accepted_answer_id": "91211",
"answer_count": 3,
"body": "私は大学の研究のためにここ5日ほど,ラズパイのPythonの数値(小数点)をArduinoにどうにか伝えようと(SPI or\nI2C)色んなサイトを奔走しています.(そのため私の過去質問は似たような内容で埋め尽くされています.\n\nあるいは以下のサイトでも \n<https://forum.arduino.cc/t/what-numbers-are-they-ieee-754-arduino-\nfloat/1033366/5>\n\nしかしながら結果は芳しくありません.(以下に試してきたことを書いておきます) \nもちろん,あらゆるサイトを見てきましたが,まともな例が一つもありませんでした.(海外サイトを含めて) \nそこで抽象的な質問になってしまい,申し訳ないのですが,「皆さんはラズパイが計算した値をarduinoに伝えたい,という場面に遭遇した時にどうしていますか?」 \nもし普段使っているコードがあればそのまま教えていただきたいですし,あるいはそれを実現しているサイトをご存知のようであれば教えていただきたいです.\n\nこれは何も,すべてを皆様に全投しているわけではなく,五日間という日を投資して足掻いた結果が芳しくなく,そもそもの考えの枠組みから見直すために質問させていただいているということです.\n\n### 試したこと\n\n数を1byte単位で送り,Arduinoの中でIEEE754に変換する方法はうまくいきましたが,基点となる信号を送れないため(Arduinoにとっては全てが等しく数字のため),Arduino側でbyteをカウントする必要があるために,一度読み間違えたらドミノ倒しになります.(SPI,\nI2C) \nこれはstrに変換して送る方法でも言えます.(I2C) \n結局スレーブにする時点で,「byteが来るたびに格納」する必要があり,そのbyteの受け取りミスを防ぐ方法が全てにおいて必要なのです.が,そのようなサイトを見つけることができませんでした.\n\n過去質問はこちら \n[ラズパイ to Arduino:\nSPI送受信のタイミングが合わずに乱れる](https://ja.stackoverflow.com/q/91206/41334)\n\nusbシリアルはサイトを見かけましたが,肝心のマシン(arduinoに渡った数値はモーター指令速度になります)が動かず,デバグしようにもusbポートを物理的に塞いでいるので,この案は棄却されました",
"comment_count": 7,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T05:53:55.113",
"favorite_count": 0,
"id": "91207",
"last_activity_date": "2022-09-22T01:02:35.793",
"last_edit_date": "2022-09-21T06:22:45.633",
"last_editor_user_id": "3060",
"owner_user_id": "41334",
"post_type": "question",
"score": -1,
"tags": [
"python",
"c++",
"c",
"raspberry-pi",
"arduino"
],
"title": "ラズパイのPythonの数値(小数点)をArduinoにどうにか伝えたい(SPI or I2C)",
"view_count": 344
} | [
{
"body": "区切りを電文内でつけなければならない場合、\n\n * 文字列で送る\n\n非常に単純です。`123.4`という数値を送りたいなら`\"123.4\"`という文字列を送ります。 \nメッセージの区切りは制御文字を使います。大抵改行です。 \n複数の種類の値を扱う場合はコマンド文字列を先頭に付け加えたりします。 \nマイコン側で文字列をパースする必要があるのが難点ですが、 \nArduinoなら特に問題にはならないでしょう。 \n特に理由がなければ文字列で送ります。\n\n * バイナリで送る\n\n文字列で送ると通信速度の問題がある場合は仕方なくこちらを選びます。 \nメッセージの区切りを認識するために送るデータのチェックサムなどを含めたヘッダーを作り、 \nマイコン側で区切れを探索します。\n\n* * *\n\n上は電文の中で電文の区切りを持たせる場合ですが、今回の場合そもそもSPIですので \nCS信号を区切りに使うことができます。\n\nRaspi側はCSを下げたままにしてデータ、例えば\"123.4\"を送信し(xfer2でまとめて送るとそうなる、または明示的にCSを操作する) \nArduino側ではCSを監視してL->Hになった時点でデータ転送が終了したと判断します。",
"comment_count": 9,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T06:26:55.730",
"id": "91210",
"last_activity_date": "2022-09-21T23:54:39.197",
"last_edit_date": "2022-09-21T23:54:39.197",
"last_editor_user_id": "13127",
"owner_user_id": "13127",
"parent_id": "91207",
"post_type": "answer",
"score": 2
},
{
"body": "そういうのは「電文」の設計ということになります。電文とは何らかの方法で最初と最後とチェックデジットがわかるもの、ということになりそうです。よくある\nRS232 で計測器→ PC に測定値を知らせるような場合\n\n`[STX]` ASCII 文字だけ使った電文 `[ETX]` チェックデジット\n\nのようにしておくと開始を知るには `[STX]=0x02` が見つかるまで読み捨てればよくて、そののち `[ETX]=0x03`\nがあるまで受け取ればいいわけです。更にチェック方法に従ってチェックデジットを自分で計算し、自分の計算結果と受け取った値が異なっていれば破棄するなどを行います(ノイズが混入しうる距離の伝送が前提なので)\n\nこの手続きだと本文に `STX`/`ETX` と同じ値を含むことができないので情報密度が上げられません。それが許容される場合にしか使われません。\n\nSPI の場合 `#CS=H→L` で電文開始 `#CS=L` が継続している間が電文本文 `#CS=L→H`\nで電文終了、外来ノイズから隔離されている同一基板内の通信しか想定していないのでチェックデジットは無し、ということで十分です。\n\nI2C でも `[スタートコンディション]` 電文 `[ストップコンディション]` となり、同様チェックデジットはなし、が基本です。\n\nなので SPI や I2C\nではどこで電文が開始終了するかはほぼ自明であり、わざわざ解説記事に詳細を記載するまでもないのです(当たり前すぎて解説不要だから記事を見つけられていないだけ)\n\n今回 SPI で伝送することを選ぶなら SPI バス上 32bit Transaction が可能なのに対して、今 Payload として 8bit\nしか載せていないようなので 24bit 分無駄な転送をしている可能性があります。 SPI の空き部分に `コマンド` あるいは `データ種別` として\n`データX の bit0-15` のように区別できる何かを載せるといいでしょう。\n\n* * *\n\nRaspberryPI の `spi.xfer2` はバイトの列を1つのトランザクションで送る仕様なので、1回の `spi.xfer` の呼び出しによって\n\n * `#CS=H→L` にする\n * 指定したバイト列をその順に送信する\n * `#CS=L→H` にする\n\nという挙動をします。伝送したいデータが1種類しかないならバイト列として本文だけ用意すれば十分で、複数種類あればそれを判別する別バイトを用意すればよいわけです。\n\n * 前者なら `spi.xfer2([0x40,0x49,0x0F,0xD8])` (32bit Transaction)\n * 後者なら `spi.xfer2([種類,0x40,0x49,0x0F,0xD8])` (40bit Transaction)\n\n種類の値は送る側と受ける側で合意した任意の値\n\nArduino の受信側は全然知らないので SPI の受信ロジックが `#CS` を受け付けるのか否か、何ビットの伝送ができるのかを確かめてください。\n`#CS` を受け付けるのであれば電文の開始終了は `#CS` で判断できるので小細工は不要。 40bit Transaction ができないのなら\n32bit 以下 Transaction にしなきゃならないので、データを分割する必要が生じます。 16bit\n値と電文の種類(何のどこ)も受け渡す、なんてことになります。\n\nsee also; [RaspberryPi CM4\nにて、Pythonを使用し、SPI通信で外部のEEPROMにアクセスしますが、値の読み書きができません。](https://ja.stackoverflow.com/questions/90231/)",
"comment_count": 12,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T06:37:10.457",
"id": "91211",
"last_activity_date": "2022-09-22T01:02:35.793",
"last_edit_date": "2022-09-22T01:02:35.793",
"last_editor_user_id": "8589",
"owner_user_id": "8589",
"parent_id": "91207",
"post_type": "answer",
"score": 6
},
{
"body": "> そのどちらにせよ,Arduinoはバイトに分かれたものを順番正しく保持し,揃ったら結合, \n> をしなければなりません。 \n> これの方法がどこにも載っておらず困っています.どのサイトもArduinoがます他, \n> あるいはスレーブだけど1byte受け取るだけ,で参考になりません。\n\nこれはRS232C等でも同様ですが、一般的にデータの頭にSTX、データの最後にETX等をつけ、 \nさらにデータの整合性をチェックするために、STXの後に送るデータ数をつけ、ETXの前にCRCコードをつけることにより、受信して結合したデータに欠落がないかチェックします。 \nデータが1つ欠落していた場合、STXの後のデータ数と実際のデータ数が異なりますし、CRCの値も違ってきます。 \n当然ですが、データ自身はは文字に変換して送ります。\n\n別の方法としては、1バイトデータのうち、下の4ビットのみをデータ用とし、 \n上位の4ビットはなんバイト目、これで終わり等意味で使用する方法があると思います。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T00:44:57.200",
"id": "91223",
"last_activity_date": "2022-09-22T00:51:04.750",
"last_edit_date": "2022-09-22T00:51:04.750",
"last_editor_user_id": "24490",
"owner_user_id": "24490",
"parent_id": "91207",
"post_type": "answer",
"score": 2
}
] | 91207 | 91211 | 91211 |
{
"accepted_answer_id": "91212",
"answer_count": 1,
"body": "Docker\nDesktopをCentOS7にインストールしようと、[公式の手順](https://docs.docker.com/desktop/install/fedora/)を基に実行しましたが、うまくインストール出来ず、以下のエラーが表示されました。どうすればいいでしょうか?\n\n```\n\n Docker CE Stable - x86_64 0.0 B/s | 0 B 00:00 \n repo 'docker-ce-stable' のキャッシュの同期に失敗しました、この repo を無視します。\n メタデータの期限切れの最終確認: 19:11:23 時間前の 2022年09月20日 15時19分05秒 に実施しました。\n エラー: \n 問題: conflicting requests\n - nothing provides libc.so.6(GLIBC_2.18)(64bit) needed by docker-desktop-4.12.0-85629.x86_64\n - nothing provides pass needed by docker-desktop-4.12.0-85629.x86_64\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T06:21:55.693",
"favorite_count": 0,
"id": "91209",
"last_activity_date": "2022-09-21T08:52:12.580",
"last_edit_date": "2022-09-21T08:52:12.580",
"last_editor_user_id": "3060",
"owner_user_id": "50834",
"post_type": "question",
"score": 0,
"tags": [
"linux",
"docker",
"centos"
],
"title": "CentOSにDocker Desktopをインストール出来ない",
"view_count": 163
} | [
{
"body": "Docker Desktop for Linux が現時点でサポートしているのは Ubuntu, Debian, Fedora のみであり、\n**CentOS は含まれていません** 。\n\n[Install Docker Desktop on\nLinux](https://docs.docker.com/desktop/install/linux-install/)\n\nあなたが参照しているドキュメントは Fedora 向けの手順ですが、CentOS と Fedora では OS の核となる Kernel や glibc\nのバージョンが大きく異なるため、CentOS で Fedora 向けのパッケージをそのまま使うことは出来ません。( [CentOS\n向けの導入手順はこちら](https://docs.docker.com/engine/install/centos/) )\n\nあなたが実行したコマンドの実行結果では docker-desktop パッケージの動作に **glibc-2.18** を要求されていますが、CentOS\n7 では **glibc-2.17** までしかサポートしていません。\n\n[glibc-2.17-317.el7.x86_64.rpm | CentOS\n7](https://centos.pkgs.org/7/centos-x86_64/glibc-2.17-317.el7.x86_64.rpm.html)",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T06:43:58.200",
"id": "91212",
"last_activity_date": "2022-09-21T06:43:58.200",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "3060",
"parent_id": "91209",
"post_type": "answer",
"score": 1
}
] | 91209 | 91212 | 91212 |
{
"accepted_answer_id": "91220",
"answer_count": 2,
"body": "以下のサイトなどでは、Docker Desktopを用いてDockerで使用できるメモリの上限値を変更していますが、CentOSではDocker\nDesktopを利用できないため、どうすれば、初期設定で2GBとなっているメモリ容量を変更することが出来るのでしょうか?\n\n**参考サイト:** \n[メモリ使用量を引き上げたらDockerの動作がサクサクになった話](https://techtechmedia.com/docker-trouble-\nsolution/#:%7E:text=%E5%8F%82%E8%80%83-,%E3%83%87%E3%83%95%E3%82%A9%E3%83%AB%E3%83%88%E3%81%A7%E3%81%AF%E3%83%A1%E3%83%A2%E3%83%AA%E3%81%AF%E5%88%B6%E9%99%90%E3%81%95%E3%82%8C%E3%81%A6%E3%81%84%E3%82%8B,%E3%81%AB%E5%88%B6%E9%99%90%E3%81%95%E3%82%8C%E3%81%A6%E3%81%84%E3%81%BE%E3%81%99%E3%80%82)",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T09:11:44.643",
"favorite_count": 0,
"id": "91214",
"last_activity_date": "2022-09-21T17:01:11.057",
"last_edit_date": "2022-09-21T16:20:59.707",
"last_editor_user_id": "3060",
"owner_user_id": "50834",
"post_type": "question",
"score": 1,
"tags": [
"linux",
"docker",
"centos"
],
"title": "CentOS7にて、Dockerのメモリ制限を解除する方法が分かりません",
"view_count": 351
} | [
{
"body": "参照している記事はあくまで Mac 向けであることは注意が必要です。\n\n* * *\n\n\"docker memory limit default linux\" で検索すると、例えば以下のページがヒットします。\n\n[How to increase/check default memory Docker has on Linux? - Stack\nOverflow](https://stackoverflow.com/q/62649255/2322778)\n\n[回答の一つ](https://stackoverflow.com/a/62655408/2322778) によれば、Linux 版の Docker\nであればホストのメモリを制限なく使えるとのことです。\n\n> On native Linux, Docker can use all available host memory.\n\n`-m` オプション等を使い、必要に応じて任意の制限をかけることは可能です。\n\n[Limit a container’s access to memory |Runtime options with Memory, CPUs, and\nGPUs](https://docs.docker.com/config/containers/resource_constraints/#limit-a-\ncontainers-access-to-memory)",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T16:18:01.813",
"id": "91219",
"last_activity_date": "2022-09-21T16:18:01.813",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "3060",
"parent_id": "91214",
"post_type": "answer",
"score": 2
},
{
"body": "[Docker Desktop](https://docs.docker.com/desktop/) は、 Linux 仮想環境を仮想マシン(Virtual\nMachine; VM)上に構築してそこで Docker を動かす仕組みになっています。\n\n質問されている設定値は、このVMが利用するリソースの上限を定めるものです。\n\n他方、Linuxで[Docker\nEngine](https://docs.docker.com/engine/)を利用する場合、VM上で動かすわけではないので、これに相当する設定はありません。 \n一般的なインストール手順でインストールしてそのまま動作させているのであれば、ホストのリソースを際限なく利用できていると思います。\n\n(Docker Desktop for Linux を利用するのであれば、 Windows/Mac で利用する場合と同じく\n[VM上で動く](https://docs.docker.com/desktop/install/linux-install/#why-docker-\ndesktop-for-linux-runs-a-\nvm)ので[同様の設定](https://docs.docker.com/desktop/settings/linux/#advanced)がある、ようです。)",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T17:01:11.057",
"id": "91220",
"last_activity_date": "2022-09-21T17:01:11.057",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "2808",
"parent_id": "91214",
"post_type": "answer",
"score": 3
}
] | 91214 | 91220 | 91220 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "取り急ぎ、開発中のアプリをiOS16で動作確認したいです。\n\n以下の代案は見つかったのですが、xcode13のまま実現させる方法が見つからず。。 \n・シミュレータではなく開発用デバイスにiOS16を入れる \n・1台のPCにxcode14を入れて旧バージョンと共存させる(最終的にはこれで動作確認予定)\n\n例えば、.xcode-versionを修正みたいな形で実現させる方法はないでしょうか。 \n知っている方がいればお願いします。",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T09:55:38.387",
"favorite_count": 0,
"id": "91215",
"last_activity_date": "2022-09-21T09:55:38.387",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "51637",
"post_type": "question",
"score": 1,
"tags": [
"ios",
"xcode"
],
"title": "xcode13でiOS16のシミュレータを動かす方法",
"view_count": 574
} | [] | 91215 | null | null |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "住所間の通勤時間(公共交通機関)と住所の最寄り駅を算出するAPIを探しています。\n\n下記2点確認させてください。\n\n(1) 「Google Maps Distance Matrix API」で、「住所間の移動時間」と「住所の最寄り駅」を算出する事は可能でしょうか。\n\n(2) 上記(1)が可能な場合、 \n「Google Maps Distance Matrix API」を利用する事になると思いますが、 \n該当APIを利用した場合の移動時間と、 \nGoogleで「移動時間 千葉県船橋市西習志野1丁目\n静岡県沼津」と検索した場合の移動時間(公共交通機関タブを選択)と最寄り駅は、同じ結果になりますでしょうか。 \n「Google Maps Distance Matrix API」でどのような検索結果が得られるのかを確認したいです。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T10:25:23.997",
"favorite_count": 0,
"id": "91216",
"last_activity_date": "2022-09-22T02:04:27.197",
"last_edit_date": "2022-09-22T02:04:27.197",
"last_editor_user_id": "3060",
"owner_user_id": "54468",
"post_type": "question",
"score": 1,
"tags": [
"google-maps"
],
"title": "Google Maps Distance Matrix API で住所間の移動時間を算出可能か?",
"view_count": 309
} | [
{
"body": "おおよそドキュメントに載っているので、まずドキュメントを読むことをお勧めします:\n<https://developers.google.com/maps/documentation/distance-matrix>\n\nDistance Matrix API は出発地点から到着地点まで特定の方法を使って移動したときの移動時間と移動距離を計算して返してくれる API\nです。このため移動時間は得ることができます。\n\n一方で最寄り駅は難しいです。そもそも「最寄り駅」をどう定義するかという問題がありますし、Distance Matrix API\nはルート情報を返しません(<https://developers.google.com/maps/documentation/distance-\nmatrix/overview> で書かれているようにルート情報が欲しい場合は Directions API\nを使います)。最寄り駅を知りたい住所を出発地点にし、周辺の駅すべてを到着地点にすることで移動時間が最も短い駅を導出することはできますが、コストが見合わない場合が多いかと思います。\n\nそして、これらの結果が Google Maps\nで経路検索したときの結果と一致することは全く保証されていません。というより、リクエストとレスポンスの形式が違うので何をもって一致とするかから微妙です。そもそも何故一致することを確かめないといけないのか、から考え直すと良さそうです。\n\n最後に、Distance Matrix API は特に高価な API という訳でもなく、ご自身で数回叩いてみる程度なら容易に行える価格設定です:\n<https://developers.google.com/maps/documentation/distance-matrix/usage-and-\nbilling>。まずは適当なデータでリクエストしてみて挙動を確かめるのが理解の早道と思います。また、どうしても自分で実行しづらいということであれば、リクエストとレスポンスの具体例が\n<https://developers.google.com/maps/documentation/distance-matrix/distance-\nmatrix#distance-matrix-responses> に載っています。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T01:45:35.547",
"id": "91224",
"last_activity_date": "2022-09-22T01:45:35.547",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "19110",
"parent_id": "91216",
"post_type": "answer",
"score": 0
}
] | 91216 | null | 91224 |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "DLの学習時には、モデルを使って予測を出す→損失関数で損失を計算→損失関数を最適化アルゴリズムに(逆伝播&パラメータ更新)という流れだと思うのですが、これをPyTorchを行う時、「この最適化アルゴリズムでこの損失関数を最適化するよ」という情報の結びつけは自動的に行われるのでしょうか?\n\n具体的には、以下にあるように\n\n```\n\n # 正しいコード\n # 交差エントロピー誤差関数\n loss_fnc = nn.CrossEntropyLoss()\n \n # SGD\n optimizer = optim.SGD(net.parameters(), lr=0.01) # 学習率は0.01\n \n```\n\nではなく\n\n```\n\n # 誤ったコード\n # 交差エントロピー誤差関数\n loss_fnc = nn.CrossEntropyLoss()\n \n # SGD\n # 最適化をおこなう関数を指定するようなパラメータがあると仮定\n optimizer = optim.SGD(net.parameters(), lr=0.01, target=loss_fnc) # 学習率は0.01\n \n```\n\nのようにしなくても、自動的に結びついているのでしょうか?\n\nまた、どこで結びつけがなされているのでしょうか?",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T13:46:07.720",
"favorite_count": 0,
"id": "91218",
"last_activity_date": "2022-09-22T21:09:33.277",
"last_edit_date": "2022-09-21T13:52:04.697",
"last_editor_user_id": "3060",
"owner_user_id": "40034",
"post_type": "question",
"score": 1,
"tags": [
"python",
"深層学習",
"pytorch"
],
"title": "PyTorchでの損失関数と最適化アルゴリズムの結びつけについて",
"view_count": 151
} | [
{
"body": "最適化アルゴリズムと損失関数は独立しているので、明示的な結びつきは行われていないのです。\n\n * 損失関数は、パラメタの勾配を.backward()で算出します。勾配の値はパラメタ自体に蓄積されます。\n * 最適化アルゴリズムは、このパラメタ自体が持つ勾配情報を用いてパラメタ値の更新を行います。このとき勾配のみを見るので損失関数はどんなものかを最適化アルゴリズムは知る必要がありません。\n\n```\n\n # 予測と損失の計算\n pred = net(x) \n loss = loss_fn(pred, y)\n \n # バックプロパゲーション\n optimizer.zero_grad() # 全てのパラメタオブジェクトの勾配を0に更新\n loss_fn.backward() # ここでモデルパラメタオブジェクトに勾配の値が記録される\n optimizer.step() # パラメタオブジェクトの勾配の値を用いてパラメタ値の更新\n \n```\n\n最適化アルゴリズムはnet.parameters()によって更新対象のパラメタ一覧を取得します。例えば、ここにモデルの一部のパラメタしか渡さなければ、その一部のパラメタの更新しか行われません。\n\nちなみに`optimizer.zero_grad()`はnet.parameters()のパラメタの勾配を全て0に更新します。loss_fn.backward()を行うと前回の勾配+新規勾配が蓄積されるので、新規勾配を計算する前に前回までの勾配情報をリセットしているのです。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T22:51:48.867",
"id": "91222",
"last_activity_date": "2022-09-22T21:09:33.277",
"last_edit_date": "2022-09-22T21:09:33.277",
"last_editor_user_id": "54208",
"owner_user_id": "54208",
"parent_id": "91218",
"post_type": "answer",
"score": 1
}
] | 91218 | null | 91222 |
{
"accepted_answer_id": "91238",
"answer_count": 1,
"body": "Addressable Asset System で取得したAudioClipをAudioSourceに渡しても、再生されません。 PlayMode を\nUse Asset Databaseに設定すると正常に再生されますが、, Use Existing Buildに変更すると再生されなくなります。 \nまた、Windowsビルドでも再生されません。 \nコンソール上にはエラーメッセージは出ていません。 \nなにかお心当たりのことがありましたら何卒ご教示ください。\n\n何か不足がありましたらコメントお願いします。 \nネット上でも同現象の報告が見つからず、大変困っております。 \nどうぞよろしくお願いします。\n\n### 試したこと\n\n 1. Addressable Groupのウインドウ上でNew Build > Default Build Script from \nAddressable を実行しました。また、 Clean Build も実行しました。 いずれも状況改善しませんでした。\n\n 2. AudioClipの取得自体に失敗しているのかと考え、DebugLogでコンソールに取得したClipの名前を表示してみました。 しかし、正常なクリップ名がログに表示されました。 \n同じタイミングでEditor上のAudioSourceにAudioClipが渡っているか確認すると、Noneのままになっていました。 \nAudioClipらしきデータは取得できているが、 audiosource.clip = clip \nの設定が正常に完了できないものと考えています。\n\n 3. AssetBundleCompression のセッティングをUnCompressedに変えてみましたが、変化はありません。\n\n### 実行環境\n\nUnity Version 2021.3.10f1 \nAddressables Version 1.19.19\n\n### 該当箇所のコード\n\nmain.cs\n\n```\n\n public async UniTask ExecuteAsync(CallInstReference reference, InstRunner runner, CancellationToken cancelToken)\n {\n AudioClip clip = await Addressables.LoadAssetAsync<AudioClip>(clipAddress.Get());\n reference.world.callSoundManager.PlayVoice(clip, duration );\n Addressables.Release(clip);\n }\n \n```\n\ncallSoundManager.cs\n\n```\n\n public void PlayVoice( AudioClip clip , float duration = 0.2f , bool loop = false)\n {\n Debug.Log(clip.name + \" voiceStart\"); //currect clip name displayed.\n VoiceTrack.clip = clip; //no clip attached the audioSource in Editor\n VoiceTrack.loop = loop;\n VoiceTrack.Play();\n VoiceTrack.DOFade(1f, duration);\n \n }\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-21T22:07:14.413",
"favorite_count": 0,
"id": "91221",
"last_activity_date": "2022-10-04T05:00:00.577",
"last_edit_date": "2022-09-22T03:43:23.897",
"last_editor_user_id": "54472",
"owner_user_id": "54472",
"post_type": "question",
"score": 0,
"tags": [
"unity3d",
"unity2d"
],
"title": "Addressable Asset Systemで取得したAudioClips が再生されない",
"view_count": 162
} | [
{
"body": "自己解決しました。 \n直接\n\n```\n\n AudioClip clip = await Addressables.LoadAssetAsync<AudioClip>(clipAddress.Get());\n \n```\n\nと待ち受けていましたが、handle を取り出して別途Taskを待ち受ける必要があったようです。お騒がせしました。\n\n以下コードで正常動作しました。\n\n```\n\n AsyncOperationHandle<T> handle = Addressables.LoadAssetAsync<T>(key);\n await handle.Task; \n if (handle.Status ==AsyncOperationStatus.Succeeded) result = handle.Result;\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T08:18:30.687",
"id": "91238",
"last_activity_date": "2022-10-04T05:00:00.577",
"last_edit_date": "2022-10-04T05:00:00.577",
"last_editor_user_id": "54472",
"owner_user_id": "54472",
"parent_id": "91221",
"post_type": "answer",
"score": 0
}
] | 91221 | 91238 | 91238 |
{
"accepted_answer_id": "91234",
"answer_count": 1,
"body": "OracleDB:Oracle 12cR1(12.1.0.2.0) \nOS:Oracle Linux 7.9\n\nnode1:192.168.56.101 (Public), 192.168.100.101 (Private), 192.168.200.101\n(Private)\n\nnode2:192.168.56.102 (Public), 192.168.100.102 (Private), 192.168.200.102\n(Private)\n\ndns:192.168.56.254 (Public) ※bind\n\n現在RAC環境は問題なく稼働しています。そこで、フェイルオーバー試験を実施したいのですが、単純にどうやればいいですか。Data\nGuard環境ではスイッチオーバー、フェイルオーバー等の実施経験があるのですが、RACの場合、node1に異常が起こったと想定しフェイルオーバーさせる場合、単純にnode1のサーバ自体を落とせば良いのですか。あるいはフェイルオーバーさせるためのコマンドが存在しますか。\n\n最後に、Data\nGuard環境ですと、スタンバイからフェイルオーバーさせると元プライマリを再作成してロールを入れ替えて(スイッチオーバー)と、元の構成に戻すまでにかなり面倒ですが、RACの場合はどうなんでしょうか。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T02:47:14.703",
"favorite_count": 0,
"id": "91225",
"last_activity_date": "2022-09-22T05:29:30.093",
"last_edit_date": "2022-09-22T03:20:06.130",
"last_editor_user_id": "3060",
"owner_user_id": "44175",
"post_type": "question",
"score": 0,
"tags": [
"oracle"
],
"title": "Oracle Real Application Clusters で手動フェイルオーバーの実施方法を知りたい",
"view_count": 75
} | [
{
"body": "> 現在RAC環境は問題なく稼働しています。そこで、フェイルオーバー試験を実施したいのですが、単純にどうやればいいですか。\n\n単純に考えるとRACで多重化されているネットワーク、サーバ、ストレージを1つだけ残して他をすべて落せばよいと思います。 \nRACの機能自体を試験するのであればサーバのOracleインスタンスを一部だけKillしたり、メモリ不足を発生させるプログラムを起動したり、いろいろと考えなければいけないと思いますが、そこまで試験する必要がないなら単に落とせばよいと思います。\n\n>\n> RACの場合、node1に異常が起こったと想定しフェイルオーバーさせる場合、単純にnode1のサーバ自体を落とせば良いのですか。あるいはフェイルオーバーさせるためのコマンドが存在しますか。\n\nそのようなコマンドはないと思います。※RAC自身が異常検知をしなければ意味がないと思います。",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T05:29:30.093",
"id": "91234",
"last_activity_date": "2022-09-22T05:29:30.093",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "35558",
"parent_id": "91225",
"post_type": "answer",
"score": 0
}
] | 91225 | 91234 | 91234 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "Tensorflowの仕様についての質問です。 \n※バージョンはtensorflow-gpu 2.2.0を使用、実験的に軽量なCNNモデルを使用\n\n推論時の入力画像のサイズに制限はあるのでしょうか? \n可能であれば以下のことも知りたいです。\n\n * 理論上、最大の入力サイズ\n * 最大のサイズが存在する場合の計算方法\n * tfliteのモデルの軽量化による対処は可能か\n\nもし御存知の方がいましたらご教示お願いします。\n\n例:CNNベースのモデルで、(12000,12000,3)の画像で推論すると以下のようなエラーが発生します。\n\n```\n\n F tensorflow/stream_executor/cuda/cuda_dnn.cc:86] Check failed: narrow == wide (-1990967296 vs. 2304000000)checked narrowing failed; values not equal post-conversion\n Aborted (core dumped)\n \n```\n\nコードは以下の通りです。\n\n```\n\n import os\n import numpy as np\n from PIL import Image\n Image.MAX_IMAGE_PIXELS = None\n from PIL import ImageFile\n ImageFile.LOAD_TRUNCATED_IMAGES = True\n from tensorflow.keras.layers import *\n from tensorflow.keras.models import Model\n \n def MyModel(input_shape, n_labels):\n kernel = 3\n inputs = Input(shape=input_shape)\n x = Conv2D(16, (kernel, kernel), padding=\"same\")(inputs)\n x = Conv2D(n_labels, (1, 1), padding=\"valid\")(x)\n x = Reshape((input_shape[0], input_shape[1], n_labels,))(x)\n return Model(inputs=inputs, outputs=x)\n \n #画像準備\n image = Image.open('./XXXXX.tif')\n img = image.resize((12000, 12000))\n input_img = np.array(img, np.uint8)\n input_img = input_img.reshape(1, input_img.shape[0], input_img.shape[0], 3)\n #モデル生成(学習なし)\n model = MyModel(input_shape=(img.size[0],img.size[0], 3), n_labels=12)\n #推論(画像1枚に対して)\n out = model(input_img)\n print(out)\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T02:56:38.237",
"favorite_count": 0,
"id": "91226",
"last_activity_date": "2022-09-22T03:07:11.900",
"last_edit_date": "2022-09-22T03:07:11.900",
"last_editor_user_id": "3060",
"owner_user_id": "54474",
"post_type": "question",
"score": 0,
"tags": [
"python",
"tensorflow"
],
"title": "Tensorflow で入力画像のサイズに制限はあるのか知りたい",
"view_count": 65
} | [] | 91226 | null | null |
{
"accepted_answer_id": null,
"answer_count": 2,
"body": "### 解決したいこと\n\nAmazon S3に画像や動画ファイルを保存しています。\n\nこのファイルはパブリックにして、見せたい人にだけURLを教えて閲覧してもらっています。\n\nいろんな情報をみると、パブリックにするとクローラーにインデックスされて何かしらの検索でヒットしてしまうという情報をみました。\n\nパブリックにした状態でブラウザの検索結果に表示させないようにしたいです。\n\n### 発生している問題・エラー\n\n以下のファイルをルートドメインに配置すればクローラーの巡回を回避できるのは知っているのですが、これをバケットの最上位に入れれば、私のバケット内にある画像ファイル等はインデックスされないようになるのでしょうか?\n\nrobots.txt\n\n```\n\n User-agent: *\n Disallow: /\n \n```\n\nドメインを取得して、その中に画像ファイル等を入れているのではなく、ただただS3のバケット内にファイルを保存している状態です。\n\nよろしくお願いいたします。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T03:30:24.350",
"favorite_count": 0,
"id": "91227",
"last_activity_date": "2022-09-23T23:23:27.060",
"last_edit_date": "2022-09-22T07:34:55.060",
"last_editor_user_id": "19110",
"owner_user_id": "54476",
"post_type": "question",
"score": 1,
"tags": [
"aws",
"amazon-s3"
],
"title": "Amazon S3のバケット内にあるファイルをインデックスさせない方法が知りたい",
"view_count": 421
} | [
{
"body": "原則として、そのオブジェクトの公開URLがパブリックになっておりクローラか見つけない限りインデックスされることはないはずですが、おそらくそのURLが再度シェアされたりした場合のことを想定しているかと思います。\n\nあくまでもわたしの想定では、たしかにrobots.txtに記載することで大抵のケースは大丈夫な気はします。ただし、例外は考えられます。\n\n * 非推奨である(ドメインベースではなく)パスベースのURLを使用された場合、意味を持ちません。(よっぽどのことがなければ普通は起きないはず)\n\n単純にインデックスされたくない、あるいは当人以外に表示すべきでない場合、いくつかの対策は考えられます。\n\n * もし、それがワンタイムのファイルDLなどでシステムからURLがリアルタイムに払い出せるようであれば、署名付きURLを使用すれば一定時間で利用できなくなるリンクを作成できるので安全です。 \n * ファイルのDLやストリーミングなどには向いています\n * オブジェクトのヘッダーに `X-Robots-Tag: noindex`のような[クローラ制御用のヘッター](https://developers.google.com/search/docs/advanced/robots/robots_meta_tag?hl=ja#xrobotstag)をメタデータとして使用することができそうです。ただし、これはドキュメントには明文化されていない仕様のようです。 \n<https://stackoverflow.com/a/25798148/4698341>\n\n * 同様に、[Lambdaでレスポンスを加工する](https://dev.classmethod.jp/articles/s3-object-lambda/)ことも可能ですが、オーバーコスト感?",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T13:56:22.667",
"id": "91242",
"last_activity_date": "2022-09-22T19:36:00.327",
"last_edit_date": "2022-09-22T19:36:00.327",
"last_editor_user_id": "2376",
"owner_user_id": "2376",
"parent_id": "91227",
"post_type": "answer",
"score": 2
},
{
"body": "> このファイルはパブリックにして、見せたい人にだけURLを教えて閲覧してもらっています。\n\n> パブリックにするとクローラーにインデックスされて何かしらの検索でヒットしてしまう\n\nクローラーもですが、インデックスされ、第三者がダウンロードを行うと、S3の転送にかかる料金はバケット所有者に請求されます。 \nこのためS3ではパブリック公開は推奨されていません。[Amazon S3\nのセキュリティベストプラクティス](https://docs.aws.amazon.com/ja_jp/AmazonS3/latest/userguide/security-\nbest-practices.html)も参照してください。\n\nhinaloeさんも触れられていますが、バケットはプライベートとした上で、[署名付き URL\nを使用したオブジェクトの共有](https://docs.aws.amazon.com/ja_jp/AmazonS3/latest/userguide/ShareObjectPreSignedURL.html)を行うことをお勧めします。 \nこの署名付きURLには有効期限も設定できます。たとえURLが漏洩したとしても、期限を過ぎれば無効になり第三者によるダウンロードを防ぐこともできます。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-23T23:23:27.060",
"id": "91268",
"last_activity_date": "2022-09-23T23:23:27.060",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "4236",
"parent_id": "91227",
"post_type": "answer",
"score": 2
}
] | 91227 | null | 91242 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "tfliteの仕様についての質問です。 \n※バージョンはtensorflow-gpu 2.2.0を使用、実験的に軽量なCNNモデルを使用\n\ntfliteでモデルを16bitに変換して推論する際、入力画像の型をfloat32型に変換した場合は \n推論できるのですが、入力画像をfloat16型などの他の型に変換した場合、以下のエラーが発生してしまいます。 \nValueError: Cannot set tensor: Got value of type FLOAT16 but expected type\nFLOAT32 for input 0, name: input_1\n\nそこで、以下の質問です。 \n①入力及び出力がflaot32型以外の型で処理することは可能か。 \n①が可能であれば、tfliteで入力及び出力の型を設定する実装方法を教えて頂きたいです。\n\n以下、コードです。\n\n```\n\n import os\n import numpy as np\n from PIL import Image\n Image.MAX_IMAGE_PIXELS = None\n from PIL import ImageFile\n ImageFile.LOAD_TRUNCATED_IMAGES = True\n import tensorflow as tf\n from tensorflow.keras.layers import *\n from tensorflow.keras.models import Model\n \n def MyModel(input_shape, n_labels):\n kernel = 3\n inputs = Input(shape=input_shape)\n \n x = Conv2D(32, (kernel, kernel), padding=\"same\")(inputs)\n x = Conv2D(n_labels, (1, 1), padding=\"valid\")(x)\n x = Reshape((input_shape[0] * input_shape[1], n_labels), input_shape=(input_shape[0], input_shape[1], n_labels),)(x)\n \n return Model(inputs=inputs, outputs=x)\n \n image = Image.open('./XXXXX.tif')\n img = image.resize((13000, 13000))\n input_img = np.array(img, np.float16)\n input_img = input_img.reshape(1, input_img.shape[0], input_img.shape[0], 3)\n \n model = MyModel(input_shape=(img.size[0],img.size[0], 3), n_labels=12)\n \n converter = tf.lite.TFLiteConverter.from_keras_model(model)\n converter.optimizations = [tf.lite.Optimize.DEFAULT]\n converter.target_spec.supported_types = [tf.float16]\n tflite_fp16_model = converter.convert()\n with open(\"model_fp16.tflite\", \"wb\") as f:\n f.write(tflite_fp16_model)\n \n # TFLiteモデルの読み込み\n interpreter = tf.lite.Interpreter(model_path=\"model_fp16.tflite\")\n interpreter.allocate_tensors()\n \n input_details = interpreter.get_input_details()\n output_details = interpreter.get_output_details()\n \n input_shape = input_details[0]['shape']\n interpreter.set_tensor(input_details[0]['index'], input_img)\n interpreter.invoke()\n out = interpreter.get_tensor(output_details[0]['index'])\n print(input_img.shape)\n print(out)\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T04:22:50.677",
"favorite_count": 0,
"id": "91229",
"last_activity_date": "2022-09-22T04:22:50.677",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54474",
"post_type": "question",
"score": 0,
"tags": [
"tensorflow"
],
"title": "tfliteの入力の型変換について",
"view_count": 83
} | [] | 91229 | null | null |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "xamarin formsでandroidアプリを作成しています。 \nこのアプリでは画像ファイルをCameraフォルダーに保存しています。 \n保存自体は問題なくできていますが、Filesアプリで画像の項目を見ると反映されていません。 \nfilesアプリで内蔵ストレージ→DCIM→Cameraをたどって行くとそこには保存した画像が存在します。 \nスマホを再起動したり、しばらく放置しておくと画像の項目に表示されたりします。\n\n質問 \nアプリでCameraフォルダーに保存直後にFilesアプリで画像の項目に反映させたいのですが、 \nxamarin formsから、何らかの方法で画像の項目を最新状態にすることはできないでしょうか?\n\nやってみたこと。\n\n```\n\n File.Move(orgPath, dest); // 別のフォルダーに移してみた。\n File.SetLastAccessTime(dest, DateTime.Now); // アクセスタイムを変えてみた。\n \n```\n\n上記では効果はありませんでした。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T05:00:59.677",
"favorite_count": 0,
"id": "91231",
"last_activity_date": "2022-09-22T05:00:59.677",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "24490",
"post_type": "question",
"score": 0,
"tags": [
"android",
"xamarin.forms"
],
"title": "xamarin forms(android)で画像保存時にすぐにfilesアプリの画像に反映したい。",
"view_count": 51
} | [] | 91231 | null | null |
{
"accepted_answer_id": "91237",
"answer_count": 2,
"body": "* Input\n\n```\n\n n = tuple or list\n print(n)\n \n```\n\n * Output\n\n```\n\n <class 'tuple'>\n \n```\n\nこれ、入力の時エラーが起きないのです。 \nつまり、文法的には間違っていないということですよね? \n何が起きているのか解説お願いします。",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T05:24:35.050",
"favorite_count": 0,
"id": "91233",
"last_activity_date": "2022-09-23T05:06:14.390",
"last_edit_date": "2022-09-23T05:06:14.390",
"last_editor_user_id": "19110",
"owner_user_id": "54478",
"post_type": "question",
"score": 3,
"tags": [
"python"
],
"title": "pythonの文法的な質問です。",
"view_count": 167
} | [
{
"body": "組み込みで `tuple` という名前のクラスがあるので、変数 `n` に class `tuple` が代入され、その文字列表現が `print`\nされています。\n\n<https://docs.python.org/3/library/stdtypes.html#tuple>\n\nPython のクラスはそれ自身もオブジェクトであり値として扱えて、変数に代入することもできます。\n\n<https://docs.python.org/3/tutorial/classes.html>\n\n> As in Smalltalk, classes themselves are objects.",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T05:34:41.913",
"id": "91235",
"last_activity_date": "2022-09-22T05:45:04.887",
"last_edit_date": "2022-09-22T05:45:04.887",
"last_editor_user_id": "19110",
"owner_user_id": "19110",
"parent_id": "91233",
"post_type": "answer",
"score": 0
},
{
"body": "文法上の`or`ブール演算(`A or B`)は、前者(A)が`True`の評価であればAをそのまま返します。 \nクラスなどは`None`でない限り`True`評価となりますので、ご質問のコードでは`tuple`が返っています。\n\n**サンプルコード**\n\n```\n\n if tuple:\n print(\"ここは通る\")\n \n if None:\n print(\"ここは通らない\")\n \n print(tuple or list) # <class 'tuple'>\n print(None or list) # <class 'list'>\n \n```\n\n**参考資料**\n\n * [Pythonのandとorはif文以外でも使える?andとorの動作が面白いという話をします](https://blog.pyq.jp/entry/python_kaiketsu_181016)\n * [ブール演算 --- and, or, not](https://docs.python.org/ja/3/library/stdtypes.html#boolean-operations-and-or-not)",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T05:53:03.933",
"id": "91237",
"last_activity_date": "2022-09-22T05:53:03.933",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "9820",
"parent_id": "91233",
"post_type": "answer",
"score": 3
}
] | 91233 | 91237 | 91237 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "自分のアプリ(React Native)を通じてユーザーが指定した食品をAmzon FreshのAPIを通じてアマゾンのショッピングリストを作成したいです。 \nアメリカ版のAmazon Fresh では以下の例のように追加することができますが \n<https://www.amazon.com/afx/ingredients/verify> \nこれをJP版に変更したいです。 \nDelish Kitchenなどのレシピアプリで買い物リストからAmazonフレッシュで購入ができるので実際には存在すると思います。 \nやり方をご存知の方はいらっしゃいますか?",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T05:43:32.810",
"favorite_count": 0,
"id": "91236",
"last_activity_date": "2022-09-22T05:44:14.350",
"last_edit_date": "2022-09-22T05:44:14.350",
"last_editor_user_id": "54479",
"owner_user_id": "54479",
"post_type": "question",
"score": 0,
"tags": [
"api",
"react-native",
"amazon"
],
"title": "AmazonフレッシュでAPIを使い買い物リストを作成する",
"view_count": 45
} | [] | 91236 | null | null |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "yarn androidをするときに、下記のエラーが起こり、毎回失敗します。 \n下にgradleの情報は貼りました \nreact-nativeのversionは \"0.69.4\"です。\n\n```\n\n FAILURE: Build failed with an exception.\n \n * What went wrong:\n Could not determine the dependencies of task ':app:compileDebugJavaWithJavac'.\n > Problems reading data from Binary store in /Users/.../.gradle/.tmp/gradle5448554154245733512.bin offset 148578 exists? true\n \n * Try:\n > Run with --stacktrace option to get the stack trace.\n > Run with --info or --debug option to get more log output.\n > Run with --scan to get full insights.\n \n * Get more help at https://help.gradle.org\n \n BUILD FAILED in 24s\n \n error Failed to install the app. Make sure you have the Android development environment set up: https://reactnative.dev/docs/environment-setup.\n Error: Command failed: ./gradlew app:installDebug -PreactNativeDevServerPort=8081\n \n FAILURE: Build failed with an exception.\n \n * What went wrong:\n Could not determine the dependencies of task ':app:compileDebugJavaWithJavac'.\n > Problems reading data from Binary store in /Users/.../.gradle/.tmp/gradle5448554154245733512.bin offset 148578 exists? true\n \n * Try:\n > Run with --stacktrace option to get the stack trace.\n > Run with --info or --debug option to get more log output.\n > Run with --scan to get full insights.\n \n * Get more help at https://help.gradle.org\n \n BUILD FAILED in 24s\n \n at makeError (/Users/.../Desktop/..._project/..._mobile/node_modules/execa/index.js:174:9)\n at /Users/.../Desktop/..._project/..._mobile/node_modules/execa/index.js:278:16\n at process.processTicksAndRejections (node:internal/process/task_queues:95:5)\n at async runOnAllDevices (/Users/.../Desktop/..._project/..._mobile/node_modules/@react-native-community/cli-platform-android/build/commands/runAndroid/runOnAllDevices.js:109:5)\n at async Command.handleAction (/Users/.../Desktop/..._project/..._mobile/node_modules/@react-native-community/cli/build/index.js:192:9)\n \n```\n\ntsx:android/build.gradle\n\n```\n\n buildscript {\n ext {\n buildToolsVersion = \"31.0.0\"\n minSdkVersion = 21\n compileSdkVersion = 31\n targetSdkVersion = 31\n \n if (System.properties['os.arch'] == \"aarch64\") {\n // For M1 Users we need to use the NDK 24 which added support for aarch64\n ndkVersion = \"24.0.8215888\"\n } else {\n // Otherwise we default to the side-by-side NDK version from AGP.\n ndkVersion = \"21.4.7075529\"\n }\n }\n \n repositories {\n google()\n mavenCentral()\n }\n dependencies {\n classpath('com.android.tools.build:gradle:7.3.0')\n classpath 'com.google.gms:google-services:4.3.13'\n }\n }\n \n allprojects {\n repositories {\n maven {\n // All of React Native (JS, Obj-C sources, Android binaries) is installed from npm\n url(\"$rootDir/../node_modules/react-native/android\")\n }\n maven {\n // Android JSC is installed from npm\n url(\"$rootDir/../node_modules/jsc-android/dist\")\n }\n google()\n maven { url 'https://www.jitpack.io' }\n maven { url \"https://maven.google.com\" }\n }\n }\n \n```\n\ntsx:android/app/build.gradle\n\n```\n\n apply plugin: 'com.android.application'\n \n import com.android.build.OutputFile\n \n /**\n * The react.gradle file registers a task for each build variant (e.g. bundleDebugJsAndAssets\n * and bundleReleaseJsAndAssets).\n * These basically call `react-native bundle` with the correct arguments during the Android build\n * cycle. By default, bundleDebugJsAndAssets is skipped, as in debug/dev mode we prefer to load the\n * bundle directly from the development server. Below you can see all the possible configurations\n * and their defaults. If you decide to add a configuration block, make sure to add it before the\n * `apply from: \"../../node_modules/react-native/react.gradle\"` line.\n *\n * project.ext.react = [\n * // the name of the generated asset file containing your JS bundle\n * bundleAssetName: \"index.android.bundle\",\n *\n * // the entry file for bundle generation. If none specified and\n * // \"index.android.js\" exists, it will be used. Otherwise \"index.js\" is\n * // default. Can be overridden with ENTRY_FILE environment variable.\n * entryFile: \"index.android.js\",\n *\n * // https://reactnative.dev/docs/performance#enable-the-ram-format\n * bundleCommand: \"ram-bundle\",\n *\n * // whether to bundle JS and assets in debug mode\n * bundleInDebug: false,\n *\n * // whether to bundle JS and assets in release mode\n * bundleInRelease: true,\n *\n * // whether to bundle JS and assets in another build variant (if configured).\n * // See http://tools.android.com/tech-docs/new-build-system/user-guide#TOC-Build-Variants\n * // The configuration property can be in the following formats\n * // 'bundleIn${productFlavor}${buildType}'\n * // 'bundleIn${buildType}'\n * // bundleInFreeDebug: true,\n * // bundleInPaidRelease: true,\n * // bundleInBeta: true,\n *\n * // whether to disable dev mode in custom build variants (by default only disabled in release)\n * // for example: to disable dev mode in the staging build type (if configured)\n * devDisabledInStaging: true,\n * // The configuration property can be in the following formats\n * // 'devDisabledIn${productFlavor}${buildType}'\n * // 'devDisabledIn${buildType}'\n *\n * // the root of your project, i.e. where \"package.json\" lives\n * root: \"../../\",\n *\n * // where to put the JS bundle asset in debug mode\n * jsBundleDirDebug: \"$buildDir/intermediates/assets/debug\",\n *\n * // where to put the JS bundle asset in release mode\n * jsBundleDirRelease: \"$buildDir/intermediates/assets/release\",\n *\n * // where to put drawable resources / React Native assets, e.g. the ones you use via\n * // require('./image.png')), in debug mode\n * resourcesDirDebug: \"$buildDir/intermediates/res/merged/debug\",\n *\n * // where to put drawable resources / React Native assets, e.g. the ones you use via\n * // require('./image.png')), in release mode\n * resourcesDirRelease: \"$buildDir/intermediates/res/merged/release\",\n *\n * // by default the gradle tasks are skipped if none of the JS files or assets change; this means\n * // that we don't look at files in android/ or ios/ to determine whether the tasks are up to\n * // date; if you have any other folders that you want to ignore for performance reasons (gradle\n * // indexes the entire tree), add them here. Alternatively, if you have JS files in android/\n * // for example, you might want to remove it from here.\n * inputExcludes: [\"android/**\", \"ios/**\"],\n *\n * // override which node gets called and with what additional arguments\n * nodeExecutableAndArgs: [\"node\"],\n *\n * // supply additional arguments to the packager\n * extraPackagerArgs: []\n * ]\n */\n \n project.ext.react = [\n enableHermes: true\n ]\n \n apply from: '../../node_modules/react-native/react.gradle'\n \n /**\n * Set this to true to create two separate APKs instead of one:\n * - An APK that only works on ARM devices\n * - An APK that only works on x86 devices\n * The advantage is the size of the APK is reduced by about 4MB.\n * Upload all the APKs to the Play Store and people will download\n * the correct one based on the CPU architecture of their device.\n */\n def enableSeparateBuildPerCPUArchitecture = false\n \n /**\n * Run Proguard to shrink the Java bytecode in release builds.\n */\n def enableProguardInReleaseBuilds = false\n \n /**\n * The preferred build flavor of JavaScriptCore.\n *\n * For example, to use the international variant, you can use:\n * `def jscFlavor = 'org.webkit:android-jsc-intl:+'`\n *\n * The international variant includes ICU i18n library and necessary data\n * allowing to use e.g. `Date.toLocaleString` and `String.localeCompare` that\n * give correct results when using with locales other than en-US. Note that\n * this variant is about 6MiB larger per architecture than default.\n */\n def jscFlavor = 'org.webkit:android-jsc:+'\n \n /**\n * Whether to enable the Hermes VM.\n *\n * This should be set on project.ext.react and that value will be read here. If it is not set\n * on project.ext.react, JavaScript will not be compiled to Hermes Bytecode\n * and the benefits of using Hermes will therefore be sharply reduced.\n */\n def enableHermes = project.ext.react.get('enableHermes', false)\n \n /**\n * Architectures to build native code for.\n */\n def reactNativeArchitectures() {\n def value = project.getProperties().get('reactNativeArchitectures')\n return value ? value.split(',') : ['armeabi-v7a', 'x86', 'x86_64', 'arm64-v8a']\n }\n \n android {\n ndkVersion rootProject.ext.ndkVersion\n \n compileSdkVersion rootProject.ext.compileSdkVersion\n \n defaultConfig {\n applicationId '?????'\n minSdkVersion rootProject.ext.minSdkVersion\n targetSdkVersion rootProject.ext.targetSdkVersion\n versionCode 1\n versionName '1.0'\n buildConfigField 'boolean', 'IS_NEW_ARCHITECTURE_ENABLED', isNewArchitectureEnabled().toString()\n \n if (isNewArchitectureEnabled()) {\n // We configure the NDK build only if you decide to opt-in for the New Architecture.\n externalNativeBuild {\n ndkBuild {\n arguments 'APP_PLATFORM=android-21',\n 'APP_STL=c++_shared',\n 'NDK_TOOLCHAIN_VERSION=clang',\n \"GENERATED_SRC_DIR=$buildDir/generated/source\",\n \"PROJECT_BUILD_DIR=$buildDir\",\n \"REACT_ANDROID_DIR=$rootDir/../node_modules/react-native/ReactAndroid\",\n \"REACT_ANDROID_BUILD_DIR=$rootDir/../node_modules/react-native/ReactAndroid/build\",\n \"NODE_MODULES_DIR=$rootDir/../node_modules\"\n cFlags '-Wall', '-Werror', '-fexceptions', '-frtti', '-DWITH_INSPECTOR=1'\n cppFlags '-std=c++17'\n // Make sure this target name is the same you specify inside the\n // src/main/jni/Android.mk file for the `LOCAL_MODULE` variable.\n targets '..._appmodules'\n }\n }\n if (!enableSeparateBuildPerCPUArchitecture) {\n ndk {\n abiFilters(*reactNativeArchitectures())\n }\n }\n }\n }\n \n if (isNewArchitectureEnabled()) {\n // We configure the NDK build only if you decide to opt-in for the New Architecture.\n externalNativeBuild {\n ndkBuild {\n path \"$projectDir/src/main/jni/Android.mk\"\n }\n }\n def reactAndroidProjectDir = project(':ReactAndroid').projectDir\n def packageReactNdkDebugLibs = tasks.register('packageReactNdkDebugLibs', Copy) {\n dependsOn(':ReactAndroid:packageReactNdkDebugLibsForBuck')\n from(\"$reactAndroidProjectDir/src/main/jni/prebuilt/lib\")\n into(\"$buildDir/react-ndk/exported\")\n }\n def packageReactNdkReleaseLibs = tasks.register('packageReactNdkReleaseLibs', Copy) {\n dependsOn(':ReactAndroid:packageReactNdkReleaseLibsForBuck')\n from(\"$reactAndroidProjectDir/src/main/jni/prebuilt/lib\")\n into(\"$buildDir/react-ndk/exported\")\n }\n afterEvaluate {\n // If you wish to add a custom TurboModule or component locally,\n // you should uncomment this line.\n // preBuild.dependsOn(\"generateCodegenArtifactsFromSchema\")\n preDebugBuild.dependsOn(packageReactNdkDebugLibs)\n preReleaseBuild.dependsOn(packageReactNdkReleaseLibs)\n \n // Due to a bug inside AGP, we have to explicitly set a dependency\n // between configureNdkBuild* tasks and the preBuild tasks.\n // This can be removed once this is solved: https://issuetracker.google.com/issues/207403732\n configureNdkBuildRelease.dependsOn(preReleaseBuild)\n configureNdkBuildDebug.dependsOn(preDebugBuild)\n reactNativeArchitectures().each { architecture ->\n tasks.findByName(\"configureNdkBuildDebug[${architecture}]\")?.configure {\n dependsOn('preDebugBuild')\n }\n tasks.findByName(\"configureNdkBuildRelease[${architecture}]\")?.configure {\n dependsOn('preReleaseBuild')\n }\n }\n }\n }\n \n splits {\n abi {\n reset()\n enable enableSeparateBuildPerCPUArchitecture\n universalApk false // If true, also generate a universal APK\n include(*reactNativeArchitectures())\n }\n }\n signingConfigs {\n debug {\n storeFile file('debug.keystore')\n storePassword 'android'\n keyAlias 'androiddebugkey'\n keyPassword 'android'\n }\n }\n buildTypes {\n debug {\n signingConfig signingConfigs.debug\n }\n release {\n // Caution! In production, you need to generate your own keystore file.\n // see https://reactnative.dev/docs/signed-apk-android.\n signingConfig signingConfigs.debug\n minifyEnabled enableProguardInReleaseBuilds\n proguardFiles getDefaultProguardFile('proguard-android.txt'), 'proguard-rules.pro'\n }\n }\n \n // applicationVariants are e.g. debug, release\n applicationVariants.all { variant ->\n variant.outputs.each { output ->\n // For each separate APK per architecture, set a unique version code as described here:\n // https://developer.android.com/studio/build/configure-apk-splits.html\n // Example: versionCode 1 will generate 1001 for armeabi-v7a, 1002 for x86, etc.\n def versionCodes = ['armeabi-v7a': 1, 'x86': 2, 'arm64-v8a': 3, 'x86_64': 4]\n def abi = output.getFilter(OutputFile.ABI)\n if (abi != null) { // null for the universal-debug, universal-release variants\n output.versionCodeOverride =\n defaultConfig.versionCode * 1000 + versionCodes.get(abi)\n }\n }\n }\n compileOptions {\n sourceCompatibility 1.8\n targetCompatibility 1.8\n }\n }\n \n dependencies {\n // implementation platform('com.google.firebase:firebase-bom:30.4.1')\n implementation 'com.google.firebase:firebase-analytics:17.2.2'\n \n implementation fileTree(dir: 'libs', include: ['*.jar'])\n \n //noinspection GradleDynamicVersion\n implementation 'com.facebook.react:react-native:+' // From node_modules\n \n implementation 'androidx.swiperefreshlayout:swiperefreshlayout:1.0.0'\n \n debugImplementation(\"com.facebook.flipper:flipper:${FLIPPER_VERSION}\") {\n exclude group:'com.facebook.fbjni'\n }\n \n debugImplementation(\"com.facebook.flipper:flipper-network-plugin:${FLIPPER_VERSION}\") {\n exclude group:'com.facebook.flipper'\n exclude group:'com.squareup.okhttp3', module:'okhttp'\n }\n \n debugImplementation(\"com.facebook.flipper:flipper-fresco-plugin:${FLIPPER_VERSION}\") {\n exclude group:'com.facebook.flipper'\n }\n \n if (enableHermes) {\n //noinspection GradleDynamicVersion\n implementation('com.facebook.react:hermes-engine:+') { // From node_modules\n exclude group:'com.facebook.fbjni'\n }\n } else {\n implementation jscFlavor\n }\n }\n \n if (isNewArchitectureEnabled()) {\n // If new architecture is enabled, we let you build RN from source\n // Otherwise we fallback to a prebuilt .aar bundled in the NPM package.\n // This will be applied to all the imported transtitive dependency.\n configurations.all {\n resolutionStrategy.dependencySubstitution {\n substitute(module('com.facebook.react:react-native'))\n .using(project(':ReactAndroid'))\n .because(\"On New Architecture we're building React Native from source\")\n substitute(module('com.facebook.react:hermes-engine'))\n .using(project(':ReactAndroid:hermes-engine'))\n .because(\"On New Architecture we're building Hermes from source\")\n }\n }\n }\n \n // Run this once to be able to run the application with BUCK\n // puts all compile dependencies into folder libs for BUCK to use\n task copyDownloadableDepsToLibs(type: Copy) {\n from configurations.implementation\n into 'libs'\n }\n \n apply from: file(\"../../node_modules/@react-native-community/cli-platform-android/native_modules.gradle\"); \n applyNativeModulesAppBuildGradle(project)\n \n def isNewArchitectureEnabled() {\n // To opt-in for the New Architecture, you can either:\n // - Set `newArchEnabled` to true inside the `gradle.properties` file\n // - Invoke gradle with `-newArchEnabled=true`\n // - Set an environment variable `ORG_GRADLE_PROJECT_newArchEnabled=true`\n return project.hasProperty('newArchEnabled') && project.newArchEnabled == 'true'\n }\n \n apply plugin: 'com.google.gms.google-services'\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T08:25:46.427",
"favorite_count": 0,
"id": "91239",
"last_activity_date": "2022-09-22T11:23:44.260",
"last_edit_date": "2022-09-22T11:23:44.260",
"last_editor_user_id": "3060",
"owner_user_id": "48579",
"post_type": "question",
"score": 0,
"tags": [
"android",
"react-native"
],
"title": "ReactNativeのAndroidが起動しない",
"view_count": 141
} | [] | 91239 | null | null |
{
"accepted_answer_id": null,
"answer_count": 1,
"body": "ラムダ式に変数をコピーで入れたいのですが、関数でインスタンス作成やコピーするようなクラスの場合、ラムダ式に入れる際に何かいい方法があるでしょうか?\n\n```\n\n T a(T::create_instance()); // インスタンス作成 \n T b(T::create_instance());\n b.copy(a); // aからbへコピー\n \n // ラムダ式\n auto func = [b] <----- bではコピーコンストラクタがないためエラーになります。\n { \n // 処理\n };\n int ret = func();\n \n```",
"comment_count": 2,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T11:53:33.550",
"favorite_count": 0,
"id": "91241",
"last_activity_date": "2022-09-23T02:34:54.997",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "54485",
"post_type": "question",
"score": 0,
"tags": [
"c++"
],
"title": "ラムダ式に変数をキャプチャする方法",
"view_count": 144
} | [
{
"body": "コメント欄でご回答いただいた、[初期化キャプチャ](https://cpprefjp.github.io/lang/cpp14/initialize_capture.html)\nにて解決しました。 \nありがとうございます。",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-23T01:53:06.340",
"id": "91246",
"last_activity_date": "2022-09-23T02:34:54.997",
"last_edit_date": "2022-09-23T02:34:54.997",
"last_editor_user_id": "3060",
"owner_user_id": "54485",
"parent_id": "91241",
"post_type": "answer",
"score": 1
}
] | 91241 | null | 91246 |
{
"accepted_answer_id": "91605",
"answer_count": 1,
"body": "ログインシェルをbashにしてfishを起動したい場合、 \n.bashrcに\n\n```\n\n exec fish\n \n```\n\nと入力すればできるはずなのですが、fishが起動しません。 \nホームディレクトリから\n\n```\n\n vim ~/.bashrc\n \n```\n\nと入力しました。 \n何が間違えているのでしょうか。\n\n * `bash` を実行すると `fish` に変わります\n * ログインシェルを `bash` で行うと、`fish` は起動しません",
"comment_count": 5,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-22T14:12:12.000",
"favorite_count": 0,
"id": "91243",
"last_activity_date": "2022-10-14T14:46:47.340",
"last_edit_date": "2022-10-14T14:10:18.690",
"last_editor_user_id": "3054",
"owner_user_id": "51450",
"post_type": "question",
"score": 1,
"tags": [
"bash",
"shellscript",
"fish"
],
"title": "bashをログインシェルにして、fishを使いたい",
"view_count": 202
} | [
{
"body": "### ログインシェル時に動作が違うのは `~/.bashrc` が読まれないから\n\n`~/.bashrc` は Bash がログインシェルとして起動された場合、デフォルトでは実行されません。対話シェルとしての Bash\nは、ホームディレクトリにあるファイルを、以下のルールで実行します。(ややこしいので、正確な動作は[マニュアル](https://linuxjm.osdn.jp/html/GNU_bash/man1/bash.1.html)を確認して下さい)\n\n### ログインシェルの場合\n\n * `~/.bash_profile`\n * `~/.bash_login`\n * `~/.profile`\n\nがこの順番で探され、最初に見つかった物が実行されます。\n\n### 非ログインシェルの場合\n\n` ~/.bashrc` ファイルがあれば、ここからコマンドを読み込んで実行します\n\n### 対策\n\nよって、ログインシェルの場合もコマンドを実行したいならば、例えば `~/.bash_profile`\nにも記述を追加する必要が有るということです。別のシェルを起動するようなコードは、対話シェルの時のみ実行させたいことでしょう。その場合は例えば下のように場合分けできます。\n\n```\n\n case $- in\n *i*)\n # 対話シェル(インタラクティブ)\n # ...\n ;;\n *)\n # 非対話シェル\n # ...\n ;;\n esac\n \n```\n\n`. ~/.bashrc` などとして別のファイルを丸々読み込むことで、設定を一箇所にまとめることもあります。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-10-14T14:46:47.340",
"id": "91605",
"last_activity_date": "2022-10-14T14:46:47.340",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "3054",
"parent_id": "91243",
"post_type": "answer",
"score": 2
}
] | 91243 | 91605 | 91605 |
{
"accepted_answer_id": "91250",
"answer_count": 2,
"body": "以下のような場合、ラムダ式でPerfect Forwardキャプチャしたいのですがうまくいきません。 \n元のデータが使用できなくなってもよいのでラムダ内に完全転送したいのですが。\n\ndataが大きなサイズのデータになり、ラムダ内で使用したら使い終わるため、 \nコピーをしてラムダ内と外で2つメモリを同時に存在させたくないのが目的です。 \n※ラムダの&参照は使用できません。\n\n```\n\n struct Test\n {\n std::unique_ptr<int[]> data; // データ\n int value;\n \n Test(std::unique_ptr<int[]>&& d)\n : data(std::forward<std::unique_ptr<int[]>>(d))\n , value(10)\n {\n }\n };\n \n int main()\n {\n int size = 10;\n std::unique_ptr<int[]> data = std::make_unique<int[]>(size);\n data[0] = 123;\n \n Test sample(std::move(data));\n \n // ラムダ式\n auto func = [test_c = std::forward(sample), size] <---うまくいかない\n { \n int sum = 0;\n for (int i = 0; i < size; i++)\n {\n sum += test_c.data[i];\n }\n return;\n };\n func();\n }\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-23T00:16:54.747",
"favorite_count": 0,
"id": "91245",
"last_activity_date": "2022-09-26T02:19:43.880",
"last_edit_date": "2022-09-23T00:21:46.353",
"last_editor_user_id": "54485",
"owner_user_id": "54485",
"post_type": "question",
"score": 1,
"tags": [
"c++"
],
"title": "ラムダ式でForwardキャプチャしたい。",
"view_count": 124
} | [
{
"body": "[`std::forward()`](https://cpprefjp.github.io/reference/utility/forward.html)は型引数が必要です。\n\n```\n\n auto func = [test_c = std::forward<Test>(sample), size]\n \n```\n\nでどうでしょうか?",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-23T05:02:14.290",
"id": "91250",
"last_activity_date": "2022-09-23T05:02:14.290",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "4236",
"parent_id": "91245",
"post_type": "answer",
"score": 2
},
{
"body": "> ラムダ式でPerfect Forwardキャプチャしたいのですがうまくいきません。\n\n質問用にソースコードを簡約する過程で変形されたためかもしれませんが、質問文中のソースコードに対しては「Perfect\nForward/`std::forward`」を使う必然性がない旨を指摘しておきます。\n\n`std::forward<T>(t)`が必要となるのは(字義通り)関数テンプレート引数の \"Perfect Forward\" のためであり、`T`には\n**関数テンプレートのテンプレートパラメータを指定する**\nことが一般的な利用方法です。テンプレートパラメータに依存しない具体的な型を指定するユースケースは考えにくく、このようなケースでは単なるコピー(式`t`)またはムーブ(式`std::move(t)`)のいずれかをプログラマ自身の判断で記述すべきです。\n\n* * *\n```\n\n Test(std::unique_ptr<int[]>&& d)\n : data(std::forward<std::unique_ptr<int[]>>(d))\n \n```\n\n`Test`コンストラクタ中の`std::forward<std::unique_ptr<int[]>>(d)`は、常に`std::move(d)`と等価です。\n\n```\n\n // (修正後コード)\n auto func = [test_c = std::forward<Test>(sample), size]\n \n```\n\nmain関数中のラムダ式初期化キャプチャ`test_c = std::forward<Test>(sample)`は、常に`test_c =\nstd::move(sample)`と等価です。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-26T02:19:43.880",
"id": "91303",
"last_activity_date": "2022-09-26T02:19:43.880",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "49",
"parent_id": "91245",
"post_type": "answer",
"score": 1
}
] | 91245 | 91250 | 91250 |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "AWSに登録して初めてみたばかりで、XAMPPを入れてWebサーバーを立ち上げようと \n試しているなのですが、ほかのサイトから参考にしようとみてみても、ほとんどが \nLinuxをインスタンスにしているサイトばかりなので、自分で違うところを判断して \n試してみたのですが、実際にWinmdowsServerのEC2を作成したところまでは \nできたのですが、キーペアの設定やセキュリティグループの設定がうまくいきませんでした。\n\nどこをどう修正していけばよいのか、お教えいただけないでしょうか。\n\n参考にしたのは、こちらのサイト様です。 \n<https://dev.classmethod.jp/articles/creation_vpc_ec2_for_beginner_1/> \n(続きも同様)\n\nVPCの作成まではうまくいっているとおもいますが、遠隔操作をSSHで \n行ってしまいました。ここは希望ではRDPにするべきだったかと思っています。\n\n最終的にはXAMPPを入れてWebサーバーにしたいと思うので、そこまでの補足を \nお願いいたします。",
"comment_count": 1,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-23T03:25:58.237",
"favorite_count": 0,
"id": "91248",
"last_activity_date": "2022-09-23T03:32:03.880",
"last_edit_date": "2022-09-23T03:32:03.880",
"last_editor_user_id": "3060",
"owner_user_id": "9374",
"post_type": "question",
"score": 0,
"tags": [
"aws",
"amazon-ec2",
"windows-server"
],
"title": "AWS アカウント作成直後から、VPC上にWindowsServerのインスタンスを作成し、Webサーバーとして立ち上げるまで",
"view_count": 37
} | [] | 91248 | null | null |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "VisualStudio2019を使用しています。\n\n<https://www.shujima.work/entry/2020/05/10/162356> \nこちらのサイトをもとに、ExcelなどのVBAで使用できるクラスライブラリ(COM)を \nC#で作成してみました。\n\n管理者で作成もし、実際にVBA側に参照の追加もでき、いざ実行すると、『クラスが登録されていません』と \nエラーになってしまうのですが、この原因は何なのでしょうか。\n\n原因と対策を訓えてください。 \nOfficeは2016,64bitです。\n\nよろしくお願いします。 \n[](https://i.stack.imgur.com/ywwHD.jpg)",
"comment_count": 5,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-23T05:12:37.707",
"favorite_count": 0,
"id": "91251",
"last_activity_date": "2022-09-23T07:19:07.763",
"last_edit_date": "2022-09-23T07:19:07.763",
"last_editor_user_id": "9374",
"owner_user_id": "9374",
"post_type": "question",
"score": 0,
"tags": [
"c#",
"vba"
],
"title": "C#で作ったクラスライブラリをVBAで使用しようとすると『クラスが登録されていません』となってしまう",
"view_count": 633
} | [] | 91251 | null | null |
{
"accepted_answer_id": null,
"answer_count": 0,
"body": "ワードプレスでサイト制作をしています、パンくずリストで、ブログの部分の表示がおかしいことに気づき、直そうとしています。\n\nプラグインBreadcrumb NavXT をインストールしてサイトを見ると、 \nブログのページは、サイト名(ホーム)>ブログという表示になっていますが、 \nBreadcrumb NavXT 設定画面に行き、修正したい箇所を修正しなくとも、一度、 \n保存ボタンを押すと、サイト名(ホーム)としか表示されなくなります。\n\n直し方がわかる方いましたら教えていたけると幸いです。\n\n以前は下記サイトで聞いていましたが、数日経っても返信をいただけないので、このサイトでも聞きます。\n\n<https://teratail.com/questions/nnaoed0cer2yao>\n\n下記画像のパンクズリストは、Engress>ブログとなっているのが理想です。\n\n[](https://i.stack.imgur.com/lPEK4.png)",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-23T06:01:18.763",
"favorite_count": 0,
"id": "91252",
"last_activity_date": "2022-09-24T05:03:01.227",
"last_edit_date": "2022-09-24T05:03:01.227",
"last_editor_user_id": "3060",
"owner_user_id": "49042",
"post_type": "question",
"score": 0,
"tags": [
"wordpress"
],
"title": "Wordpress の Breadcrumb NavXT プラグインで、パンくずリストが意図したとおりに表示されない",
"view_count": 140
} | [] | 91252 | null | null |
{
"accepted_answer_id": "91257",
"answer_count": 1,
"body": "pplx::create_taskでtask作成しています。 \nデータをstd::forwardで渡しているのに、コピーコンストラクタが実行されてしまいます。 \nここは通常のラムダ式であれば、ムーブコンストラクタが実行されるのですが、 \nコピーコンストラクタではなく、ムーブコンストラクタが動作してほしいのですが、何か方法があるでしょうか? \ncreate_task内のラムダ式だとコピーコンストラクターが実行されるようです。\n\n```\n\n #include \"cpprest/http_client.h\"\n #include \"cpprest/filestream.h\"\n \n struct Test\n {\n std::unique_ptr<int[]> data; // データ\n int value;\n \n Test(std::unique_ptr<int[]>&& d)\n : data(std::forward<std::unique_ptr<int[]>>(d))\n {\n }\n \n Test(const Test& _obj)\n {\n ::OutputDebugStringW(L\"copy\\n\");\n }\n \n Test(Test&& _obj) noexcept\n : data(std::forward<std::unique_ptr<int[]>>(_obj.data))\n {\n ::OutputDebugStringW(L\"move\\n\");\n }\n };\n \n int main()\n {\n std::unique_ptr<int[]> data = std::make_unique<int[]>(10);\n Test sample(std::move(data));\n std::vector<Test> List;\n List.emplace_back(std::move(sample));\n \n pplx::create_task([\n test_c = std::forward<std::vector<Test>>(List),\n ]()\n { \n });\n }\n \n```",
"comment_count": 0,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-23T09:05:58.257",
"favorite_count": 0,
"id": "91255",
"last_activity_date": "2022-09-26T10:30:32.903",
"last_edit_date": "2022-09-26T10:30:32.903",
"last_editor_user_id": "54485",
"owner_user_id": "54485",
"post_type": "question",
"score": 0,
"tags": [
"c++"
],
"title": "create_taskについて",
"view_count": 135
} | [
{
"body": "[`pplx::create_task()`](https://github.com/microsoft/cpprestsdk/blob/v2.10.18/Release/include/pplx/pplxtasks.h#L4873-L4888)ですが、\n\n```\n\n __declspec(noinline) auto create_task(_Ty _Param, task_options _TaskOptions = task_options())\n -> task<typename details::_TaskTypeFromParam<_Ty>::_Type>\n {\n ...\n task<typename details::_TaskTypeFromParam<_Ty>::_Type> _CreatedTask(_Param, _TaskOptions);\n return _CreatedTask;\n }\n \n```\n\nとなっているので、ラムダ式へはムーブされていますが、肝心のラムダ式 `_Param` がコピーされてるようです。 \n別質問でもいろいろとされているようですが、素直に参照渡しすべきかと。 \n参照渡ししていれば、ラムダ式がコピーされても参照がコピーされるだけとなります。",
"comment_count": 3,
"content_license": "CC BY-SA 4.0",
"creation_date": "2022-09-23T09:40:23.327",
"id": "91257",
"last_activity_date": "2022-09-23T09:40:23.327",
"last_edit_date": null,
"last_editor_user_id": null,
"owner_user_id": "4236",
"parent_id": "91255",
"post_type": "answer",
"score": 1
}
] | 91255 | 91257 | 91257 |
Subsets and Splits