Giorgio Trovatoさんの写真、Unsplashで撮影されました。
本篇は2024-01-21
から2024-01-27
までの週の生活の記録と考えをまとめたものです。
春饼迎春#
熊小花の友達が金曜日に家に遊びに来ました。立春が近いことを考えて、春饼を作り、鱼香肉丝、蚝油杏鲍菇、酸辣土豆丝、凉拌包菜と一緒に食べました。中でも、鱼香肉丝のレシピはこちらで見つけたもので、味も良く、材料も手に入りやすかったです。
春饼を一緒に作るのは 2 回目でしたが、熊猫先生とのコラボはとてもスムーズでした。生地を作り、発酵させ、伸ばし、焼くという一連の作業を行いました。中国で春饼をあまり食べなかった私が、オランダで自分で作ることができるなんて、とても特別な経験でした。
食べ物は本当に特別なものです。春饼を食べている時、ふと、ある帰省の長い午後に、理由もなく春饼屋に入って食事をしたことを思い出しました。当時何を食べたかは全く覚えていませんが、蒸気の中で響く人々の声や、午後の日差しに照らされた光沢のある小皿が記憶に残っています。
歩みを止めずに#
今週、熊小花と一緒に「응답하라 1988」を見終えました。このドラマの特徴は、細部に隠された温かさが視聴者の記憶の隅に触れ、ゆっくりとした生活を想像させることです。この変化によって、私は遠い午後にスターデューバレーのゲームを始めたことを思い出しました。熊培云は「自由在高处」で次のように述べています。
かつて「サンフランシスコ・クロニクル」は、アメリカが電子レンジで大声で叫ぶ国でありながら、それでも速すぎると嘲笑されたと書いたことがあります。常に最新のものに更新されることで、人々は「新しいものが来るまで古いものを捨てない」という考え方に感染しています。そのため、人々は郷愁に満ちています - どのようにして元の価値観に戻り、同じ家に長く住み、重要なものを長く保存し、お互いに忠実でいるか、これは珍しい生活です。
ドラマ全体を見ると、親の生活に関連する部分が一番感銘を受けました。以前は国内にいた時、親のそばにいることはあまりありませんでしたが、時間があるときは必ず帰るつもりでした。しかし、留学後、このような再会の期待はなくなり、現実の別れを通じて家族との絆を再評価することができました。このような状況の中、このドラマは過去への入り口を提供し、以前に気づかなかった家族の生活の断片を見つけることができました。同時に、このドラマは感情の出口を提供し、過去を懐かしむことで現在をより大切にすることができました。去年、北京でビザの手続きを終え、北京から電車で帰宅する途中、隣のおばさんとの会話で、「両親がいるって本当にいいね」と言われました。
そして、私が次に話すことになる日には、決定的な出来事は何も起こりませんでした。私は何かが水面下で静かに醸造されていることをぼんやりと感じるだけでした。しかし、それでも私は何も知らないふりをすることにしました。私が本当のことを理解した時、私の人生は数ページ後ろに戻り、何も救えなくなりました。なぜなら、その時点で私は両親を失っていたからです。- 是枝裕和「歩みを止めずに」
寒假の尾っぽ#
もう開学まであと 1 週間ですが、特に興奮はしていません。それよりも、ますます暖かくなってきた天気が心地よく感じられます。冬は日短夜長で、特に高緯度地域ではその差が顕著です。だからこそ、早起きの明るい陽射しは春のような錯覚をもたらし、長い夜の寒さを追い払います。
今週は、主に Master のプロジェクト登録とコース登録を完了しました。Pre-Master の試験結果は早くも公開されていましたが、先生が再試験の成績をアップロードするまで、学校のシステムは Enrollment Certificate を提供してくれませんでした。約 1 か月待った後、先生が成績をアップロードし、私は正式に Master のプログラムに登録しました。
言語の授業では、インターンシップのために便利であると考え、すぐにコースを登録しなかったのですが、今週はオランダ語の追加の授業を受けようとしましたが、既に登録が締め切られていました。そのため、自習と Duolingo に頼るしかありません。去年は Duolingo の 365 連続日を達成しましたので、これらの基礎を活かして自習を頑張りたいと思います。
$1#
今年は、$1 のパッシブ収入を得るという目標を自分に立てました。
ある日、家に帰る途中で、YouTube でRapidAPIを使用して簡単な API サービスをデプロイするチュートリアルを見つけました。内容を確認したところ、Node.js と express.js を使用しており、データの取得には cheerio を使用しています。最後にはHerokuにデプロイします。
このプロジェクト自体は難しくありませんが、最適化できる点は次のとおりです。
- データの保存:現在の方法では、リクエストごとにスクレイピングリクエストが送信されます。これにより、サーバーの負荷が大きくなり、多くのパフォーマンスの浪費が発生します。また、リクエスト数が増えると、ウェブサイトのスクレイピング防止策がトリガーされ、プログラム全体が無効になる可能性があります。自分でデプロイする場合は、スクレイピング結果をデータベースに保存することができます。現在の考えでは、以前に使用した MongoDB を使用する予定です。
このプロジェクトから得られる示唆は次のとおりです。
- JavaScript のスクレイピングライブラリの理解。以前は Python で BeautifulSoup を使用していましたが、cheerio ライブラリの理解により、フルスタックの技術が向上しました(つまり、JavaScript で何でも書く)。
- API as a Service。以前の学習では、API の役割をデータのフロントエンドとバックエンドの間の転送として理解していました。このプロジェクトを通じて、API が入力と出力のフローでサービスを提供する可能性に気付きました。The Top 50 Most Popular APIsという記事では、多くの API が提供するサービスは実際にはデータベースとは関係ありません。例えば、TikTok のノーウォーターマークダウンロードを提供するTiktok Download Without Watermark、NLP Translation、Article Data Extraction and Text Miningなどです。その中で、機械学習の応用は新しいトレンドであり、複雑なモデルを標準の API でさまざまなシナリオに適用できるようにしています。
データサイエンス#
今週は、これまでのインターンシップに主に投資していたリズムから切り替えて、DataCamp での学習を再開しました。
今週は主にseabornを学び、A Guide to the Power of hue
in Seaborn Visualizationsというブログ記事を書きました。
また、DataCamp で Visualizing the History of Nobel Prize Winners のプロジェクトも行いました。自分の忘れるスピードの速さに驚きました。基本的なスライシング操作を学んだ後、使わないとすぐに忘れてしまいますので、毎日のコーディング練習を続ける必要があります。
週間の宝石#
Awesome DataScience#
-
QuantEconは、Python を使用した量的な分析についての包括的なチュートリアルです。これは私の将来の Financial Risk Management の方向性に合っています。
-
Collyは、Go 言語で書かれたスクレイピングライブラリで、私は Go に関する知識がまったくありませんが、About の説明にエレガントと書かれているプロジェクトを読むことは楽しいはずです。
-
Neet Codeは、Reddit で見つけた leetcode 風のウェブサイトで、著者が選んだ 150 の問題と詳細な解説が付いています。プログラム設計の理解を深めるのに役立ちます。
web dev#
-
google-indexing-scriptは、Google Search Console API と Web Search Indexing API を使用して、サイトのサイトマップを読み取り、まだインデックスされていない URL を自動的に Google に送信するスクリプトです。作者はプロジェクトの紹介で次のように述べています。
Use this script to get your entire site indexed on Google in less than 48 hours.
私は厳密に作者のチュートリアルに従って設定しましたが、いくつかの説明が抜けていることに気付きましたので、後でブログ記事で補足する予定です。 -
前のブログ記事で、豆瓣読書の画像カバーの URL を引用しようとしたところ、豆瓣がリンクの盗用を防ぐ設定をしているため、自分のウェブサイトに表示することができませんでした。簡単な Google 検索の結果、weserv.nlのサービスを使用して、画像の引用制限を回避することができることがわかりました。