サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
世界禁煙デー
dev.classmethod.jp
どうも!オペレーション部の西村祐二です。 Python、TypeScriptなどいろんな言語でプログラミングしていると、関数名や変数名などをキャメルケース、スネークケースに変更したい、大文字に変換したい場面がちょくちょくあります。 今まではchange-caseという文字列を変換してくれる拡張機能を導入してましたが、VS Codeデフォルトの機能でも変換できることを知ったので紹介したいと思います。 環境 VS Code: 1.89 変換方法 文字列を選択し、「cmd + shift + p」などでコマンドパレットを開きます。 検索窓に「transform」と入力します。 変換したい形式を選択します。 下記ではサンプルとしてケバブケースに変換してます。 対応形式 バージョン1.89現在、下記に対応してます。 キャメルケースに変換 スネークケースに変換 ケバブケースに変換 パスカルケースに変換
いわさです。 以前からプレビュー中だった、AWS Amplify Gen 2 がついに GA となりました。 遂にというか個人的には思っていたより早かったです。 Amplify Gen 2 は従来の CLI ベースではなく CDK ベースとし、コードファーストでの開発に重きを置いています。 Amplify Gen 2 自体の記事は DevelopersIO 内にもいくつか存在しており改めて本記事では触れませんのでこちらのブログなどもご覧ください。 また、以下のページでは Gen 2 への移行ツールが開発中である点に言及されており、その上で Gen 1 と Gen 2 でサポートされる機能がまとめられていますので、すでに Amplify Gen 1 利用中のユーザーの方はこちらも参考にしてください。 以前は「近日公開予定」だった機能 実は 2024 年 2 月ごろに、私も少し Amplify
Amazon Connect フローでの放棄呼と離脱箇所を、Step Functionsを利用しローコードでDynamoDBに保存してみた はじめに Amazon Connectのフローで離脱箇所や放棄呼をAmazon Kinesis Data Streams(以降、KDS)とStep Functionsを用いて取得し、Amazon DynamoDBに保存する方法をまとめました。 本記事の内容は以下のような用途に役立ちます。 IVRでの途中離脱箇所を知りたい オペレーターにつながる前に切られる放棄呼の有無を知りたい Connectは、各通話ごとに問い合わせレコード(Contact Trace Record, CTR)として通話記録を保存します。 Connectでは、KDSに問い合わせレコードを出力できます。通常は問い合わせレコードは、どのフローで切断されたか情報はありませんが、フロー内で工
小ネタです。 2024年05月03日付けのLooker Studioリリースノートにて、Looker Studioでチャートに直接タイトルを追加できるようになりました。タイトルのフォント、色、サイズ、スタイル、位置はプロパティパネルのスタイルタブのタイトルセクションでカスタマイズできるようになります。 Looker Studio release notes | Google Cloud 当エントリでは簡単ではありますがこの内容について紹介していきたいと思います。 Learn more about adding and styling titles for charts. 目次 これまでの対処方法(Before) これからの対処方法(After) まとめ これまでの対処方法(Before) いきなりですがこちらのダッシュボード。これは社内限定で公開しているブログ投稿本数に関する年月単位で
2024年04月25日付けのLooker Studioリリースノートにて、新しいグラフ形式「タイムラインチャート」が利用可能になったのと合わせて『Googleスプレッドシート内で直接Looker Studioレポートを作成することができるようになった』という新機能もアナウンスされていました。 当エントリではこの機能(機能というかメニュー展開)に関して内容を紹介したいと思います。 目次 概要 実践 考慮事項 データソースのアップデート 情報やデータの在り方 まとめ 概要 当エントリで紹介する内容については、ざっくり言えば『機能が追加された』というよりは『機能をよりスムーズに使いこなせるようにメニュー構成が便利になった』というものになります。 従来の構成であれば、下記エントリで紹介したように『Googleスプレッドシートでデータを用意する』『Looker Studio側でデータソースを取り込む
先日2024年04月25日に更新されたLooker Studioのリリースノートにて、新しい可視化オプション「タイムラインチャート」が利用出来る旨がアナウンスされていました。 タイムラインチャートを使うと、イベントグループ間の関係を視覚化し、これらのイベントが起こったタイムスパンを比較することができるようになります。 当エントリではこの「タイムライン」チャートについて、必要な要件を確認し、実践データを使って可視化してみるところまでを紹介したいと思います。 目次 必要条件 Looker Studio: タイムラインチャート実践 まとめ 必要条件 タイムラインチャート作成には以下の情報が必要です。 行ラベル:各行のラベル文字。文字列型のディメンションとして指定。 開始日: タイムラインの開始日付。日付型のディメンションとして指定。 終了日: タイムラインの終了日付。日付型のディメンションとして
[アップデート] Knowledge bases for Amazon Bedrock が東京リージョンでサポートされました Knowledge bases for Amazon Bedrock が東京リージョンでサポートされました。東京リージョンの現状のおさらいと、リージョン(モデル)を使い分けて回答を生成してみました。 こんにちは! AWS 事業本部コンサルティング部のたかくに(@takakuni_)です。 ついに、 Knowledge bases for Amazon Bedrock が東京リージョンでサポートされました。 ドキュメントにも Knowlege base の列に Yes と記載されていますね。 Supported AWS Regions - Amazon Bedrock そこで今回は、東京リージョンでナレッジベースを作成してみたいと思います。 東京リージョンをおさらいす
[アップデート] Amazon DynamoDB のオンデマンドキャパシティモードで最大スループットを指定出来るようになったので、YCSB で DynamoDB の負荷テストしてみた いわさです。 DynamoDB にはキャパシティモードの概念がありまして、あらかじめ予測したキャパシティを事前割り当てしておくプロビジョンドモードか、実際に発生したリクエストに応じて請求してくれて良いのでうまいことやってくれやというオンデマンドモードの 2 つがあります。 どちらも一長一短あるのですが後者のオンデマンドの場合は柔軟性がある一方で、ワークロードの負荷によってはコストが予測しずらかったり、あるいは DynamoDB のイベントに応じてサービス間を連携しているような場合にオンデマンドだと外部サービスに予測できない負荷が発生することがありえます。 そんなオンデマンドキャパシティモードですが、本日のアッ
上の写真は僕が作ったIoT水やり装置です。土壌水分量をセンサーで測って、乾いてきたら水をあげてくれます。 ↓のM5Stack Watering UnitとM5Stackを買えば割と簡単に作れます! コードは全部ここにあるので興味がある方は見てみてください。 今日はその話ではなく、、、 「それ」、うちにも欲しいです 妻に作成したものを見せたところ、「自動で水やり!それいいね!庭にも同じの作ってよ!」と。 首都圏郊外にある我が家には日当たりの良い庭があり、妻は季節ごとに花や野菜を植えて、我が家の外観とそして食卓に彩りを添えてくれます。 しかし日当たりが良すぎるあまり、夏場の水やりはまぁまぁ過酷な労働です。 加えて、夏には恐るべき吸血生物が無数に飛び回っています。 水やりが自動化されたら嬉しい。たしかにそうだ。 でもなぁ。。。 非機能要件が全く異なる 実現したい機能は同じ「自動で水やりしたい」だ
はじめに テクニカルサポートの 片方 です。 前回のブログで執筆数が 200 本を越えました。199 本目、200 本目 のブログに引き続き Lambda 関数を利用した内容を紹介します。 こちらは、私の所属するテクニカルサポートチームへ「〇〇〇 を実現するサービスや機能はないか」と実際にお客様より頂いたお問い合わせを参考 (ヒント) にしてカスタムソリューションを作成してみました。 本ブログでは、マネージドノードに表示されている SSM Agent の Ping ステータスを監視する仕組みを EventBridge + Lambda 関数 + SNS を使って実装してみました。 構成と説明 SSM エージェントのステータスを毎分ポーリングする Lambda 関数を作成します。それをメトリクスとして取得して CloudWatch に送信します。 上記で作成した SSM エージェントのメトリ
WorkflowsからDataformの起動方法を検証してみました。Dataformタグ指定、コンパイル変数のWorkflowsからの上書きができるか、もあわせて検証してみました。 データアナリティクス事業本部の根本です。Dataformを使っていて、呼び出しもと(Workflowsとか)から動的に値を変えてDataformを呼び出すことができたらいいなと思い調べてみたらコンパイル変数を用いたらできたので記事にしてみました。 この記事の対象者 Dataformでコンパイル変数を使ってみたいひと 前提条件 Dataformのワークスペースやリポジトリが存在する、使えること 検証の全体像 コンパイル変数をdataform.jsonで指定して動作するか確認 APIでDataformを実行するときにコンパイル変数の値を上書きして動作するか確認 上記2つの検証をしていきます。 やってみる それでは早
Amazon MemoryDBではトランザクションログサービスへの耐久性のオフロード、スナップショット用にephemeralクラスタを作成、形式手法(TLA+)で一貫性の検証などが活躍しています Amazon MemoryDB for RedisはAWSが2021年から提供するRedis互換でありながら高速なパフォーマンスと耐久性を兼ね備えたエンタープライズなインメモリデータベースです。このAmazon MemoryDBの仕組みについて説明した論文が、2024年6月にチリ・サンティアゴで開催される国際的なデータベース学会の「SIGMOD/PODS 2024」で採択されました。 The 2024 ACM SIGMOD/PODS Conference: Santiago, Chile - Welcome Amazon MemoryDB: A fast and durable memory-fi
はじめに Amazon DynamoDBのデータを毎日Amazon S3バケットへCSV形式で保存するAWS Lambdaを作成する機会がありましたので、紹介します。 構成としては以下のとおりです。 Amazon EventBridge Schedulerで毎日01:00にLambdaを呼出します Lambdaは、DynamoDBから前日に保存されたデータを取得します。 LambdaでCSV形式に変換し、S3バケットに保存します。 DynamoDBのテーブルは、属性としてデータを保存した日付が入っていれば、テーブルは何でもよいですが、今回は以下の記事で作成したテーブルを利用します。 本記事で使用するDynamoDBのテーブルには、start_date(保存した日付)の属性が必要です。存在しない場合は、新たに追加してください。 保存した日付:start_date(必須) 例:2024-04-
はじめに データアナリティクス事業本部の大谷(おおや)です。 ついにData Wrangler Extension for Visual Studio Code(以降Data Wrangler)がプレビュー版から正式版になりました! この記事では、前回紹介できなかった、ファイルからData Wranglerを起動する方法についてまとめていきたいと思います。 Data Wrangler とは VSCode および VSCode Jupyter Notebook で、データの表示や分析を直感的に行うことができるようになる VSCode の拡張機能です。 セットアップ インストール方法や、ランタイムの設定などは前回記事をご確認ください。 実践 ファイルから Data Wrangler を開く方法は3パターンあります。 それぞれ確認していきましょう。 1. VSCode のエクスプローラー上で右ク
こんにちは、戸田です。 このブログではTypeScriptの環境構築からJestを使用した簡単な四則演算のテストの方法を解説します。 環境構築 まずは環境構築をします。 今回はかなりシンプルな環境を構築します。 今回使用した環境は以下です。 Node.js v21.5.0 TypeScript v5.4.0 Jest v29.7.0 TypeScriptのインストール package.jsonをセットアップする npm init -y TypeScriptをインストールする npm install typescript --save-dev Node.jsのプログラムに必要な型宣言ファイルnode.d.tsをインストール npm install @types/node --save-dev TypeScriptの設定ファイルtsconfig.jsonを初期化 npx tsc --init
はじめに 世の中ではGrafana Weekということで、Raspberry Pi 5複数台をクラスタリングしてKubernetesを作成し、Grafanaを載せてみたいと思います。 というのは冗談ですが、最近趣味で安価に常駐プロセスをデプロイできるホスティング環境に悩んでいました。常駐しないなら最近はゼロコールドスタートなV8 Isolateを使ったCloudflare WorkersやDeno Deployが無料枠が大きくいい感じです。 一方常駐プロセスはHerokuの無料プランがなくなりました。AWS AppRunnerは起動時間を人間が稼働している時間のみに絞っても10$はかかります。fly.ioは、Legacy hobby planでCPU-1x 256mb VM 3つと3 GB 永続ボリュームストレージは無料で扱えます。fly.ioはCLIもよくできているので、軽い検証の場合こ
今回はPythonで簡単にリトライ処理を追加できる「tenacity」を使ってみます。 デコレータ形式で簡単にリトライ処理を追加できるので便利です。 tenacityについて プログラムを書いていて、HTTPの通信などでリトライ処理を実装する機会は多いと思います。 今回はそんなリトライ処理を簡潔に書けるtenacityの使い方を説明します。 インストール インストールはpipで可能です。 インストール pip install tenacity 使い方 シンプルな例 シンプルな例 import random from tenacity import retry @retry def random_error(): num = random.randint(0, 10) if num > 4: print(f"Error: num={num}") raise Exception("Error!
こんにちは、AWS事業本部の荒平(@0Air)です。 CloudWatch Logsにどのくらいのデータが保管されていて、現時点の総容量がどのくらいあるか把握したいと思ったことはありませんか? 過去3回も思ってしまった自分のために、AWS CLI(CloudShell)を使ったCloudWatch Logsの容量を取得できるコマンドを残しておきます。 はじめに CloudWatch Logsは、Lambdaの実行ログ、API Gatewayのアクセスログ、ECSのタスクログ、CloudTrailの操作ログなどを一元的に管理できる便利なサービスです。 ただ、「CloudWatch Logsにログを置きっぱなしにするとコストが余計に掛かって勿体ない」という話はしばしば聞きます。 以下記事で紹介されている通り、圧縮率を考慮しない料金だとAmazon S3がやはり安いです。(圧縮率を考えると、更に
こんにちわ。組織開発がミッションの人事グループ・組織開発室に所属しているてぃーびーです。 なにか解決が必要な課題があるとき、その課題に関するやりとりには「課題そのものに対するもの」と「解決策に関するもの」があります。 今回は、課題と解決策の検討プロセスについてまとめます。 任意の課題に対する解決策を検討する場合、まず課題に関する情報を集め、内容を明確にし、取り組みの有無や優先順の検討をできる状態にします。優先して取り組むに値する課題と判断した場合に、解決策の検討に移ります。 逆に課題の整理が進まない状態で、解決策の検討に移行した場合の影響を考えてみると 課題の検討が不十分な状態で解決策を検討し、取り組んだ結果、課題の本質とズレていたため、効果が薄かった 解決策を検討したあとに改めて課題を整理してみたら、結局取り組まない意思決定に至る 解決策を検討したあとに改めて課題を整理してみたら、新たな
PythonでLambdaを書いているとき、pytestを利用してUnit TestやAPIに対するE2Eテストを実施しています。 Lambdaが多くなるほど、実施するテストも増えます。 実施するテストが増えると、1回あたりのCI/CDの稼働時間も増えます。 このCI/CDの稼働時間を減らすために、差分があるLambdaのテストだけを実施する仕組みを考えてみました。 (ALLのテストはデイリーで実施する想定です。) おすすめの方 pytestでgit diffの差分があるファイルだけをテストしてみたい方 前提 次のフォルダ構成とします。「handlers/xxx」とペアになるe2eテストファイルがあります。 ├── src │ └── handlers │ ├── xxx │ │ └── app.py │ └── yyy │ └── app.py └── tests
『30 Days of Streamlit』を3日でやってみた #1 (Day1〜Day10) #30DaysOfStreamlit 近年、データ分析界隈で「Streamlit」がとても人気です。Streamlitは、Pythonを使ってデータサイエンスやAI/機械学習のWebアプリケーションを素早く開発できるオープンソースのフレームワークで、Pythonでデータ処理や機械学習モデルを実装した後、専門的なWeb開発スキルがなくても、それを簡単にWebアプリ化してエンドユーザーに届けることができる代物となっています。データサイエンスの成果をビジネスに素早く活用する上で、非常に有用なツールだと言えます。 このStreamlit、有志の手によって『30 Days of Streamlit』というコンテンツが展開されています。タイトルの通り全30日間のハンズオンカリキュラムが用意されており、難易度
データアナリティクス事業本部の根本です。Cloud Buildのトリガー作成時にサービスアカウントを指定して作成するという検証をしてみました。 デフォルトのサービスアカウントではなく明示的にサービスアカウントを指定してトリガー作成をしたい、という方がいれば読んでみていただけると嬉しいです。 この記事の対象者 Cloud Buildでサービスアカウントを指定してトリガーを作成したいひと 前提条件 Cloud Buildでデフォルトサービスアカウントで作成したトリガーがあること Cloud BuildとGitHubが連携していること、デプロイできるCloud Functions関数があること 検証の目的 Cloud Buildでサービスアカウントを指定してトリガー作成できるか。つまづきポイントがないか サービスアカウントを指定したトリガーでCloud Functionsの関数がデプロイできるか
新規事業部 生成AIチームの山本です。 2024/04/24にオンラインで開催した弊社セミナー「生成AI時代の必須スキル!RAGの回答精度向上のコツ全部教えます」にて登壇をしましたので、自分の発表資料を共有いたします。 資料 資料に関する補足 今回は、RAGを始めたい方や始めてすぐな方に向けて登壇を行いました メインの内容は、1~73ページです。 また補足として、既にRAGを導入し進めている方向けに、補足情報を74ページ以降に記載しました。 Q&A 以下、いただいた質問と、差し上げた回答の内容です。山本がメインで回答していますが、一部は(同じく登壇した)熊谷が回答しました。一部、本記事の記載に伴い補足を追加しました。 Q: LLMとragを活用し、毎日の1000人規模全社のeメール(参考ドキュメント)から、トラブルや不正予兆のあるメールを抽出することはできますか。なお、教師データ(メール)
こんにちわ。組織開発がミッションの人事グループ・組織開発室に所属しているてぃーびーです。 仕事における会話には様々なものがあります。会話のテーマには方針や概念などの抽象度が高いものもあれば、現場で起こった個別の出来事のように抽象度が低いものもあります。 今回は会話における抽象度のコントロールについてまとめます。
毎日オフィス出社してから1ヶ月経過した時に書いたブログから1年くらい経過したので改めて感じていることとその後の変化をまとめる こんにちはAWS事業本部コンサルティング部のこーへいです。 あれから一年間ほぼ毎日出社しています 一年前にこんな記事を書きました。あれから約1年経過したので記事を見返しながら今感じていることやその後の変化を書き連ねたいと思います。 前提と本記事の目的 リモートワークと出社どちらが良いか?は定期的に盛り上がるネタではありますが、やはり置かれた状況や立場、人間の特性によって変化するものであり、総合的に良い手段を選ぶべきだと思っています。 フル出社、フルリモートワーク、週に3日リモートワークで週に2日は出社するなど、様々な働き方があると思いますが、今回は私の置かれている状況や特性を前提に想いを共有させてください。 筆者の前提 20代中盤の未婚男性で一人暮らしで関東在住 エ
Mountpoint for Amazon S3 を使って EC2 に S3 バケットを自動マウントしたいと考えていました。しかし、Mountpoint for Amazon S3 は/etc/fstab を利用した自動マウントをサポートしていません。そこで今回は、systemd のサービスを利用した自動マウントを試してみました。 Montpoint for Amazon S3 は自動マウントをサポートしていません。ここで紹介する自動マウント手法は自己責任でご利用ください。 S3 バケットの自動マウントのサポート状況 Mountpoint for Amazon S3 は/etc/fstabを利用した自動マウントをサポートしていません。ロードマップにも fstab 対応予定はありません。 Roadmap · Mountpoint for Amazon S3 - Public Roadmap
ユーザーデータでパッケージのインストールをしようとすると失敗するんだが こんにちは、のんピ(@non____97)です。 皆さんはEC2インスタンスのユーザーデータでdnfコマンドやyumコマンドが失敗したことはありますか? 私はあります。 具体的にはユーザーデータでdnf upgradeやdnf install パッケージ名を実行すると、以下のようにRPM: error: can't create transaction lock on /var/lib/rpm/.rpm.lock (Resource temporarily unavailable)とログが出力されます。 $ dnf upgrade -y --releasever=latest Amazon Linux 2023 repository 30 MB/s | 23 MB 00:00 Amazon Linux 2023 Ker
こんにちはカスタマーソリューション部のこーへいです! 皆さんはSysdigを検討したものの、実際に導入した際の費用感のイメージがつかず困ったことはないでしょうか。 今回は「Sysdigを利用するためのライセンス費」と「Sysdig環境に必要なAWSリソース費」の観点にて解説しますので、本記事がSysdig導入の一助となれば幸いです。 Sysdig Secureとは 簡単に説明すると、Sysdig Secureは実行されているコンテナで発生した攻撃を検知・防御するランタイムセキュリティと呼ばれるカテゴリの製品です。 “GuardDutyとSysdigのランタイムセキュリティ機能を比較してみる”というタイトルで LTしました#hibiyatechより 最近では、GuardDutyがランタイムセキュリティ機能をサポート(詳しくは【総まとめ】GuardDutyによるコンテナランタイム脅威検知の注意
プロジェクトマネジメント未経験の方も今日から参考にできるTipsをシェア。 ゼロから始めるプロジェクトマネジメントシリーズ第六回です。 プロジェクトを進行する中で出てくる様々な要望。これらはすべて記録するようにしましょう。 情報システム室の進地@日比谷です。 プロジェクトを進行する中で、ステークホルダ、プロジェクトメンバー、ユーザなどから様々な要望、意見、アイデア、思いつき、etcが挙がってくると思います。その時、それらをもし記録していないのであれば必ず記録するようにしましょう。今回は、すべての要望を記録するメリットと方法についてまとめてみました。 なお、すべての要望を「記録する」のであって必ずしも「対応する」わけではないのでその点はご注意ください。 すべての要望を記録するメリット すべての要望を記録することの主なメリットは次の通りです。 プロジェクトの進行に影響を与える要望を可視化でき、
次のページ
このページを最初にブックマークしてみませんか?
『Developers.IO』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く