Kryentech Logo Kryentech

Japanisch-Deutsch Sprachfiles: Anhören und Download

Hier findest du fertige MP3-Sets mit passenden japanisch–deutschen Wortlisten – von Alltag und Reise über Business bis Elektrotechnik. Ideal für Shadowing, Aussprachetraining und Wiederholung unterwegs.

Warum eigene Sprachfiles besonders effektiv sind

Du möchtest zuerst mit fertigem Material starten?
Weiter unten findest du die Audio-Dateien mit ausführlichen Wortlisten: Begrüßung, Zahlen, Alltag, Reise, Business und ein Elektrotechnik-Fachvokabular mit Beispielsätzen.

Diese sind ideal für den Einstieg.
Doch sobald du erste Fortschritte machst, lohnt es sich, auf eigene Inhalte umzusteigen - denn genau hier liegt der grösste Lernfortschritt.

Lerne genau das, was du brauchst
Statt generischer Standardlisten lernst du deinen eigenen Wortschatz - abgestimmt auf deinen Alltag, deinen Kurs oder deinen Job.

Dein Tempo, dein Rhythmus
Passe Geschwindigkeit und Pausen so an, dass dein Gehirn optimal mitkommt. So verbessert sich auch deine Aussprache spürbar.

Wiederholen, bis es sitzt
Schwierige Wörter oder ganze Themen kannst du gezielt und beliebig oft wiederholen - ohne Ablenkung.

Lernen im echten Kontext
Mit eigenen Beispielsätzen trainierst du Wörter direkt im Zusammenhang. Das macht es deutlich einfacher, Bedeutung und Anwendung zu verstehen und zu behalten.

Mehr Motivation, bessere Resultate
Wenn die Inhalte zu deinen persönlichen Zielen passen, bleibst du länger dran - und nutzt die Audios auch im Alltag konsequent.

👉 Erstelle jetzt deine eigene Datei mit individuellen Wörtern und starte direkt 🚀

Die 20 wichtigsten Japanisch-Deutsch-Redewendungen zur Begrüßung (A1–A2)

Höfliche Standardsätze für Begrüßung, Telefon und kurze Gespräche.

JA-DE

DE-JA

Wörter anzeigen (20 Einträge)
  • こんにちは - Hallo
  • お早うございます - Guten Morgen
  • 今晩は - Guten Abend
  • お休みなさい - Gute Nacht
  • さようなら - Auf Wiedersehen
  • またね - Bis später
  • 初めまして - Freut mich, Sie kennenzulernen
  • 宜しくお願いします - Auf gute Zusammenarbeit
  • お元気ですか - Wie geht es Ihnen?
  • お久しぶりです - Lange nicht gesehen
  • いらっしゃいませ - Willkommen (im Laden)
  • ようこそ - Willkommen
  • もしもし - Hallo (am Telefon)
  • 行ってきます - Bis dann
  • 行ってらっしゃい - Mach's gut
  • ただ今 - Ich bin wieder da
  • お帰りなさい - Willkommen zurück
  • 失礼します - Entschuldigen Sie
  • また明日 - Bis morgen
  • お邪魔します - Entschuldigen Sie die Störung

Die 20 wichtigsten Zahlen auf Japanisch und Deutsch (A1–A2)

Basiszahlen für Uhrzeit, Preis, Datum und Mengen.

JA-DE

DE-JA

Wörter anzeigen (20 Einträge)
  • 一 (いち) - eins
  • 二 (に) - zwei
  • 三 (さん) - drei
  • 四 (よん) - vier
  • 五 (ご) - fünf
  • 六 (ろく) - sechs
  • 七 (なな) - sieben
  • 八 (はち) - acht
  • 九 (きゅう) - neun
  • 十 (じゅう) - zehn
  • 十一 (じゅういち) - elf
  • 十二 (じゅうに) - zwölf
  • 十三 (じゅうさん) - dreizehn
  • 十四 (じゅうよん) - vierzehn
  • 十五 (じゅうご) - fünfzehn
  • 十六 (じゅうろく) - sechzehn
  • 十七 (じゅうなな) - siebzehn
  • 十八 (じゅうはち) - achtzehn
  • 十九 (じゅうきゅう) - neunzehn
  • 二十 (にじゅう) - zwanzig

Die 20 wichtigsten japanischen und deutschen Wörter für den Alltag (A1–A2)

Tägliche Standardsätze für Einkaufen, Fragen und höfliche Kommunikation.

JA-DE

DE-JA

Wörter anzeigen (20 Einträge)
  • 有難うございます - Danke schön
  • すみません - Entschuldigung
  • ごめんなさい - Es tut mir leid
  • はい - Ja
  • いいえ - Nein
  • お願いします - Bitte
  • これをください - Das hier bitte
  • いくらですか - Wie viel kostet das?
  • 何時ですか - Wie spät ist es?
  • トイレはどこですか - Wo ist die Toilette?
  • 大丈夫ですか - Ist alles in Ordnung?
  • 結構です - Nein, danke
  • 分かりません - Ich verstehe es nicht
  • 分かりました - Ich habe es verstanden
  • いただきます - Guten Appetit
  • ご馳走様でした - Danke für das Essen
  • 美味しい - Lecker
  • 高い - Teuer
  • 安い - Billig
  • どうぞ - Bitte schön

Die 20 wichtigsten Japanisch-Deutsch-Vokabeln für Reise und Transport (A2–B1)

Vokabeln und Beispiele für Reisen, Transport, Unterkunft und Orientierung.

JA-DE

DE-JA

Wörter anzeigen (20 Einträge)
  • 空港 - Flughafen
  • 駅 - Bahnhof
  • 地下鉄 - U-Bahn
  • バス停 - Bushaltestelle
  • タクシー - Taxi
  • ホテル - Hotel
  • 旅館 - traditionelles Gasthaus
  • 切符 - Fahrkarte
  • 予約 - Reservierung
  • パスポート - Reisepass
  • 荷物 - Gepäck
  • 観光 - Sightseeing
  • 観光客 - Tourist
  • 地図 - Stadtplan
  • 両替 - Geldwechsel
  • 飛行機 - Flugzeug
  • 電車 - Zug
  • 新幹線 - Shinkansen (Hochgeschwindigkeitszug)
  • お土産 - Mitbringsel (Souvenir)
  • 出発 - Abfahrt

Die 20 wichtigsten Japanisch-Deutsch-Begriffe für Beruf und Business (B2+)

Business-Vokabeln für Meetings, Rollen, Kommunikation und Arbeitsalltag.

JA-DE

DE-JA

Wörter anzeigen (20 Einträge)
  • 会社 (かいしゃ) - Firma
  • 社長 (しゃちょう) - Geschäftsführer/Firmenchef
  • 部長 (ぶちょう) - Abteilungsleiter
  • 上司 (じょうし) - Vorgesetzter
  • 部下 (ぶか) - Untergebener
  • 同僚 (どうりょう) - Kollege
  • 会議 (かいぎ) - Besprechung/Meeting
  • 出張 (しゅっちょう) - Geschäftsreise
  • 残業 (ざんぎょう) - Überstunden
  • 給料 (きゅうりょう) - Gehalt
  • 締め切り (しめきり) - Deadline (Abgabetermin)
  • 契約 (けいやく) - Vertrag
  • 報告書 (ほうこくしょ) - Bericht
  • 面接 (めんせつ) - Vorstellungsgespräch
  • 履歴書 (りれきしょ) - Lebenslauf
  • 名刺 (めいし) - Visitenkarte
  • 顧客 (こきゃく) - Kunde
  • 取引先 (とりひきさき) - Geschäftspartner
  • 昇進 (しょうしん) - Beförderung
  • お疲れ様です - Gruß unter Kollegen ("Gute Arbeit")

Japanisch-Deutsch: Elektrotechnik-Fachvokabular mit Beispielsätzen (nach Bericht)

Japanisch–deutsches Fachvokabular aus den Elektrotechnik-Artikeln auf Kryentech, nach Berichten geordnet. Zu jedem Begriff gibt es kurze Beispielsätze in beiden Sprachen; die passenden MP3-Dateien (JA–DE und DE–JA) kannst du direkt abspielen oder herunterladen.

Authentifizierte Verschlüsselung (AES-GCM)

Bericht lesen (日本語) · 29 Einträge

JA-DE

DE-JA

Wörter anzeigen (29 Einträge)
  • 機密性 — Vertraulichkeit
    TLSでは転送データの機密性が保たれる。
    Bei TLS bleibt die Vertraulichkeit der übertragenen Daten gewahrt.
  • 完全性 — Integrität
    認証タグがあれば、暗号文の完全性を検証できる。
    Mit Authentifikationstag lässt sich die Integrität des Chiffretexts prüfen.
  • 改ざん — Manipulation (der Daten)
    攻撃者が暗号文を改ざんすると、検証に失敗する。
    Wenn ein Angreifer den Chiffretext manipuliert, schlägt die Prüfung fehl.
  • 認証付き暗号 — authentifizierte Verschlüsselung
    AES-GCMは代表的な認証付き暗号の一つである。
    AES-GCM ist ein typisches Verfahren der authentifizierten Verschlüsselung.
  • 認証タグ — Authentifikations-Tag
    受信側は認証タグを検証してから復号する。
    Der Empfänger prüft den Authentifikationstag vor der Entschlüsselung.
  • ペイロード — Nutzlast
    ペイロードは秘密にし、ヘッダは別扱いにできる。
    Die Nutzlast bleibt geheim; der Header kann separat behandelt werden.
  • ブロック暗号 — Blockchiffre
    AESは広く使われるブロック暗号である。
    AES ist eine weit verbreitete Blockchiffre.
  • ノンス — Nonce (Zufallswert)
    GCMでは毎回新しいノンスを使う必要がある。
    Bei GCM muss bei jeder Nachricht ein neuer Nonce verwendet werden.
  • ノンスの再利用 — Nonce-Wiederverwendung
    ノンスの再利用はAES-GCMでは致命的である。
    Nonce-Wiederverwendung ist bei AES-GCM fatal.
  • 復号は拒否される — Entschlüsselung wird verworfen
    タグが合わなければ復号は拒否される。
    Stimmt der Tag nicht, wird die Entschlüsselung verworfen.
  • カウンタモード — Counter-Modus
    GCMはカウンタモードを基に高速に動く。
    GCM basiert auf dem Counter-Modus und ist schnell.
  • ガロア体上の認証 — Authentifikation im Galoiskörper
    完全性はガロア体上の認証で保証される。
    Die Integrität wird durch Authentifikation im Galoiskörper sichergestellt.
  • 追加認証データ — zusätzliche authentifizierte Daten (AAD)
    メタデータは追加認証データとして扱える。
    Metadaten lassen sich als zusätzliche authentifizierte Daten (AAD) binden.
  • ヘッダ — Header
    パケットのヘッダも改ざん検知の対象にできる。
    Auch der Paket-Header kann in die Integritätsprüfung einbezogen werden.
  • リプレイ — Replay (-Angriff)
    リプレイ対策にはシーケンス番号が有効だ。
    Sequenznummern helfen gegen Replay-Angriffe.
  • サイドチャネル攻撃 — Seitenkanalangriff
    実装はサイドチャネル攻撃に注意して書く。
    Implementierungen müssen Seitenkanalangriffe berücksichtigen.
  • 消費電力解析 — Stromanalyse (als Angriff)
    スマートカードは消費電力解析に弱い場合がある。
    Smartcards können anfällig für Stromanalyse sein.
  • 量子コンピュータ — Quantencomputer
    将来の量子コンピュータは脅威モデルを変える。
    Zukünftige Quantencomputer ändern das Bedrohungsmodell.
  • Groverの算法 — Grovers Algorithmus
    Groverの算法は対称鍵の実効鍵長を約半分に見積もらせる。
    Grovers Algorithmus halbiert die wirksame Schlüssellänge von symmetrischen Verfahren grob.
  • 総当たり攻撃 — Brute-Force-Angriff
    AES-256は現実的な総当たり攻撃に耐える。
    AES-256 widersteht praktischen Brute-Force-Angriffen.
  • 実装ミス — Implementierungsfehler
    多くの事故は暗号そのものではなく実装ミスが原因だ。
    Viele Vorfälle entstehen durch Implementierungsfehler, nicht durch die Krypto selbst.
  • 誤用 — Fehlgebrauch
    モードの誤用は安全性を失わせる。
    Fehlgebrauch eines Modus zerstört die Sicherheit.
  • 安全性が崩壊する — die Sicherheit bricht zusammen
    ノンス再利用では安全性が崩壊しうる。
    Bei Nonce-Wiederverwendung kann die Sicherheit zusammenbrechen.
  • 並列化しやすい — gut parallelisierbar
    GCMは並列化しやすい点で実装しやすい。
    GCM ist gut parallelisierbar und damit implementierungsfreundlich.
  • ディスク暗号化 — Festplattenverschlüsselung
    OSのディスク暗号化にもAESが使われる。
    Betriebssysteme nutzen AES oft für die Festplattenverschlüsselung.
  • パスワードマネージャ — Passwort-Manager
    パスワードマネージャはマスター鍵を守る必要がある。
    Ein Passwort-Manager muss den Masterschlüssel schützen.
  • 通信プロトコル — Kommunikationsprotokoll
    HTTPSなどの通信プロトコルがAES-GCMを組み込む。
    Protokolle wie HTTPS binden AES-GCM ein.
  • 堅牢なセキュリティ設計 — robustes Sicherheitsdesign
    堅牢なセキュリティ設計には鍵管理が不可欠だ。
    Für ein robustes Sicherheitsdesign ist Schlüsselmanagement unverzichtbar.
  • ビットの反転 — Bit-Umkehr / Bitkipper
    認証がなければビットの反転に気づけない。
    Ohne Authentifikation bemerkt man Bit-Kipper kaum.

Digitaler Tiefpass 2. Ordnung

Bericht lesen (日本語) · 26 Einträge

JA-DE

DE-JA

Wörter anzeigen (26 Einträge)
  • デジタルローパス — digitaler Tiefpass
    この記事ではデジタルローパスを導出する。
    Der Artikel leitet einen digitalen Tiefpass her.
  • 伝達関数 — Übertragungsfunktion
    まずアナログの伝達関数G(s)を書く。
    Man beginnt mit der analogen Übertragungsfunktion G(s).
  • 離散時間 — diskrete Zeit
    MCUでは信号は離散時間で扱う。
    In einem Mikrocontroller arbeitet man diskret in der Zeit.
  • 双一次変換 — bilineare Transformation
    双一次変換でs平面からz平面へ移す。
    Die bilineare Transformation mappt von der s- in die z-Ebene.
  • z領域 — z-Ebene (z-Domäne)
    フィルタはz領域でH(z)として表せる。
    Der Filter lässt sich in der z-Domäne als H(z) schreiben.
  • 差分方程式 — Differenzengleichung
    実装は差分方程式に直結する。
    Die Implementierung folgt direkt der Differenzengleichung.
  • 無限インパルス応答 — unendliche Impulsantwort (IIR)
    IIRは無限インパルス応答を持つ。
    Ein IIR-Filter hat eine unendliche Impulsantwort.
  • バイクアッド — Biquad
    2次IIRはしばしばバイクアッドで実装する。
    Ein IIR zweiter Ordnung wird oft als Biquad umgesetzt.
  • 減衰 — Dämpfung
    Qは共振の鋭さ、すなわち減衰に関わる。
    Q steuert die Schärfe der Resonanz, also die Dämpfung.
  • カットオフ周波数 — Grenzfrequenz
    カットオフ周波数で通過帯を決める。
    Die Grenzfrequenz legt den Durchlassbereich fest.
  • サンプリング周波数 — Abtastfrequenz
    サンプリング周波数が低いとエイリアスが出やすい。
    Bei niedriger Abtastfrequenz entstehen leichter Aliase.
  • 正規化 — normieren / Normierung
    係数は正規化してa0=1にすることが多い。
    Koeffizienten normiert man oft auf a0 = 1.
  • 再帰 — Rekursion
    IIRは過去の出力へ再帰する。
    IIR nutzt Rekursion über vergangene Ausgaben.
  • 状態(メモリ) — Zustand (Speicher des Filters)
    フィルタの状態は少数の遅延変数で保持する。
    Der Filterzustand wird mit wenigen Verzögerungsvariablen gehalten.
  • フィードフォワード — Feedforward
    分子係数はフィードフォワード経路に対応する。
    Die Zählerkoeffizienten bilden den Feedforward-Zweig.
  • フィードバック — Feedback
    分母係数はフィードバックを決める。
    Die Nennerkoeffizienten bestimmen das Feedback.
  • 状態を更新する — Zustand aktualisieren
    各サンプル後に状態を更新する。
    Nach jedem Abtastwert wird der Zustand aktualisiert.
  • シフトする — verschieben (Register)
    遅延レジスタをシフトする。
    Die Verzögerungsregister werden verschoben.
  • 誤動作 — Fehlfunktion
    順序を誤るとフィルタが誤動作する。
    Bei falscher Reihenfolge fehlfunktioniert der Filter.
  • 不安定 — instabil
    係数が悪いとフィルタが不安定になる。
    Schlechte Koeffizienten machen den Filter instabil.
  • 正規形 — kanonische Form
    直接形IIはよく使う正規形だ。
    Direct Form II ist eine gängige kanonische Form.
  • 組み込み — Embedded (System)
    組み込み向けに固定小数点も選べる。
    Für Embedded eignet sich auch Festkomma-Arithmetik.
  • 信号処理 — Signalverarbeitung
    信号処理ではまず要件を数式に落とす。
    In der Signalverarbeitung übersetzt man Anforderungen zuerst in Formeln.
  • 段階的に示す — schrittweise darlegen
    本文は段階的に示している。
    Der Text legt die Schritte nacheinander dar.
  • 係数 — Koeffizienten
    係数を間違えると周波数特性がずれる。
    Falsche Koeffizienten verschieben den Frequenzgang.
  • 実行可能なコード — ausführbarer Code
    差分方程式は実行可能なコードに直せる。
    Die Differenzengleichung lässt sich direkt in Code gießen.

Digitale Filter (IIR Biquad)

Bericht lesen (日本語) · 28 Einträge

JA-DE

DE-JA

Wörter anzeigen (28 Einträge)
  • カットオフ — Grenzfrequenz (Cutoff)
    カットオフを1 kHzに設定する例がある。
    Ein Beispiel setzt die Grenzfrequenz auf 1 kHz.
  • 品質係数 — Gütefaktor Q
    バタワースなら品質係数Qは約0.707だ。
    Bei Butterworth ist Q etwa 0,707.
  • 正規化角周波数 — normierte Kreisfrequenz
    まず正規化角周波数ωを求める。
    Zuerst berechnet man die normierte Kreisfrequenz ω.
  • ナイキスト周波数 — Nyquist-Frequenz
    fcはナイキスト周波数より小さくする。
    fc muss unter der Nyquist-Frequenz liegen.
  • プリワープ — Pre-Warping
    双一次変換ではプリワープで周波数を補正する。
    Bei der bilinearen Transformation kompensiert man mit Pre-Warping.
  • 非線形に歪ませる — nonlinear verzerren
    双一次変換は周波数軸を非線形に歪ませる。
    Die bilineare Transformation verzerrt die Frequenzachse nonlinear.
  • 補償 — kompensieren
    プリワープでカットオフを補償する。
    Mit Pre-Warping gleicht man die Grenzfrequenz aus.
  • 接線項 — Tangens-Term
    K=tan(ω/2)のような接線項が出る。
    Ein Tangens-Term wie K = tan(ω/2) taucht auf.
  • 減衰させる — dämpfen (Frequenzanteile)
    ローパスは高周波成分を減衰させる。
    Ein Tiefpass dämpft hohe Frequenzanteile.
  • リアルタイム — Echtzeit
    リアルタイムDSPでは遅延に注意する。
    Bei Echtzeit-DSP achtet man auf Latenz.
  • 再計算 — Neuberechnung
    パラメータを変えたら再計算する。
    Bei geänderten Parametern neu berechnen.
  • クリップボードにコピー — in die Zwischenablage kopieren
    係数をクリップボードにコピーできる。
    Die Koeffizienten lassen sich in die Zwischenablage kopieren.
  • 丸め — Rundung
    浮動小数の丸め誤差に注意する。
    Achten Sie auf Rundungsfehler bei Fließkomma.
  • 周波数特性 — Frequenzgang
    設計後は周波数特性をプロットして確認する。
    Nach dem Entwurf plottet man den Frequenzgang.
  • 時間領域 — Zeitbereich
    実機では時間領域の挙動も見る。
    In der Prüfung betrachtet man auch den Zeitbereich.
  • 望むフィルタ — gewünschter Filter
    望むフィルタから係数を求める。
    Aus dem gewünschten Filter werden die Koeffizienten berechnet.
  • マイコン — Mikrocontroller
    マイコン向けに係数を固定小数点化もできる。
    Für Mikrocontroller kann man die Koeffizienten festkommaisieren.
  • オーディオ開発 — Audio-Entwicklung
    オーディオ開発ではローパスが頻出する。
    In der Audio-Entwicklung sind Tiefpässe allgegenwärtig.
  • 設計パラメータ — Entwurfsparameter
    fc、fs、Qが主要な設計パラメータだ。
    fc, fs und Q sind die zentralen Entwurfsparameter.
  • 整合する — übereinstimmen (mit fc fs Q)
    係数が仕様と整合するか確認する。
    Man prüft, ob die Koeffizienten zur Spezifikation passen.
  • 入力の寄与 — Beitrag des Eingangs
    b係数は入力の寄与を決める。
    Die b-Koeffizienten bestimmen den Beitrag des Eingangs.
  • 注意 — Warnung / Hinweis
    正規化忘れに注意。
    Achtung vor vergessener Normierung.
  • 貼り付ける — einfügen (in Code)
    係数をコードに貼り付ける。
    Die Koeffizienten in den Code einfügen.
  • 対話型計算機 — interaktiver Rechner
    対話型計算機で試算できる。
    Mit dem interaktiven Rechner kann man ausprobieren.
  • バタワース — Butterworth
    バタワースはフラットな通過帯を狙う。
    Butterworth zielt auf einen flachen Durchlass.
  • 論点 — Kernfrage / Streitpunkt
    本稿の論点は係数の求め方だ。
    Die Kernfrage des Artikels ist die Koeffizientenberechnung.
  • 完成した実装 — fertige Implementierung
    係数があれば完成した実装に近い。
    Mit Koeffizienten hat man fast eine fertige Implementierung.
  • 内部では — intern (im Filter)
    フィルタ内部では再帰が回る。
    Intern arbeitet der Filter rekursiv.

Schlüsselableitung (KDF / Brute-Force)

Bericht lesen (日本語) · 28 Einträge

JA-DE

DE-JA

Wörter anzeigen (28 Einträge)
  • 鍵導出関数 — Schlüsselableitungsfunktion (KDF)
    パスワードからは鍵導出関数で鍵を作る。
    Aus Passwörtern erzeugt man Schlüssel mit einer KDF.
  • ブルートフォース攻撃 — Brute-Force-Angriff
    KDFはブルートフォース攻撃を高コストにする。
    Eine KDF macht Brute-Force-Angriffe teuer.
  • 辞書攻撃 — Wörterbuchangriff
    弱いパスワードは辞書攻撃に弱い。
    Schwache Passwörter fallen Wörterbuchangriffen zum Opfer.
  • エントロピー — Entropie
    ユーザー入力のエントロピーは低めがちだ。
    Die Entropie von Benutzereingaben ist oft niedrig.
  • ソルト — Salt
    ソルトで同じパスワードでも別鍵になる。
    Ein Salt sorgt dafür, dass gleiche Passwörter andere Schlüssel ergeben.
  • コストパラメータ — Kostenparameter
    Argon2のコストパラメータを上げると遅くなる。
    Höhere Kostenparameter bei Argon2 verlangsamen die Berechnung.
  • 時間・メモリコスト — Zeit- und Speicherkosten
    現代のKDFは時間・メモリコストを持つ。
    Moderne KDFs haben Zeit- und Speicherkosten.
  • 逆算できない — nicht invertierbar
    出力から入力へは逆算できない。
    Aus dem Ausgang lässt sich der Eingang nicht zurückrechnen.
  • 一方向 — Einweg (Funktion)
    KDFは一方向に近い性質が要る。
    Eine KDF soll praktisch einweg sein.
  • レインボーテーブル — Rainbow-Tables
    ソルトはレインボーテーブルを無効化する。
    Salz macht Rainbow-Tables wirkungslos.
  • 事前計算攻撃 — Vorberechnungsangriff
    ソルトは事前計算攻撃を困難にする。
    Salz erschwert Vorberechnungsangriffe.
  • メモリハード性 — Memory-Hardness
    Argon2はメモリハード性を重視する。
    Argon2 betont Memory-Hardness.
  • メモリ集約型 — speicherintensiv
    メモリ集約型KDFはGPU並列を弱める。
    Speicherintensive KDFs drosseln GPU-Parallelität.
  • 並列度 — Parallelisierungsgrad
    並列度pを調整できる。
    Den Parallelisierungsgrad p kann man einstellen.
  • 走査する — durchlaufen (Speicher)
    メモリ上を何度も走査する。
    Der Algorithmus durchläuft den Speicher mehrfach.
  • データ依存 — dataabhängig
    Argon2dはデータ依存アクセスを使う。
    Argon2d nutzt datenabhängige Zugriffe.
  • サイドチャネル — Seitenkanal
    データ依存はサイドチャネルに注意が要る。
    Datenabhängigkeit erfordert Seitenkanal-Vorsicht.
  • バリアント — Variante (Argon2)
    用途に応じてバリアントを選ぶ。
    Je nach Einsatz wählt man die Variante.
  • 二値化 — Binarisierung
    埋め込みを二値化してからKDFへ。
    Embeddings binarisieren und dann KDF anwenden.
  • 特徴ベクトル — Merkmalsvektor / Feature-Vektor
    画像から特徴ベクトルを得る。
    Aus dem Bild gewinnt man einen Merkmalsvektor.
  • 埋め込み — Embedding
    ニューラルネットの埋め込みを入力にできる。
    Man kann Neuronale-Netz-Embeddings als Eingabe nutzen.
  • 構造的攻撃 — struktureller Angriff
    KDFは構造的攻撃を難しくする。
    Die KDF erschwert strukturelle Angriffe.
  • 再構成 — Rekonstruktion
    元画像の再構成攻撃を高コストにする。
    Rekonstruktionsangriffe auf das Original werden teuer.
  • 安定化 — stabilisieren
    誤り訂正でビット列を安定化する。
    Mit Fehlerkorrektur stabilisiert man das Bitmuster.
  • 専用ハードウェア — Spezialhardware (ASIC)
    ASICは専用ハードウェアで総当たりを加速する。
    ASICs als Spezialhardware beschleunigen Brute-Force.
  • 実測 — Messung (vor Ort)
    遅延は実測で調整する。
    Die Verzögerung stellt man messend ein.
  • 決定的 — deterministisch
    同じ入力なら決定的に同じ鍵になる。
    Gleiche Eingaben ergeben deterministisch gleiche Schlüssel.
  • 探索空間 — Suchraum
    パスワードの探索空間は小さくなりがちだ。
    Der Suchraum für Passwörter ist oft klein.

Fehlerkorrekturcodes (Biometrie)

Bericht lesen (日本語) · 28 Einträge

JA-DE

DE-JA

Wörter anzeigen (28 Einträge)
  • 誤り訂正符号 — Fehlerkorrekturcode
    通信では誤り訂正符号が不可欠だ。
    In der Kommunikation sind Fehlerkorrekturcodes unverzichtbar.
  • 生体認証 — biometrische Authentifizierung
    生体認証では計測が毎回少し違う。
    Bei Biometrie unterscheidet sich jede Messung leicht.
  • 計測 — Messung / Erfassung
    指紋の計測にはノイズが乗る。
    Fingerabdruckmessungen enthalten Rauschen.
  • ばらつき — Schwankung / Varianz
    同一人物でもばらつきがある。
    Selbe Person, aber mit Schwankungen.
  • 冗長ビット — Redundanzbits
    冗長ビットで誤りを訂正する。
    Redundanzbits korrigieren Fehler.
  • 符号化 — kodieren
    データを符号化して送信する。
    Daten kodieren und senden.
  • 復号 — dekodieren
    受信側で復号して元の情報を得る。
    Der Empfänger dekodiert die Information.
  • 反復符号 — Wiederholungscode
    反復符号は入門に分かりやすい。
    Wiederholungscodes sind didaktisch einfach.
  • 多数決 — Mehrheitsentscheid
    3重反復は多数決で復号する。
    Dreifache Wiederholung entscheidet per Mehrheit.
  • コード語 — Codewort
    有効なコード語の集合が符号を定める。
    Die Menge gültiger Codewörter definiert den Code.
  • ハミング距離 — Hamming-Distanz
    最小ハミング距離が訂正能力に関わる。
    Die minimale Hamming-Distanz bestimmt die Korrekturfähigkeit.
  • 生成行列 — Generatormatrix
    生成行列Gで情報ビットを写像する。
    Mit der Generatormatrix G werden Informationsbits abgebildet.
  • 系統形 — systematische Form
    系統形ならデータビットがそのまま見える。
    In systematischer Form bleiben Datenbits sichtbar.
  • パリティ行列 — Paritätsmatrix
    パリティ行列が冗長部を作る。
    Die Paritätsmatrix erzeugt die Redundanz.
  • 写像 — Abbildung
    符号化はベクトル空間の写像だ。
    Kodieren ist eine Abbildung im Vektorraum.
  • 法2 — Modulo 2
    GF(2)では加算は法2だ。
    In GF(2) ist Addition modulo 2.
  • 安定して再現可能 — stabil reproduzierbar
    鍵生成には安定して再現可能なビット列が要る。
    Für Schlüssel braucht man stabil reproduzierbare Bits.
  • 虹彩 — iris (Iris)
    虹彩スキャンでも画素にノイズがある。
    Bei Iris-Scans rauschen die Pixel.
  • 視点(パースペクティブ) — Perspektive / Blickwinkel
    視点が変わると特徴がずれる。
    Ein anderer Blickwinkel verschiebt Merkmale.
  • 画像圧縮 — Bildkompression
    画像圧縮は情報を落とす。
    Bildkompression wirft Information weg.
  • 差異を吸収する — Differenzen absorbieren
    符号が差異を吸収する。
    Der Code absorbiert Differenzen.
  • BCH符号 — BCH-Code
    BCH符号は強力な二元符号だ。
    BCH-Codes sind leistungsstarke binäre Codes.
  • ハミング符号 — Hamming-Code
    (7,4)ハミング符号は古典的だ。
    Der (7,4)-Hamming-Code ist klassisch.
  • メッセージベクトル — Nachrichtenvektor
    メッセージベクトルsにGを掛ける。
    Den Nachrichtenvektor s mit G multiplizieren.
  • 通信システム — Kommunikationssystem
    通信システムの理論が転用できる。
    Theorie der Kommunikationssysteme lässt sich übertragen.
  • 検出・訂正 — erkennen und korrigieren
    誤りを検出・訂正する能力がある。
    Fähigkeit, Fehler zu erkennen und zu korrigieren.
  • 最も近い — nächstgelegenes (Codewort)
    受信語を最も近いコード語へ写像する。
    Empfangenes Wort auf nächstes Codewort abbilden.
  • 形式的には — formal gesehen
    形式的には線形代数で書ける。
    Formal lässt es sich linear algebraisch schreiben.

Autoencoder (Anomalieerkennung)

Bericht lesen (日本語) · 28 Einträge

JA-DE

DE-JA

Wörter anzeigen (28 Einträge)
  • 異常検知 — Anomalieerkennung
    工場では異常検知が重要だ。
    In Fabriken ist Anomalieerkennung wichtig.
  • オートエンコーダ — Autoencoder
    オートエンコーダは正常データだけで学ぶ。
    Der Autoencoder lernt nur von Normaldaten.
  • 再構成 — Rekonstruktion
    入力を低次元へ圧縮して再構成する。
    Eingaben komprimieren und rekonstruieren.
  • 再構成誤差 — Rekonstruktionsfehler
    再構成誤差が閾値を超えたら異常とみなす。
    Ist der Rekonstruktionsfehler zu groß, gilt es als Anomalie.
  • 潜在空間 — Latenzraum
    潜在空間に意味の圧縮表現がある。
    Im Latenzraum liegt eine kompakte Repräsentation.
  • エンコーダ — Encoder
    エンコーダが特徴を抽出する。
    Der Encoder extrahiert Merkmale.
  • デコーダ — Decoder
    デコーダが元の次元へ戻す。
    Der Decoder projiziert zurück.
  • 教師なし — unüberwacht (lernen)
    教師なしでラベル不要だ。
    Unüberwacht, ohne Labels.
  • 故障検出 — Fehlererkennung (Defekt)
    故障検出に応用できる。
    Eignet sich zur Defekterkennung.
  • 油圧 — hydraulisch
    油圧設備のセンサ監視がある。
    Es gibt Sensorüberwachung hydraulischer Anlagen.
  • コンディション・モニタリング — Zustandsüberwachung
    コンディション・モニタリングで予知保全に繋げる。
    Zustandsüberwachung ermöglicht Predictive Maintenance.
  • 訓練する — trainieren
    正常データだけで訓練する。
    Nur mit Normaldaten trainieren.
  • 跳ね上がる — springen (Fehler hoch)
    故障で誤差が跳ね上がる。
    Bei Defekt springt der Fehler hoch.
  • 閾値 — Schwellwert
    閾値はROCで決めることもある。
    Schwellwerte wählt man z. B. über die ROC-Kurve.
  • フラグが立つ — ein Flag setzen
    異常ならアラームにフラグが立つ。
    Bei Anomalie wird ein Alarm gesetzt.
  • 平均二乗誤差 — mittlerer quadratischer Fehler (MSE)
    損失に平均二乗誤差を使うことが多い。
    Oft nutzt man MSE als Verlust.
  • 最小化 — minimieren
    再構成誤差を最小化する。
    Rekonstruktionsfehler minimieren.
  • ボトルネック — Engpass
    中間層がボトルネックになる。
    Die Mittelschicht bildet den Engpass.
  • 低次元多様体 — niederdimensionale Mannigfaltigkeit
    正常データは低次元多様体付近にある。
    Normaldaten liegen nahe einer niedrigdimensionalen Mannigfaltigkeit.
  • 射影 — Projektion
    入力を潜在空間へ射影する。
    Eingaben in den Latenzraum projizieren.
  • ドリフト — Drift (Sensor)
    センサのドリフトで分布がずれる。
    Sensordrift verschiebt die Verteilung.
  • 欠陥 — Defekt
    ハードウェア欠陥が波形を変える。
    Hardwaredefekte verändern das Signal.
  • 明示的な故障モデル — explizites Fehlermodell
    明示的な故障モデルがなくても使える。
    Funktioniert ohne explizites Fehlermodell.
  • スケールする — skalieren
    多数チャンネルへスケールしやすい。
    Skaliert gut auf viele Kanäle.
  • 凝縮する — kondensieren
    情報を潜在空間に凝縮する。
    Information in den Latenzraum kondensieren.
  • 未知の状態 — unbekannter Zustand
    未知の状態では再構成が悪化する。
    In unbekannten Zuständen wird die Rekonstruktion schlecht.
  • 洗練された — raffiniert
    洗練された異常検知手法だ。
    Eine raffinierte Methode der Anomalieerkennung.
  • 挙動 — Verhalten
    正常挙動をモデル化する。
    Normales Verhalten modellieren.

Embeddings und Vektorräume

Bericht lesen (日本語) · 29 Einträge

JA-DE

DE-JA

Wörter anzeigen (29 Einträge)
  • 埋め込み — Embedding / Einbettung
    単語を埋め込みベクトルに変える。
    Wörter in Einbettungsvektoren verwandeln.
  • ベクトル空間 — Vektorraum
    意味はベクトル空間の幾何として扱える。
    Bedeutung lässt sich als Geometrie im Vektorraum behandeln.
  • 離散トークン — diskretes Token
    テキストは離散トークンの列だ。
    Text ist eine Folge diskreter Tokens.
  • 連続ベクトル — kontinuierlicher Vektor
    離散を連続ベクトルへ写す。
    Diskretes in kontinuierliche Vektoren abbilden.
  • 埋め込み行列 — Embedding-Matrix
    埋め込み行列の行が語彙に対応する。
    Zeilen der Embedding-Matrix entsprechen dem Vokabular.
  • ルックアップ — Lookup
    実装は単なるルックアップだ。
    In der Implementierung ist es nur ein Lookup.
  • 語彙サイズ — Vokabulargröße
    語彙サイズが行列の行数になる。
    Die Vokabulargröße bestimmt die Zeilenzahl.
  • コサイン類似度 — Kosinus-Ähnlichkeit
    類似度にコサイン類似度を使うことが多い。
    Oft nutzt man Kosinus-Ähnlichkeit.
  • 幾何学的な意味 — geometrische Bedeutung
    類義語は幾何学的な意味で近い。
    Synonyme sind geometrisch nah.
  • 文脈依存表現 — kontextabhängige Darstellung
    Transformerは文脈依存表現を作る。
    Transformer erzeugen kontextabhängige Darstellungen.
  • 静的埋め込み — statisches Embedding
    Word2Vecは静的埋め込みだ。
    Word2Vec liefert statische Embeddings.
  • 照応 — Referenz / Koreferenz
    代名詞の照応には文脈が要る。
    Für Pronomen braucht es Koreferenz-Kontext.
  • 位置情報 — Positionsinformation
    順序を入れるため位置情報を加える。
    Positionsinformation codiert die Reihenfolge.
  • レジスター — Register (Stil/Ebene der Sprache)
    レジスター(文体)も埋め込みに影響する。
    Register/Stil beeinflusst die Einbettungen.
  • 勾配 — Gradient
    学習で勾配が埋め込みにも流れる。
    Beim Training fließen Gradienten bis zu den Embeddings.
  • 遡る — zurückpropagieren / zurückverfolgen
    損失から埋め込みまで勾配が遡る。
    Der Gradient wandert zurück bis zu den Embeddings.
  • エンドツーエンド — end-to-end
    全体をエンドツーエンドで学習する。
    Alles end-to-end lernen.
  • 分散表現 — verteilte Darstellung
    単語は分散表現になる。
    Wörter werden verteilt dargestellt.
  • 系統的バイアス — systematische Verzerrung
    データの系統的バイアスが反映される。
    Systematische Datenvoreingenommenheit spiegelt sich wider.
  • 類似検索 — Ähnlichkeitssuche
    埋め込みで類似検索ができる。
    Mit Embeddings geht Ähnlichkeitssuche.
  • レコメンデーション — Empfehlungssystem
    レコメンデーションにも使われる。
    Auch Empfehlungssysteme nutzen das.
  • マルチモーダル — multimodal
    画像とテキストのマルチモーダルがある。
    Es gibt multimodale Bild-Text-Modelle.
  • 注意機構 — Attention-Mechanismus
    注意機構が文脈を混ぜ合わせる。
    Attention mischt Kontext.
  • 特徴空間 — Merkmalsraum
    ニューラルネットは特徴空間で動く。
    Neuronale Netze arbeiten im Merkmalsraum.
  • 状態空間モデル — Zustandsraummodell
    制御では状態空間モデルと対比できる。
    Zum Zustandsraummodell in der Regelung analog.
  • 翻訳する — übersetzen (Bedeutung in Geometrie)
    意味を幾何へ翻訳する。
    Bedeutung in Geometrie übersetzen.
  • 副産物 — Nebenprodukt
    幾何構造は学習の副産物だ。
    Die Geometrie ist ein Nebenprodukt des Trainings.
  • 曖昧さ — Mehrdeutigkeit
    多義語は曖昧さを残す。
    Mehrdeutige Wörter behalten Ambiguität.
  • 動的な状態 — dynamischer Zustand
    各トークンは動的な状態になる。
    Jedes Token wird ein dynamischer Zustand.

Neuronale Netze (LLM-Bezug)

Bericht lesen (日本語) · 27 Einträge

JA-DE

DE-JA

Wörter anzeigen (27 Einträge)
  • ニューラルネットワーク — neuronales Netz
    ニューラルネットワークは非線形の合成関数だ。
    Neuronale Netze sind nichtlineare Kompositionen.
  • 重み — Gewichte
    重みをデータから学ぶ。
    Gewichte aus Daten lernen.
  • バイアス — Bias
    各層にバイアス項がある。
    Jede Schicht hat Bias-Terme.
  • 活性化関数 — Aktivierungsfunktion
    活性化関数で非線形を入れる。
    Aktivierungsfunktionen bringen Nichtlinearität.
  • 誤差逆伝播 — Fehlerrückpropagation (Backprop)
    誤差逆伝播で勾配を求める。
    Mit Backpropagation berechnet man Gradienten.
  • ディープラーニング — Deep Learning
    多層化するとディープラーニングと呼ぶ。
    Viele Schichten heißen Deep Learning.
  • 線形層 — lineare Schicht
    線形層は行列積とバイアスだ。
    Lineare Schichten sind Matrix-Vektor plus Bias.
  • 深層 — tief (Netz)
    深層ほど表現力が上がるが学習は難しい。
    Tiefere Netze sind ausdrucksstärker, aber schwerer zu trainieren.
  • 最適化 — Optimierung
    SGDなどで最適化する。
    Optimierung z. B. mit SGD.
  • 表現学習 — Representation Learning
    特徴を手で設計せず表現学習する。
    Merkmale nicht von Hand, sondern per Representation Learning.
  • 手計算 — Handrechnung
    小さなネットは手計算できる。
    Kleine Netze kann man per Handrechnung nachvollziehen.
  • パラメータ付き関数 — parametrisierte Funktion
    ネットはパラメータ付き関数fθだ。
    Das Netz ist eine parametrisierte Funktion fθ.
  • 学習される — aus Daten gelernt
    パラメータは学習される。
    Parameter werden aus Daten gelernt.
  • シグモイド — Sigmoid
    シグモイドは0〜1に押さえる。
    Sigmoid drückt auf (0,1).
  • 多層 — mehrschichtig
    多層にすると非線形境界が描ける。
    Mehrschichtig kann man nichtlineare Grenzen formen.
  • アーキテクチャ — Architektur
    CNNやTransformerは別アーキテクチャだ。
    CNN und Transformer sind verschiedene Architekturen.
  • 層構造 — Schichtstruktur
    層構造が帰納バイアスになる。
    Die Schichtstruktur ist ein induktiver Bias.
  • 位置づけ — Einordnung
    本稿はLLMへの位置づけを示す。
    Der Text ordnet sich in LLM ein.
  • 基盤 — Fundament / Basis
    深層ネットが現代AIの基盤だ。
    Tiefe Netze sind das Fundament moderner KI.
  • 言語モデル — Sprachmodell
    次単語予測で言語モデルを作る。
    Mit Next-Token-Vorhersage baut man Sprachmodelle.
  • 遷移 — Übergang (zu Deep Learning)
    浅いMLPから深いモデルへ遷移する。
    Übergang von flachen MLPs zu tiefen Modellen.
  • 実務 — Praxis / Praxiseinsatz
    実務ではGPUとフレームワークが標準だ。
    In der Praxis sind GPUs und Frameworks Standard.
  • 手設計 — manuelles Design (Features)
    手設計特徴より学習特徴が主流だ。
    Gelernte Merkmale statt manueller Features dominieren.
  • 電気工学 — Elektrotechnik
    信号とサンプリングは電気工学に近い。
    Signale und Abtastung sind nah an der Elektrotechnik.
  • 関係 — Bezug (zu Elektrotechnik)
    DSPの直感がニューラルにも役立つ。
    DSP-Intuition hilft auch bei neuronalen Netzen.
  • 出力分布 — Ausgabeverteilung
    分類では出力分布がクラス確率だ。
    Bei Klassifikation ist die Ausgabe eine Klassenverteilung.
  • 現代の言語モデル — moderne Sprachmodelle
    現代の言語モデルは巨大なトランスフォーマーだ。
    Moderne Sprachmodelle sind riesige Transformer.

Transformer (Funktionsweise)

Bericht lesen (日本語) · 26 Einträge

JA-DE

DE-JA

Wörter anzeigen (26 Einträge)
  • トランスフォーマー — Transformer
    トランスフォーマーは注意機構が核だ。
    Der Transformer basiert auf Attention.
  • 自己注意 — Self-Attention
    自己注意で系列内の依存を取る。
    Self-Attention modelliert Abhängigkeiten in der Sequenz.
  • マルチヘッド — multi-head (Attention)
    マルチヘッドで部分空間を並列に見る。
    Multi-Head betrachtet parallele Unterraum-Ansichten.
  • 因果マスク — kausale Maske
    言語モデルでは因果マスクを掛ける。
    Sprachmodelle nutzen eine kausale Maske.
  • 残差 — Residual (Verbindung)
    残差接続で勾配が流れやすい。
    Residualverbindungen erleichtern den Gradientenfluss.
  • LayerNorm — Layer-Normalisierung
    各サブ層の前後でLayerNormする。
    LayerNorm vor/nach den Subblöcken.
  • 大域的 — global (Kontext)
    1層で大域的な依存に触れられる。
    Eine Schicht kann globale Abhängigkeiten erfassen.
  • 文脈関係 — Kontextbeziehungen
    トークン間の文脈関係を学ぶ。
    Kontextbeziehungen zwischen Tokens lernen.
  • 逐次処理 — sequenzielle Verarbeitung
    RNNと違い全トークンを並列に扱える。
    Anders als RNNs parallel über alle Tokens.
  • 系列 — Sequenz
    入力系列長は可変のことが多い。
    Die Sequenzlänge ist oft variabel.
  • トークン — Token
    テキストはトークン列に分割する。
    Text wird in eine Tokenfolge zerlegt.
  • 信号フロー — Signallfluss
    図で信号フローを追う。
    Den Signallfluss im Diagramm verfolgen.
  • 処理ブロック — Verarbeitungsblock
    同型の処理ブロックを積む。
    Gleiche Verarbeitungsblöcke stapeln.
  • 注意機構 — Attention-Mechanismus
    注意機構が情報の混ぜ方を決める。
    Der Attention-Mechanismus entscheidet die Mischung.
  • モデル化 — modellieren
    系列全体をモデル化する。
    Die ganze Sequenz modellieren.
  • 深いニューラルネット — tiefes neuronales Netz
    トランスフォーマーは深いニューラルネットだ。
    Transformer sind tiefe neuronale Netze.
  • 詳述する — ausführlich darlegen
    本文は数式まで詳述する。
    Der Text geht bis in die Formeln.
  • 概観 — Überblick
    図は全体の概観を与える。
    Die Abbildung gibt einen Überblick.
  • システム設計 — Systemdesign
    ブロックの繰り返しがシステム設計だ。
    Wiederholte Blöcke sind das Systemdesign.
  • 関連記事 — verwandter Artikel
    関連記事で埋め込みも読むと良い。
    Verwandte Artikel zu Embeddings lesen.
  • 下層 — untere Schichten (des Netzes)
    下層は局所的、上層は抽象的になりやすい。
    Untere Schichten eher lokal, obere abstrakter.
  • 入力表現 — Eingabedarstellung
    入力表現は埋め込み+位置だ。
    Eingabedarstellung ist Embedding plus Position.
  • スケーリング — Skalierung
    注意スコアは次元の平方根でスケーリングする。
    Attention-Scores skaliert man mit √d_k.
  • ブロック図 — Blockdiagramm
    ブロック図でデータの流れを示す。
    Ein Blockdiagramm zeigt den Datenfluss.
  • 主要コンポーネント — Hauptkomponenten
    主要コンポーネントは注意とFFNだ。
    Hauptkomponenten sind Attention und FFN.
  • 仕組み — Funktionsweise
    この記事は仕組みを段階的に説明する。
    Der Artikel erklärt die Funktionsweise schrittweise.

Large Language Models (LLM)

Bericht lesen (日本語) · 29 Einträge

JA-DE

DE-JA

Wörter anzeigen (29 Einträge)
  • 大規模言語モデル — großes Sprachmodell (LLM)
    大規模言語モデルは大量データで学ぶ。
    Große Sprachmodelle trainieren auf Massendaten.
  • 次トークン予測 — nächstes-Token-Vorhersage
    学習目標は次トークン予測だ。
    Das Trainingsziel ist nächstes-Token-Vorhersage.
  • トークン化 — Tokenisierung
    まずトークン化してから埋め込む。
    Zuerst tokenisieren, dann einbetten.
  • 交差エントロピー — Kreuzentropie
    損失は交差エントロピーが一般的だ。
    Verlust oft als Kreuzentropie.
  • スケーリング則 — Skalierungsgesetze
    パラメータ増で性能が伸びるスケーリング則がある。
    Skalierungsgesetze: mehr Parameter, bessere Leistung.
  • 推論 — Inferenz
    推論時はキャッシュで高速化する。
    Bei Inferenz beschleunigt man mit Caching.
  • サンプリング — Sampling
    温度でサンプリングのランダム性を変える。
    Temperatur steuert die Zufälligkeit beim Sampling.
  • RLHF — RLHF (Verstärkungslernen mit menschlichem Feedback)
    RLHFで人間の好みに近づける。
    RLHF richtet das Modell an menschlichen Präferenzen aus.
  • アライメント — Ausrichtung (Alignment)
    安全性のアライメントが課題だ。
    Sicherheits-Alignment ist eine Herausforderung.
  • セルフアテンション — Self-Attention
    GPT系はセルフアテンションを積む。
    GPT-Modelle stapeln Self-Attention.
  • 機械学習 — Maschinelles Lernen
    大規模言語モデルは機械学習の応用だ。
    LLMs sind Anwendungen des maschinellen Lernens.
  • 深掘り — Vertiefung
    本稿は原理を深掘りする。
    Der Artikel vertieft die Prinzipien.
  • 平易な説明 — leicht verständliche Erklärung
    平易な説明と数式の両方を載せる。
    Leichte Erklärung und Formeln zusammen.
  • 学習 — Training / Lernen
    事前学習と微調整の二段があることが多い。
    Oft Pretraining plus Feintuning.
  • 分布 — Verteilung
    モデルはトークン分布を出力する。
    Das Modell gibt eine Tokenverteilung aus.
  • 確率 — Wahrscheinlichkeit
    次トークンの確率が返る。
    Es kommen Wahrscheinlichkeiten für das nächste Token.
  • ハイパーパラメータ — Hyperparameter
    学習率は重要なハイパーパラメータだ。
    Lernrate ist ein zentraler Hyperparameter.
  • 学習データ — Trainingsdaten
    学習データの偏りに注意する。
    Trainingsdaten können verzerrt sein.
  • 汎化 — Generalisierung
    未見データへの汎化が目的だ。
    Ziel ist Generalisierung auf ungesehene Daten.
  • 幻覚 — Halluzination
    事実と異なる幻覚が起きうる。
    Halluzinationen sind möglich.
  • コンテキスト — Kontext
    長いコンテキストほど計算が重い。
    Längerer Kontext kostet mehr Rechnung.
  • プロンプト — Prompt
    プロンプトで振る舞いを誘導する。
    Prompts steuern das Verhalten.
  • ファインチューニング — Feintuning
    ドメイン別にファインチューニングする。
    Domänenspezifisches Feintuning.
  • ベースモデル — Basismodell
    ベースモデル上にチャット版を作る。
    Chat-Varianten baut man auf Basismodellen.
  • 計算資源 — Rechenressourcen
    学習には巨大な計算資源が要る。
    Training braucht riesige Rechenressourcen.
  • 損失関数 — Verlustfunktion
    損失関数を最小化する。
    Die Verlustfunktion minimieren.
  • 勾配降下 — Gradientenabstieg
    ミニバッチ勾配降下が基本だ。
    Mini-Batch-Gradientenabstieg ist Standard.
  • 評価指標 — Bewertungsmetrik
    BLEUなどの評価指標も参考になる。
    Metriken wie BLEU geben Orientierung.
  • 実装上 — implementierungsseitig
    実装上は量子化で軽くできる。
    Implementierungsseitig hilft Quantisierung.

Post-Quanten-Kryptographie (PQC)

Bericht lesen (日本語) · 28 Einträge

JA-DE

DE-JA

Wörter anzeigen (28 Einträge)
  • 耐量子暗号 — post-quantensichere Kryptographie
    耐量子暗号へ移行が進む。
    Die Migration zu PQC schreitet voran.
  • 量子脅威 — Quantenbedrohung
    量子脅威を前提に設計し直す。
    Für Quantenbedrohungen neu entwerfen.
  • キュビット — Qubit
    安定した多数キュビットが鍵になる。
    Viele stabile Qubits sind entscheidend.
  • Shorアルゴリズム — Shor-Algorithmus
    ShorアルゴリズムはRSAを脅かす。
    Shors Algorithmus bedroht RSA.
  • Groverアルゴリズム — Grover-Algorithmus
    Groverアルゴリズムは探索を加速する。
    Grover beschleunigt die Suche.
  • 古典暗号 — klassische Kryptographie
    古典暗号の前提が崩れる。
    Die Annahmen klassischer Krypto bröckeln.
  • 格子ベース — gitterbasiert (Kryptografie)
    Kyberは格子ベースのKEMだ。
    Kyber ist ein gitterbasiertes KEM.
  • ハイブリッド暗号 — Hybridverschlüsselung
    移行期はハイブリッド暗号が現実的だ。
    Hybridverschlüsselung ist in der Übergangsphase realistisch.
  • 移行 — Migration (zu PQC)
    TLSにPQC移行のドラフトがある。
    Es gibt Entwürfe zur PQC-Migration in TLS.
  • 鍵カプセル化 — Schlüsselkapselung (KEM)
    鍵カプセル化で共有秘密を配る。
    Mit KEM verteilt man ein gemeinsames Geheimnis.
  • デジタル署名 — digitale Signatur
    Dilithiumはデジタル署名の候補だ。
    Dilithium ist ein Kandidat für Signaturen.
  • 実システム — reale Systeme
    実システムでは相互運用が課題だ。
    In realen Systemen ist Interoperabilität schwierig.
  • アーキテクチャ — Architektur (Sicherheit)
    セキュリティアーキテクチャを見直す。
    Sicherheitsarchitektur überdenken.
  • 開発者向け — für Entwickler
    開発者向けに実装ガイドがある。
    Es gibt Implementierungsleitfäden für Entwickler.
  • 脅威モデル — Bedrohungsmodell
    脅威モデルに量子攻撃者を加える。
    Quantenangreifer ins Bedrohungsmodell aufnehmen.
  • 前提 — Voraussetzungen (der klassischen Krypto)
    RSAの前提は因数分解が難しいことだ。
    RSA setzt voraus, dass Faktorisieren schwer ist.
  • 解読 — Entzifferung / Knacken
    長期秘密は将来解読されるかもしれない。
    Langzeitgeheimnisse könnten später geknackt werden.
  • 実効的ビット強度 — wirksame Bitstärke
    量子攻撃下の実効的ビット強度を見積もる。
    Wirksame Bitstärke unter Quantenangriff abschätzen.
  • 標準 — Standard (NIST PQC)
    NISTが標準アルゴリズムを選定した。
    NIST wählt Standardalgorithmen.
  • 相互運用 — Interoperabilität
    クライアントとサーバの相互運用が要る。
    Client und Server müssen interoperieren.
  • プロトコル — Protokoll
    プロトコルにアルゴリズム名をネゴる。
    Protokolle verhandeln Algorithmennamen.
  • ハッシュ — Hash (Funktion)
    ハッシュ長も見直す。
    Hashlängen neu bewerten.
  • 楕円曲線 — elliptische Kurve (ECC)
    楕円曲線は短い鍵で強い。
    Elliptische Kurven sind mit kurzen Schlüsseln stark.
  • RSA — RSA (Verschlüsselung)
    RSA鍵長を上げて様子を見る。
    RSA-Schlüssellängen erhöhen als Übergang.
  • セキュリティ — Security
    セキュリティはアルゴリズムだけでない。
    Security ist mehr als Algorithmen.
  • 実践的 — praxisnah
    実践的な移行手順が重要だ。
    Praxisnahe Migrationsschritte sind wichtig.
  • コード例 — Codebeispiel
    コード例でライブラリの使い方を示す。
    Codebeispiele zeigen Bibliotheksnutzung.
  • 量子コンピュータ — Quantencomputer
    汎用量子コンピュータはまだ発展途上だ。
    Universelle Quantencomputer sind noch in Entwicklung.

NOMA / Mehrfachzugriff IoT

Bericht lesen (日本語) · 29 Einträge

JA-DE

DE-JA

Wörter anzeigen (29 Einträge)
  • 非直交多元接続 — nicht-orthogonaler Mehrfachzugriff (NOMA)
    NOMAは非直交多元接続の一種だ。
    NOMA ist nicht-orthogonaler Mehrfachzugriff.
  • 多元接続 — Mehrfachzugriff
    多元接続で周波数を共有する。
    Mit Mehrfachzugriff teilt man Frequenzen.
  • ソフトウェア無線 — Software Defined Radio (SDR)
    SDRでアルゴリズムを柔軟に変えられる。
    Mit SDR flexibel Algorithmen ändern.
  • 逐次干渉キャンセル — sukzessive Interferenzunterdrückung (SIC)
    SICで強い信号から順に引く。
    SIC subtrahiert vom stärksten Signal.
  • ビット誤り率 — Bitfehlerrate (BER)
    評価にビット誤り率を使う。
    Zur Bewertung nutzt man die BER.
  • 時分割多重 — Zeitmultiplex (TDM)
    TDMは時間でユーザを分ける。
    TDM trennt Nutzer in der Zeit.
  • 周波数分割多重 — Frequenzmultiplex (FDM)
    FDMは周波数でユーザを分ける。
    FDM trennt Nutzer in der Frequenz.
  • 衝突 — Kollision
    ランダムアクセスでは衝突が起きる。
    Bei Random Access gibt es Kollisionen.
  • 重畳 — superponieren / Überlagerung
    NOMAでは信号が重畳する。
    Bei NOMA überlagern sich Signale.
  • ベースバンド — Basisband
    ベースバンドで等化と復号を行う。
    Im Basisband equalizen und dekodieren.
  • 復調 — demodulieren
    QPSKを復調してビットを得る。
    QPSK demodulieren und Bits gewinnen.
  • 直交位相偏移変調 — QPSK
    実験では直交位相偏移変調を使った。
    Im Versuch wurde QPSK verwendet.
  • 同相/直交 — I- und Q-Komponente
    I/Qは同相と直交成分だ。
    I und Q sind In-Phase und Quadratur.
  • 星座図 — Konstellationsdiagramm
    星座図でシンボルを確認する。
    Konstellationsdiagramm zeigt Symbole.
  • ミキサ — Mischer
    ミキサがRFをベースバンドへ落とす。
    Der Mischer wandelt RF ins Basisband.
  • 中間周波 — Zwischenfrequenz
    スーパーヘテロダインでは中間周波を経る。
    Superheterodyn nutzt Zwischenfrequenz.
  • 雑音 — Rauschen
    熱雑音が下限を決める。
    Rauschen setzt die untere Grenze.
  • 干渉 — Interferenz
    ユーザ間干渉が残る。
    Interferenz zwischen Nutzern bleibt.
  • 周波数誤差 — Frequenzoffset
    周波数誤差は同期で補正する。
    Frequenzoffset per Synchronisation korrigieren.
  • 位相誤差 — Phasenfehler
    位相誤差がシンボルを回す。
    Phasenfehler drehen die Symbole.
  • 同期 — Synchronisation
    フレーム同期が復号の前提だ。
    Rahmensynchronisation ist Voraussetzung.
  • 減算 — Subtraktion (im SIC)
    推定信号を減算する。
    Geschätztes Signal subtrahieren.
  • 再構成 — Rekonstruktion (des Signals)
    干渉信号を再構成して引く。
    Interferenz rekonstruieren und abziehen.
  • マルチユーザ — Multi-User
    マルチユーザ検出は難しい。
    Multi-User-Detektion ist schwer.
  • 省エネ — energiesparend
    IoTは省エネが命だ。
    IoT muss energiesparend sein.
  • 無線資源 — Funkressourcen
    無線資源は有限だ。
    Funkressourcen sind begrenzt.
  • スケールする — skalieren (System)
    システムがユーザ数にスケールするか。
    Skaliert das System mit der Nutzerzahl?
  • 実機 — Reale Geräte / Prüfstand
    実機で波形を確認した。
    Am Prüfstand wurden Wellenformen geprüft.
  • 評価 — auswerten
    BERで性能を評価する。
    Leistung anhand der BER bewerten.

Backscatter-Modulator (Ambient)

Bericht lesen (日本語) · 26 Einträge

JA-DE

DE-JA

Wörter anzeigen (26 Einträge)
  • アンビエントバックスキャタ — ambient backscatter
    環境電波を使うアンビエントバックスキャタだ。
    Ambient Backscatter nutzt Umgebungs-RF.
  • バックスキャタ — Backscatter
    反射で情報を載せるバックスキャタだ。
    Backscatter moduliert über Reflexion.
  • インピーダンス — Impedanz
    アンテナのインピーダンスを切り替える。
    Antennenimpedanz umschalten.
  • 反射係数 — Reflexionskoeffizient
    反射係数Γが反射の強さを決める。
    Der Reflexionskoeffizient Γ bestimmt die Stärke.
  • 整合 — Anpassung (Matching)
    整合すると反射が小さい。
    Bei Matching ist die Reflexion klein.
  • 包絡線 — Hüllkurve
    受信の包絡線を見てビット判定する。
    Hüllkurve des Empfangs für Bitentscheid.
  • 干渉 — Interferenz
    直射と反射の干渉で振幅が変わる。
    Interferenz aus Direkt- und Reflexpfad ändert die Amplitude.
  • 強め合い — konstruktive Interferenz
    同相で強め合いになる。
    In Phase gibt es konstruktive Interferenz.
  • 打ち消し合い — destruktive Interferenz
    逆相で打ち消し合いになる。
    Gegenphasig destruktive Interferenz.
  • 搬送波 — Träger
    外部の搬送波を借りる。
    Einen externen Träger leihen.
  • プリアンブル — Präambel
    プリアンブルでフレームを合わせる。
    Mit Präambel den Rahmen synchronisieren.
  • 整合フィルタ — Matched Filter
    整合フィルタでSNRを改善する。
    Matched Filter verbessert SNR.
  • アーリー・レートゲート — Early-Late-Gate
    アーリー・レートゲートでタイミング追従する。
    Early-Late-Gate für Timing-Tracking.
  • パッチアンテナ — Patch-Antenne
    PCB上のパッチアンテナを使った。
    Patch-Antenne auf der Leiterplatte.
  • RFスイッチ — HF-Schalter
    RFスイッチでインピーダンスを切替える。
    HF-Schalter schaltet die Impedanz.
  • グラウンドプレーン — Massefläche / Groundplane
    グラウンドプレーンで放射が安定した。
    Groundplane stabilisierte die Abstrahlung.
  • 誤り率 — Fehlerrate (BER)
    WLAN搬送波では誤り率が上がった。
    Mit WLAN-Träger stieg die Fehlerrate.
  • 到達距離 — Reichweite
    到達距離は数メートル程度だった。
    Die Reichweite war nur wenige Meter.
  • 消費電力 — Leistungsaufnahme
    消費電力はマイクロワット級だ。
    Leistungsaufnahme im Mikrowattbereich.
  • マルチパス — Mehrwegeausbreitung
    室内ではマルチパスが強い。
    Innenräume haben starkes Multipath.
  • フェージング — Fading
    フェージングで振幅が揺れる。
    Fading schwankt die Amplitude.
  • 変調 — Modulation
    反射の強さで変調する。
    Modulation über Reflexionsstärke.
  • 検出 — Detektion
    しきい値でビットを検出する。
    Bits mit Schwellwert detektieren.
  • サンプリングレート — Abtastrate
    サンプリングレートが低いと見逃す。
    Zu niedrige Abtastrate übersieht Übergänge.
  • しきい値 — Schwellwert
    平均との差でしきい値判定する。
    Schwellwert relativ zum Mittel.
  • エネルギー自律 — energieautark (IoT)
    エネルギー自律センサに向く。
    Geeignet für energieautarke Sensoren.