1. Dec 2024
    1. \[\begin{aligned} Q_2\cdot (Q_1 \cdot A) \ = \ Q_2\cdot &\begin{pNiceMatrix}[margin] R_{1,1} & R_{1,2} &\ldots & R_{1,n}\\ 0& \Block[fill=blue!15]{3-3}{\tilde{A}_1}\\ \vdots & & & \\ 0& & & \end{pNiceMatrix} \ = \ \begin{pNiceMatrix}[margin] R_{1,1} & R_{1,2} &\ldots & R_{1,n}\\ 0& \Block[fill=blue!15]{3-3}{\tilde{Q}_2 \cdot \tilde{A}_1}\\ \vdots & & & \\ 0& & & \end{pNiceMatrix}\\ \ = \ &\begin{pNiceMatrix}[margin] R_{1,1} & R_{1,2} &\ldots & R_{1,n}\\ 0 & R_{2,2} &\ldots & R_{2,n}\\ \vdots & 0 &\Block[fill=green!15]{3-2}{\tilde{A}_2}\\ \vdots& \vdots & &\\ 0& 0 & & \end{pNiceMatrix}. \end{aligned}\]

      LaTeX kaputt

    2. ((Q(1))Tb(Q(2))Tb​)−(R(1)x0​)

      die Norm hier war in **2 ?

  2. Nov 2024
    1. =

      Ich verstehe diesen Übergang nicht

    2. gleicheztig

      gleichzeitig

    3. wenn außerdem gilt:

      In endlichen Dimensionen gilt diese Behauptung immer. Es ist eine Folgerung und nicht unbedingt eine Zusatzforderung meiner Meinung nach. (In unendlichen Dimensionen müsste U dafür zusätzlich abgeschlossen sein, Projektionssatz. In endlichen Dimensionen sind Untervektorräume aber immer abgeschlossen.)

    1. Zusätzlich wollen wir, dass für ein q∈Rq \in \Rq∈R mit 0<q<10 < q < 10<q<1 gilt ∣1−d+Δdfk(d+Δd)⋅fk(d)∣ < 2q\begin{aligned} \abs{1 - \frac{d+\Delta_d}{f_k(d+\Delta_d)\cdot f_k(d)}} \ < \ 2 q \end{aligned}​1−fk​(d+Δd​)⋅fk​(d)d+Δd​​​ < 2q​

      In diesem Schritt des Beweises war mir noch nicht bewusst, dass die Bedingung mit dem q gefordert wird, um später die geometrische Reihe nutzen zu können. Es wäre hilfreich, wenn die Beweisschritte ausführlicher kommentiert wären.

    2. :

      hier steht keine Implikation

    3. k

      zu k, nicht zu d?

    4. ∥Ax∥2​​

      muss die Norm hier nicht in Quadrat stehen?

    5. k→∞lim​fk​(dk​)

      Ich finde es hier irreführend, dass \(f_k\) und \(d_k\) den gleichen index haben, da die Konvergenz unabhängig ist. Die Konvergenz von \(f_k\) bezieht sich auf die Iteration und Lösung des Algorithmus (konsistenz) und die von \(d_k\) auf Änderungen in den Eingabedaten, welche während der Iterationen gleich bleiben (stabilität). Beide müssen unabhängig konvergieren, damit Konvergenz gilt.

    1. uj​x

      Fehlt hier ein Komma?

    2. ∥vi​∥2​ = ∥Aui​∥2​ = ⟨Aui​,Aui​⟩​ = uiT​ATAui​​ = uiT​B1T​ui​​ = λi​uiT​ui​​ = λi​​.

      In der numpy implementation von SVD werden \(V\) und \(W\) immer Normiert. Ist hier also notwendig, dass keine Normalisierung der orthogonalen Vektoren geschieht?

    3. k∑​∣Aℓk​∣jmax​k∑​∣Ajk​∣.

      Müsste es hier nicht so aussehen: $$\sum_k |A_{lk}| = \max_j \sum_k |A_{jk}|$$

      Wenn ja, müsste das auch im Skript ausgebessert werden.

    1. 5⋅10−(p+1)​

      Woher kommen diese Zahlen?

    2. 2r+1

      Hier sollte eigentlich \(2^{p+1}\) stehen. Ändere ich beim nächsten Update.

    3. []{#ex:ausloeschung label=“ex:ausloeschung“}

      Hier ist bei der Konvertieren etwas schiefgelaufen

    1. besitzt nnn reelle Eigenwerte

      weniger als n sollten auch möglich sein, wenn die Multiplizität dementsprechend höher ist

    1. a1,1​x1​+a1,2​x2​+…+a1,n−1​xn−1​+a1,n​xn​a2,2​x2​+…+a2,n−1​xn−1​+a2,n​xn​⋮an−1,n−1​xn−1​+an−1,n​xn​an,n​xn​​=b1​=b2​=bn−1​=bn​​​

      Hier und auch weiter unten erwische ich mich immer wieder diese Summen in eine Summe in Summennotation umzuwandeln, also hier $b_i = 𝛴_{k=i}^{n} a_{i,k}x_k$.

      Für die Implementierung und für das Verständnis finde ich diese Schreibweise tatsächlich besser und fände es persönlich gut, wenn Summen im Skript neben der "..."-Notation auch in Summenschreibweise angegeben werden.

      Das könnte aber auch nur eine persönliche Vorliebe von mir sein.

  3. Oct 2024
    1. Li,k(1)​

      Sollte das hier nicht \(L^{(1)}{k,1}\) sein? Und in der allgemeinen Formel \(L{k,j}^{(j)}\)

    2. Theorem 2.4 (Existenz und Eindeutigkeit der LR-Zerlegung)

      Was ich im Skript noch gut fände, wäre ein Beispiel für eine LR-Zerlegung mit Pivotsuche. Das ist aber nur ein Vorschlag, keine Notwendigkeit :)

    3. (i)(i)(i)

      ist (i) hier (2)?

    4. invertierbare

      Ist der Rechenaufwand der LR-Zerlegung hier nicht gleich groß zum Aufwand des Invertierens?

    5. −lj+1,j​⋮−ln,j​​

      Bezieht sich \(l_{j+1,j}\) hier auf den Faktor mit welchem man die j-te Zeile multiplizieren muss um den j+1-ten Eintrag der j-ten Spalte zu Eliminieren?

    6. O(n)\mathcal{O}(n)O(n

      Wie kommt man auf diesen Rechenaufwand?

    7. Sn​

      was ist das für eine Menge

    8. Spaltenpivotsuche

      Wenn die Matrix PA symmetrisch und positiv definit ist, lässt sie sich mittels der LDL^T-Zerlegung in die Form PA=LDL^T zerlegen. Dabei ist L eine untere Dreiecksmatrix und D eine Diagonalmatrix. Multipliziert man beide Seiten der Gleichung mit L^−1 bzw. (L^T)^−1, kann man die Matrix L eliminieren, sodass R=DL^T übrig bleibt. Es ist wichtig zu beachten, dass L^T nicht direkt die Inverse von R ist, da R durch die Diagonalmatrix D skaliert ist.

    9. 2+O(n

      Hallo, in der Vorlesung haben wir geschrieben dass der Gesamtaufwand n^3 wäre, für welche Art von Rechnung wäre es dann n^2+n wie im Skript ?

    10. die

      (für die) / der

    11. σ({1,…,n})={i1,…,in}\sigma(\lbrace 1,\ldots,n\rbrace) = \lbrace i_1,\ldots,i_n\rbraceσ({1,…,n})={i1​,…,in​}

      Soweit ich mich erinnere, hieß es in der Vorlesung, (1, ..., n) und (i1, ..., in) seien eigentlich Tupel keine Mengen, deswegen wären runde Klammern passender.

    12. Aus Eigenschaft (i)(i)(i) folgt direkt, dass man die Inverse Lj−1L_j^{-1}Lj−1​ von LjL_jLj​ durch Umkehrung des Vorzeichens der Einträge li,jl_{i,j}li,j​ für i=j+1,…,ni=j+1,\ldots,ni=j+1,…,n erhält.

      Hier wird geschrieben, dass die Inverse einer Elementarmatrix Lj durch Umkehrung des Vorzeichens der Einträge li, j für i= j+1, ...,n gebildet werden kann. Könnten Sie erklären, wie diese Umkehrung der Vorzeichen die numerische Stabilität der LR-Zerlegung beeinflusst, insbesondere im Hinblick auf Rundungsfehler bei grossen Matrizen?

    13. Die

      *Der Aufwand

    14. Elementarmatrix

      Ich habe im Internet gesehen, dass man eine Einheitsmatrix bei der zwei Zeilen vertauscht sind oder eine Zeile mit einem Skalar multipliziert wurde auch als Elementarmatrix bezeichnet. Die Gestalt ist also nicht so, wie hier beschrieben. Bei einer Frobeniusmatrix ergibt sich genau das, was in Bild 2.10 dargestellt ist.

    15. j<kj<kj<k

      Warum ist hier j < k notwendig

    1. der direkten Lösung von linearen Gleichungssystemen

      Was ist der Unterschied zwischen einer „direkten Lösung“ und einer „indirekten Lösung“? Welche Vorteile bietet es, eine direkte Lösungsmethode zu verwenden?

    2. FLOPs

      Kann man für Division und Wurzel ziehen auch eine feste Anzahl an FLOPS angeben, oder ist das Hardware-abhängig?

    3. bei welchen historisch bedingt eine Addition und eine Multiplikation zu einer Rechenoperation zusammengefasst werden

      Bedeutet das, dass die Typen Addition und Multiplikation zum Typ FLOP werden, also eine Addition und eine Multiplikation zusammen zwei FLOPs sind, oder bedeutet das, dass wirklich die Hintereinanderanwendung von Multiplikation und Addition zusammen einen FLOP ergeben, also einen anstatt zwei. Dies ist in unserem Fall tatsächlich auch relevant für die Hausaufgabe.

    4. ∃x0​>0

      Wieso muss x0 größer als 0 sein?

    5. führende Ordnung

      Wie ist die führende Ordnung definiert? Hätte angenommen es ist 2n² und somit O(n²). Gerade auch weil die O-Notation gerne zum abschätzen der Laufzeit verwendet wird.

    6. Leider lässt sich der Matrix AAA in der Regel nicht direkt ansehen, ob sie singulär ist oder nicht, d.h., ob det⁡(A)=0\operatorname{det}(A) = 0det(A)=0 gilt oder nicht.

      Sind die folgenden Ausschlusskriterien nicht genügend um sicher sagen zu können das eine Matrix nicht regulär ist? - Wenn mindestens eine 0er Zeile oder Spalte existiert (=kein voller Rang) ? - Wenn mindestens eine 0 auf der Hauptdiagonale existiert? - Wenn Matrix nicht quadratisch ist? - Wenn eine Blockdiagonalmatrix vorliegt wo mindestens ein Block singulär ist? - Wenn zwischen Zeilen / Spalten lineare Abhängigkeiten existieren? - Wenn Rang der Matrix kleiner ist als die Dimension (Rang einer Matrix lässt sich sehr leicht ablesen..)

      Ich finde das sind viele Kriterien die dazu dienen eine Matrix als singulär oder regulär eindeutig klassifizieren zu können. Vielleicht könnte man sagen (Vorschlag): "das man in der Regel eine Matrix relativ eindeutig als regulär / singulär einstufen kann" :)

    7. FLOPs

      if(x > 0) {}

      ist eine FLOP, richtig? Eine "If-Bedingungen" ist kein FLOP, aber x > 0 müsste genau eine FLOP sein, oder?

    8. Für große nnn ist immer nur die führende Ordnung beim Aufwand interessant, deshalb ist es nicht so wichtig die weiteren Ordnungen genau zu bestimmen.

      Ich dachte der dominerende Term n^2 würde den Aufwand bestimmen, und somit wäre der Aufwand O(n^2)?

    9. Definition 2.1

      Vorschlag: Theoreme, Definitionen und Beispiele denselben Counter teilen lassen? Das hat den Vorteil, dass man, wenn man sich irgendwo im Skript befindet und Theorem x.y sucht und bei Definition x.z ist direkt weiß, ob man nach vorne oder nach hinten scrollen soll.

    10. Rechenaufwand

      Benötigt man FLOPS, wenn man Ergebnisse zwischen speichern möchte?

    11. Additionen, Multiplikationen und Vergleichen.

      Wie verhält sich das beim Bilden von multiplikativen Inversen?

    12. bei welchen historisch bedingt eine Addition und eine Multiplikation zu einer Rechenoperation zusammengefasst werden

      Macht es nicht einen großen Unterschied ob man eine Multiplikation oder einen Addition betrachtet? Also ist eine Multiplikation nicht viel mehr Rechenaufwand als eine Addition?

    13. Ist die Menge bereits sortiert, so liegt die Anzahl der benötigten Vergleichsoperationen mit dem Intervallhalbierungsverfahren in O(log⁡n)\mathcal{O}(\operatorname{log} n)O(logn).

      Gibt es eine noch effizientere Suche, als das Intervallhalbierungsverfahren für sortierte Mengen?

    14. Rechenaufwand

      Geht man dabei von einem "worst case" Szenario aus oder rechnet man mit einem "average case"?

    1. 1. Einleitung#

      Dieser ganze Eintrag ist zweimal hintereinander im Skript

    1. den Fall, dass AAA nicht singulär ist, d.h., dass alle Diagonalelemente der Matrix A=RA=RA=R ungleich Null sind, lässt sich direkt ein Verfahren zur Bestimmung der unbekannten Lösung x∈Rnx\in\mathbb{R}^nx∈Rn durch Rückwärtseinsetzen

      Warum funktioniert das im singulären Fall nicht?

    2. Der einfachste zu betrachtende Fall ist, wenn die Matrix AAA eine Diagonalmatrix ist, wenn also gilt ai,j=0a_{i,j} = 0ai,j​=0 für alle i≠ji \neq ji=j

      Welche Einschränkungen oder Herausforderungen könnten bei der Verwendung von Diagonalmatrizen in realen Anwendungen auftreten, insbesondere wenn die Daten nicht perfekt in dieser Form vorliegen?

    3. (2.9)

      Müsste das nicht (2.8) sein?

    4. (2.7)

      In der letzten Zeile müsste es $$a_{n,1} x_{1} + ... = b_{n}$$ heißen.

    5. li,j−1​aj−1,k(j)​,

      these should realy be \(l_{i,j}a_{j,k}^{(j)}\)

    6. O(n)

      Liegt der Rechenaufwand einer Division bei einem FLOP, oder bei \(O(1)\) FLOPs?

    7. ai,k(j+1)​:=ai,k(j)​−li,j−1​aj−1,k(j)​,bi(j+1)​:=bi(j)​−li,j−1​b1(j)​  fu¨r  i,k=j+1,…,n.

      Im Bus mit einem Kommilitonen haben wir uns überlegt, dass es an dieser Stelle wie folgt heißen müsste: a_ik^(j+1):=a_ik^(j)-l_ija_jk^(j) Und: b_i^(j+1):=b_i^(j)-l_ijb_j^(j) Könnte das vielleicht Peer-Reviewen?

    8. Der Rechenaufwand des Gauss-Eliminationsverfahrens in Algorithmus Algorithm 2.2 liegt in O(n3)\mathcal{O}(n^3)O(n3) bzw. genauer 13n3+O(n2)\frac{1}3 n^3+ \mathcal{O}(n^2)31​n3+O(n2).

      Wie genau kommen wir auf diesen Rechenaufwand? Woher kommt das 1/3?

    1. Anzahl der Gleichungen die der unbekannten Variablen

      Das müsste hier "Anzahl der unbekannten Variablen übersteigt die der Gleichungen" heißen.

    2. Abb. 4.1 Visualisierung der Daten in Example 4.1.

      Das Bild wird nicht geladen. Anstelle vom Bild ist nur ein weißes Textfeld in dem "atelier/img/Times.pdf" steht. Ist des bei anderen auch oder nur bei mir?

    1. Im schlimmsten Fall ist also die 111-Norm nnn-mal so groß wie die Maximumsnorm.

      Und im besten Fall?

    1. Abb. 4.2 Visualisierung des Ausgleichsproblems für ex:polyfit,ex:lstsqpoly.#

      Fehler: Bild / PDF wird nicht angezeigt

    1. für alle i≠ji \neq ji=j

      Wieso diese Bedingung? Laut z. B. Wikipedia sind bei der adjungierten Matrix alle Einträge komplex konjugiert, während man hier m. M. n. die Einträge auf der Hauptdiagonalen ausschließen würde

    1. fig:upscaling_nn) oder verwaschenen Kanten, jedoch glatten Strukturen (siehe Abbildung fig:upscaling_cubic)

      Bei mir ist hier nur eine Abbildung zu sehen, fehlen die anderen noch?