Abtast-Rate und Auflösung beim ATMega8-ADC
Hallo,
bei der Suche nach der maximalen Abtasterate des ATMega8-ADCs bin ich im Datenblatt auf folgendes gestossen:
Zitat:
By default, the successive approximation circuitry requires an input clock frequency
between 50 kHz and 200 kHz to get maximum resolution. If a lower resolution than 10
bits is needed, the input clock frequency to the ADC can be higher than 200 kHz to get a
higher sample rate.
(unter "Analog to Digital Converter"->"Prescaling and Conversion Timing")
Das erscheint mir auch logisch, denn bei ca. 13 Zyklen minus 2,5 Zyklen Overhead bleiben pro gesampeltem Bit ein Zyklus. Allerdings finde ich den entscheidenden Hinweis nicht, wie man weniger als 10Bit einstellen und nutzen kann.
Ich meine nicht(!) die linksbündige Ausrichtung des Ergebnisses und nur ADCH auswerten. Damit werden nur die genutzten Datenbits verringert und die Verzögerung beim (und nach dem) Auslesen des Low-Bytes gespart, gesampelt werden trotzdem 10 Bit in 13 Zyklen.
Gruß
mic
Liste der Anhänge anzeigen (Anzahl: 1)
Hallo
Zitat:
Hoffe ich konnt dir weiterhelfen.
Vielleicht schon, danke für die Mühe.
Ich bin bei den avrfreaks auf die Design-Notes #021 gestossen. Und das verwirrt mich jetzt total. Die Sampeln in ihrem Beispiel mit einem 8MHz-ATMega mit 500kHz gleichzeitig 5 (oder 4?) ADC-Kanäle mit ISR. Ich habe keine Ahnung, wie das funktionieren soll.
Unter "Conversion Resolution/Speed" steht da:
Zitat:
If a fast sampling rate is required, it could be necessary to use only 8-bit resolution or
less, and if full 10-bit resolution is desired, “slower” sampling could be enforced (the
example below also relates to this question).
und beim Beispiel ("Example Using the ADC") heißt es dazu:
Zitat:
An ADC clock at 500 kHz violates the limit in ADC clocking for full 10 bit resolution (ADC
clock 200 kHz for 10-bit resolution). Considering the table regarding “ADC characteristics”
section “Analog to Digital Converter” in the data sheet, the absolute accuracy would
probably be 2 - 3 LSB. This means that the ADC can be considered to be a 9-bit ADC
since the LSB is not reliable.
Bedeutet das nun, dass bei Tastraten über 200kHz die Zeit nicht ausreicht, um 10 Bit sauber zu wandeln? Und dass man dann damit rechnen muss, dass die unteren LSBs Schrott sind, aber die MSBs trotzdem stimmen?
Das würde mir nämlich dann schon reichen, mehr als 4 Bit will ich gar nicht auflösen. Wenn ich dafür den Takt hochschrauben kann, ist das ok.
Gruß
mic