Er_Win hat folgendes geschrieben: | ||
Ungeachtet der Tatsache, dass Excel (oder allg. Spredsheet-Software) ab gewissen Datenvolumina auch für mich kein Mittel der Wahl wären, finde ich es überzogen diesen Punkt als besonders dramatisches Problem zu betrachten. Viel wesentlicher finde ich den "Faktor Mensch" als die Wahl eines eventuell nicht optimalen Werkzeugs. |
Zitat: |
Dabei haben Excel (o.ä.) durchaus auch Vorteile, da die Grund-Struktur eben sehr flach ist. Das Problem sehe ich eher in der Instabilität damit wirklich grosse Datenvolumina zu bearbeiten.
|
sponor hat folgendes geschrieben: |
Das Problem mit dem unhinterfragten Gebrauch von Excel scheint mir eines der (erweiterten) Medienkompetenz zu sein bzw. des Mangels derselben:
Genauso, wie die Leute (pars pro toto) Word mit einem Schriftsatzprogramm verwechseln, halten sie (dito) Excel für ein "Matheprogramm". Bis zu der Sache mit dem "Bug", dem wir die Austerity-Politik verdanken, hätte ich nicht für möglich gehalten, dass ernsthafte Wissenschaftler Excel so benutzen oder dass es in der Finanzindustrie für "echte" Sachen benutzt wird. Das ist auch einer meiner Hauptvorwürfe an Microsoft – sie haben die verheerende Gleichsetzung von Form und Inhalt (Word) bzw. Gleichung und Daten (Excel) in die Köpfe betoniert. Ich dagegen kriege jedes Mal Krämpfe, wenn ich doch mal mit Word arbeiten muss und beim Ändern von Inhalt gleich wieder das Layout zerschossen wird. Das hat doch nichts miteinander zu tun (zu haben)!!1! ;-) |
brf hat folgendes geschrieben: | ||
Bleibe bei Deiner ersten Meinung: Ernsthafte Wissenschaftler benutzen kein Excel. Ziehe den logischen Schluss bezüglich der Ökonomen und ihren Analysen. |
Kival hat folgendes geschrieben: |
Der Punkt ist nicht nur Datenvolumina, sondern die Funktion deon Spreadsheets Formel und Zahl in einem Feld zu vereinen. Dadurch ist Code-Review extrem erschwert und der Umgang mit Spreadsheets ist sehr fehleranfällig, wenn es auch nur etwas komplexer wird. |
Kival hat folgendes geschrieben: |
Ein weiteres Punkt ist das schon Standardabweichungen in Excel falsch berechnet werden, man darf auf die Excel-Funktionen für ernsthafte Arbeit nicht vertrauen. |
Zitat: | ||
Problems vith Statistical Functions and Large Numbers in Excel
Although both formulas return the same standard deviation, 1, the second formula returns a zero. Because the square of the sum of the three values in B1:B3 is greater than 15 digits in length, digits beyond the fifteenth digit are changed to zeroes. This causes the formula to return an incorrect result. http://support.microsoft.com/kb/158071 |
Kival hat folgendes geschrieben: |
Wie auch Andrew Gelman sagt: Fehler machen ist normal und wir machen sie immer |
Er_Win hat folgendes geschrieben: |
Ungeachtet der Tatsache, dass Excel (oder allg. Spredsheet-Software) ab gewissen Datenvolumina auch für mich kein Mittel der Wahl wären, finde ich es überzogen diesen Punkt als besonders dramatisches Problem zu betrachten. Viel wesentlicher finde ich den "Faktor Mensch" als die Wahl eines eventuell nicht optimalen Werkzeugs. |
Er_Win hat folgendes geschrieben: |
Und auch darin http://lemire.me/blog/archives/2014/05/23/you-shouldnt-use-a-spreadsheet-for-important-work-i-mean-it/ kommt im Subtext ja durch, dass es dem Herrn Reviewer (auch) darum geht wie ungern er Daten/Analysen auf Excel-Basis reviewt. |
Zitat: |
I will happily use a spreadsheet to compute the grades of my students, to estimate my retirement savings, to compute how much tax I paid last year… but I will not use Microsoft Excel to run a bank or to compute the trajectory of the space shuttle. Spreadsheets are convenient but error prone. They are at their best when errors are of little consequence or when problems are simple. |
Er_Win hat folgendes geschrieben: |
Dabei haben Excel (o.ä.) durchaus auch Vorteile, da die Grund-Struktur eben sehr flach ist. |
Code: |
Sheet1.AllLines: Brutto := Netto + Mwst. |
Kival hat folgendes geschrieben: | ||
Was genau meinst Du mit flach? |
Zitat: |
But while Excel the program is reasonably robust, the spreadsheets that people create with Excel are incredibly fragile. There is no way to trace where your data come from, there’s no audit trail (so you can overtype numbers and not know it), and there’s no easy way to test spreadsheets, for starters. The biggest problem is that anyone can create Excel spreadsheets—badly. Because it’s so easy to use, the creation of even important spreadsheets is not restricted to people who understand programming and do it in a methodical, well-documented way.*** |
brf hat folgendes geschrieben: |
Bleibe bei Deiner ersten Meinung: Ernsthafte Wissenschaftler benutzen kein Excel. Ziehe den logischen Schluss bezüglich der Ökonomen und ihren Analysen. |
smallie hat folgendes geschrieben: | ||
Es gibt schlicht keine Metadarstellung dessen, was mit den Daten passiert. Es gibt noch nicht mal Code, den man reviewen könnte, die "Intelligenz" steckt in der Verkabelung. [...] Um zu sehen, was mit wem verrechnet wird, muß man Spuren zum Vorgänger oder Nachfolger legen. Verweise auf andere Zellen über Entfernungen anzugeben - geh' fünf Spalten in der Zeile zurück - ist etwas archaisch. Spaghetticode. Ergonomie sieht anders aus. Ja, die Frage ist nicht, ob man Fehler macht, sondern ob man ihn entdeckt, bevor es der Leser oder der Kunde tut. Wenn man sich nicht mit dem Werkzeug plagen muss, entfallen einige Fehlerquellen, obendrein bleibt mehr Zeit, sich um Wesentliches zu kümmern. [...]
Gib einem Menschen oder einer Belegschaft probeweise unterschiedliche Werkzeuge. Egal, wie wichtig der Faktor Mensch ist, er ist hier eine Konstante und kürzt sich weg. Übrig bleibt die Qualität des Werkzeuges. |
smallie hat folgendes geschrieben: | ||
Welche Stelle meinst du genau? |
Er_Win hat folgendes geschrieben: | ||||
Scheint mir alles sehr theoretisch, was du da so von dir gibst. Provokanterweise würde ich auf Student (Statistik?) im ersten Studienabschnitt tippen Meine (empirisch gut gesicherte) Erkenntnis aus >25 Jahren Softwareengeneering (in div. Grossprojekten) ist, dass man den Faktor Mensch gar nicht unterschätzen kann. Kein noch so ausgefeiltes Revisions/QS System hilft auch nur ein Jota, wenn das Team keine entsprechend engagierte und qualitätsorientierte Leitung hat oder wenn einfach zu viele "Idioten" mitarbeiten. |
Er_Win hat folgendes geschrieben: |
Provokanterweise würde ich auf Student (Statistik?) im ersten Studienabschnitt tippen |
smallie hat folgendes geschrieben: |
Dann mußt du dich jetzt von einem vermeintlichem Zweitsemester belehren lassen, daß du nicht genau gelesen hast. Ich sagte: Egal, wie wichtig der Faktor Mensch ist, er ist hier eine Konstante und kürzt sich weg. Du vermischst zwei Ebenen: - Kann eine Aufgabe besser mit Software X erledigt werden als mit Software Y? - Kann eine Belegschaft ihre Aufgabe besser erfüllen, wenn man sie schult oder wenn man mehr kompetente Leute einstellt? |
Er_Win hat folgendes geschrieben: |
....
Genau darauf hob ich aber ab: der Faktor Mensch kürzt sich eben nicht weg, insbesondere wenn die zu lösende Aufgabe als auch die Werkzeuge eine gewisse Komplexität aufweisen. Die Sicht man könne im SW-Bereich die Frage der Lösungsqualität nur am Werkzeug festmachen bezeichne ich eben als "theoretisch"... Weniger theoretisch sind dann *imho unsinnige Auswüchse dieser Einstellung die man ja hier auch lesen konnte - sinngemäß a'la: "Wer Excel verwendet ist kein Wissenschaftler" |
fwo hat folgendes geschrieben: |
Und gerade was die Analyse von Daten angeht, habe ich z.T. ganz andere Erfahrungen gemacht: Da werden tolle Pakete benutzt, weil andere es auch machen, da werden dann Ergebnisse veröffentlicht, die der Autor selbst nicht versteht, natürlich mit tollen Grafiken. Und wenn man das dann auseinander nimmt, kann es ohne weiteres passieren, dass man gemeinsam zu dem Ergebnis kommt, dass weder das Datenmaterial noch die Fragestellung für die verwendete Analyse gegeignet sind - macht aber nix, weil es gerade alle so machen. Wichtig ist nur, nicht durch das "falsche" Werkzeug aufzufallen. fwo |
Er_Win hat folgendes geschrieben: | ||
das deckt sich mit meinen überwiegenden Beobachtungen und ich würde sogar formulieren, dass die "Verherrlichung" der Methoden/Werkzeugqualität sehr gut mit der - am Problem gemessenen - Inkompetenz korreliert |
Kival hat folgendes geschrieben: |
Welche Methoden und Werkzeuge werden denn so verherrlicht, wo dann die Inkompetenz entsprechend mit einhergeht? |
Er_Win hat folgendes geschrieben: | ||
das Prinzip ist da von Werkzeug/Methode ziemlich unabhängig, soferne jene im durch die (wissenschaftliche/unternehmerische) Leitung bzw. auch Fachmagazinen vorgegebenen Meinungskontext als "state-of-the-art" gelten. |
Zitat: |
Beim schnellen Nachdenken (so bzgl. einem Zeitraum von ca. 25 Jahren) habe ich das schon bzgl. IBM, SAP, Oracle, Unix (bzw.Derivate), OOP erlebt, als auch insbesondere im Methodenbereich bzgl. div. Tools oder auch Methodenhandbücher zum SW-Engineering und QS-Management. |
Kival hat folgendes geschrieben: | ||
Okay, in dem Bereich habe ich selber so gut wie keine Ahnung, da schaut es dann vielleicht wirklich so aus. |
Kival hat folgendes geschrieben: | ||
|
Er_Win hat folgendes geschrieben: | ||||
Es scheint mir auch direkt korreliert mit der Projektgrösse bzw. Anzahl Mitwirkender zu sein. Bei "kleinen" wissenschaftlichen Forschungsteams (<=10) sowie spezieller Software wie dem von dir erwähnten SPSS oder Mathlab, COMSOL dürfte die Problemkompetenz insgesamt gesehen doch um einiges besser sein, als bei Teamgrössen >> 100. |
Er_Win hat folgendes geschrieben: | ||||
Es scheint mir auch direkt korreliert mit der Projektgrösse bzw. Anzahl Mitwirkender zu sein. Bei "kleinen" wissenschaftlichen Forschungsteams (<=10) sowie spezieller Software wie dem von dir erwähnten SPSS oder Mathlab, COMSOL dürfte die Problemkompetenz insgesamt gesehen doch um einiges besser sein, als bei Teamgrössen >> 100. |
fwo hat folgendes geschrieben: | ||
Auch nicht unbedingt. Ich bin ja schon länger (bis auf gelegentliche klammheimliche Beratungen) aus der Wissenschaft raus, aber wenn sich die Menschheit und mit ihr ihre Wissenschaftler nicht grundlegend geändert hat bzw. haben, dann unterscheiden die sich von den Wiwis "draußen im Leben" nur in ihrer Ehrlichkeit, mit der die ihre Hauptaufgaben definieren: Tarnen, Täuschen, Nebel werfen. [...] |
Er_Win hat folgendes geschrieben: | ||||
echt so schlimm Naja, meine überwiegenden Erfahrungen im techn.Uni-Umfeld waren so, dass Untersuchungsobjekt = Werkzeug war. Vielleicht liegt daran mein subjektiver Eindruck, dass es dabei weniger "gefühlte Inkompetenz" gab. Aber auch i.d. Wirtschaft/Forschung sind mir Teams untergekommen (meist allerdings <= 5 Personen) denen es nicht um "Tarnen, Täuschen, Nebel werfen" ging ... |
Er_Win hat folgendes geschrieben: |
Naja, dann habe ich eben nicht genau gelesen ...
Genau darauf hob ich aber ab: der Faktor Mensch kürzt sich eben nicht weg, insbesondere wenn die zu lösende Aufgabe als auch die Werkzeuge eine gewisse Komplexität aufweisen. Die Sicht man könne im SW-Bereich die Frage der Lösungsqualität nur am Werkzeug festmachen bezeichne ich eben als "theoretisch"... |
fwo hat folgendes geschrieben: |
Wenn jemand den Gegenstand, den er verwursten will, richtig durchdrungen hat und sein Werkzeug in seinen Grenzen kennt, ist es fast egal, womit er ihn verwurstet, wenn er nicht gerade ein Taschenmesser nehmen will, um einen Baum zu fällen. |
Zitat: |
The Humble Programmer 1972
We should confine ourselves to intellectually manageable programs. http://c2.com/cgi/wiki?TheHumbleProgrammer https://www.cs.utexas.edu/users/EWD/ewd03xx/EWD340.PDF [PDF] |
Er_Win hat folgendes geschrieben: | ||
das Prinzip ist da von Werkzeug/Methode ziemlich unabhängig, soferne jene im durch die (wissenschaftliche/unternehmerische) Leitung bzw. auch Fachmagazinen vorgegebenen Meinungskontext als "state-of-the-art" gelten. Beim schnellen Nachdenken (so bzgl. einem Zeitraum von ca. 25 Jahren) habe ich das schon bzgl. IBM, SAP, Oracle, Unix (bzw.Derivate), OOP erlebt, als auch insbesondere im Methodenbereich bzgl. div. Tools oder auch Methodenhandbücher zum SW-Engineering und QS-Management. |
Zitat: |
To put it another way, sloppy data handling gives researchers yet another “degree of freedom” (to use Uri Simonsohn’s term) and biases claims to be more dramatic. Think about it. There are three options: 1. If you make no data errors, fine. 2. If you make an inadvertent data error that works against your favored hypothesis, you look at the data more carefully and you find the error, going back to the correct dataset. 3. But if you make an inadvertent data error that supports your favored hypothesis (as happened to Reinhart, Rogoff, and Tol), you have no particular motivation to check, and you just go for it. Put these together and you get a systematic bias in favor of your hypothesis. Science is degraded by looseness in data handling, just as it is degraded by looseness in thinking. This is one reason that I agree with Dean Baker that the Excel spreadsheet error was worth talking about and was indeed part of the bigger picture. |
Zitat: |
The response of the economics profession to this error and its exposure was instructive. To a large extent there was a rallying around Reinhart and Rogoff, two prominent Harvard economists who established their reputations with a long track record of publications in top journals. It was as though HAP had been wrong to drag down the names of such well-regarded economists over a simple spreadsheet error. Betsey Stevenson and Justin Wolfers gave us an example of this attitude in a piece in which they “refereed” the debate. They told readers: “It has been disappointing to watch those on the left seize on the embarrassing Excel errors but ignore this bigger picture.”[3] Of course we all make mistakes and no one would like to be publicly embarrassed over having once inaccurately copied numbers in an Excel spreadsheet. But perspective is desperately needed here. The Excel spreadsheet error was the reason the debate was taking place. Reinhart and Rogoff would not ordinarily be responding to criticisms from two University of Massachusetts professors and their grad student. If this had been a debate just over the correct aggregation method or econometric techniques, it would never have gotten far beyond the PERI website. Few people without advanced training in economics would follow that debate, but everyone can understand an Excel spreadsheet error. |
Zitat: |
Meanwhile, researchers should continue to avoid using the statistical functions in Excel 2007 for any scientific purpose. |
output generated using printer-friendly topic mod. Alle Zeiten sind GMT + 1 Stunde