Freigeisterhaus Foren-Übersicht www.artikeldrei.de
 FAQFAQ   SuchenSuchen   MitgliederlisteMitgliederliste   NutzungsbedingungenNutzungsbedingungen   BenutzergruppenBenutzergruppen   LinksLinks   ChatChat   RegistrierenRegistrieren 
 ProfilProfil   KarteKarte   Einloggen, um private Nachrichten zu lesenEinloggen, um private Nachrichten zu lesen   LoginLogin 

Excel und Datenanalysen

 
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik
Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  
Autor Nachricht
Kival
Feminist Ghost



Anmeldungsdatum: 14.11.2006
Beiträge: 23548

Beitrag(#1924826) Verfasst am: 28.05.2014, 12:09    Titel: Excel und Datenanalysen Antworten mit Zitat

Ich mach mal einen extra Thread dafür auf:

Er_Win hat folgendes geschrieben:
Kival hat folgendes geschrieben:

Es ist auch ein weiteres Beispiel (nach Reinhart-Roggoff und Piketty) dafür, das einige Ökonomen Spreadcheats mit einem ernstzunehmendem und seriösen Programm für statistische Datenanalysen verwechseln.


Ungeachtet der Tatsache, dass Excel (oder allg. Spredsheet-Software) ab gewissen Datenvolumina auch für mich kein Mittel der Wahl wären, finde ich es überzogen diesen Punkt als besonders dramatisches Problem zu betrachten. Viel wesentlicher finde ich den "Faktor Mensch" als die Wahl eines eventuell nicht optimalen Werkzeugs.


Der Punkt ist nicht nur Datenvolumina, sondern die Funktion deon Spreadsheets Formel und Zahl in einem Feld zu vereinen. Dadurch ist Code-Review extrem erschwert und der Umgang mit Spreadsheets ist sehr fehleranfällig, wenn es auch nur etwas komplexer wird. Ein weiteres Punkt ist das schon Standardabweichungen in Excel falsch berechnet werden, man darf auf die Excel-Funktionen für ernsthafte Arbeit nicht vertrauen. Das ist vor allem auch deshalb relevant, weil insbesondere geringere Datenvolumina komplexere Analyseverfahren brauchen.

Ja, der Faktor Mensch ist entscheidend, aber Excel macht es auch besonders einfach, Fehler zu machen. Ein verwandtes Problem gibt es z.B. bei SPSS, dass Modellspezifikationen in Untermenüs versteckt sind und so Point-and-Click-Nutzer zu der Annahme verleitet werden, ihre Analyse hätte ja keine besonderen Voraussetzungen, da sie ja z.B. Kovarianzmatrix gar nicht festgelegt haben. Bei der mixed-Prozedur ist es aber z.B. so, dass der Default bei SPSS die Kovarianzen auf 0 festlegt (was in den meisten Anwendungsfällen eher fragwürdig ist).


Zitat:
Dabei haben Excel (o.ä.) durchaus auch Vorteile, da die Grund-Struktur eben sehr flach ist. Das Problem sehe ich eher in der Instabilität damit wirklich grosse Datenvolumina zu bearbeiten.


Was genau meinst Du mit flach?

Etwas humoristischer: http://www.burns-stat.com/documents/tutorials/spreadsheet-addiction/ Here be dragons!
_________________
"A basic literacy in statistics will one day be as necessary for efficient citizenship as the ability to read and write." (angeblich H. G. Wells)
"The consent of the governed is not consent if it is not informed." (Edward Snowden)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
sponor
registrierter User



Anmeldungsdatum: 16.05.2008
Beiträge: 887
Wohnort: München

Beitrag(#1924851) Verfasst am: 28.05.2014, 15:04    Titel: Antworten mit Zitat

Das Problem mit dem unhinterfragten Gebrauch von Excel scheint mir eines der (erweiterten) Medienkompetenz zu sein bzw. des Mangels derselben:

Genauso, wie die Leute (pars pro toto) Word mit einem Schriftsatzprogramm verwechseln, halten sie (dito) Excel für ein "Matheprogramm".
Bis zu der Sache mit dem "Bug", dem wir die Austerity-Politik verdanken, hätte ich nicht für möglich gehalten, dass ernsthafte Wissenschaftler Excel so benutzen oder dass es in der Finanzindustrie für "echte" Sachen benutzt wird.

Das ist auch einer meiner Hauptvorwürfe an Microsoft – sie haben die verheerende Gleichsetzung von Form und Inhalt (Word) bzw. Gleichung und Daten (Excel) in die Köpfe betoniert.
Ich dagegen kriege jedes Mal Krämpfe, wenn ich doch mal mit Word arbeiten muss und beim Ändern von Inhalt gleich wieder das Layout zerschossen wird. Das hat doch nichts miteinander zu tun (zu haben)!!1! zwinkern
_________________
Unsere Welt wird noch so fein werden, daß es so lächerlich sein wird, einen Gott zu glauben als heutzutage Gespenster.
(G. Chr. Lichtenberg)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
brf
registrierter User



Anmeldungsdatum: 25.05.2010
Beiträge: 359

Beitrag(#1924868) Verfasst am: 28.05.2014, 17:28    Titel: Antworten mit Zitat

sponor hat folgendes geschrieben:
Das Problem mit dem unhinterfragten Gebrauch von Excel scheint mir eines der (erweiterten) Medienkompetenz zu sein bzw. des Mangels derselben:

Genauso, wie die Leute (pars pro toto) Word mit einem Schriftsatzprogramm verwechseln, halten sie (dito) Excel für ein "Matheprogramm".
Bis zu der Sache mit dem "Bug", dem wir die Austerity-Politik verdanken, hätte ich nicht für möglich gehalten, dass ernsthafte Wissenschaftler Excel so benutzen oder dass es in der Finanzindustrie für "echte" Sachen benutzt wird.

Das ist auch einer meiner Hauptvorwürfe an Microsoft – sie haben die verheerende Gleichsetzung von Form und Inhalt (Word) bzw. Gleichung und Daten (Excel) in die Köpfe betoniert.
Ich dagegen kriege jedes Mal Krämpfe, wenn ich doch mal mit Word arbeiten muss und beim Ändern von Inhalt gleich wieder das Layout zerschossen wird. Das hat doch nichts miteinander zu tun (zu haben)!!1! ;-)

Bleibe bei Deiner ersten Meinung: Ernsthafte Wissenschaftler benutzen kein Excel.
Ziehe den logischen Schluss bezüglich der Ökonomen und ihren Analysen.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
sponor
registrierter User



Anmeldungsdatum: 16.05.2008
Beiträge: 887
Wohnort: München

Beitrag(#1924871) Verfasst am: 28.05.2014, 17:37    Titel: Antworten mit Zitat

brf hat folgendes geschrieben:
sponor hat folgendes geschrieben:
Das Problem mit dem unhinterfragten Gebrauch von Excel scheint mir eines der (erweiterten) Medienkompetenz zu sein bzw. des Mangels derselben:

Genauso, wie die Leute (pars pro toto) Word mit einem Schriftsatzprogramm verwechseln, halten sie (dito) Excel für ein "Matheprogramm".
Bis zu der Sache mit dem "Bug", dem wir die Austerity-Politik verdanken, hätte ich nicht für möglich gehalten, dass ernsthafte Wissenschaftler Excel so benutzen oder dass es in der Finanzindustrie für "echte" Sachen benutzt wird.

Das ist auch einer meiner Hauptvorwürfe an Microsoft – sie haben die verheerende Gleichsetzung von Form und Inhalt (Word) bzw. Gleichung und Daten (Excel) in die Köpfe betoniert.
Ich dagegen kriege jedes Mal Krämpfe, wenn ich doch mal mit Word arbeiten muss und beim Ändern von Inhalt gleich wieder das Layout zerschossen wird. Das hat doch nichts miteinander zu tun (zu haben)!!1! zwinkern

Bleibe bei Deiner ersten Meinung: Ernsthafte Wissenschaftler benutzen kein Excel.
Ziehe den logischen Schluss bezüglich der Ökonomen und ihren Analysen.

Ich will die Hoffnung noch nicht ganz aufgeben, jedenfalls nicht für alle von ihnen. Smilie
Außerdem: Bei den Finanzlern geht es doch um richtig viel Geld (nicht nur um ... Wahrheit oder ... Menschen) – ich hätte erwartet, dass denen korrekte Ergebnisse ein Anliegen sind.
_________________
Unsere Welt wird noch so fein werden, daß es so lächerlich sein wird, einen Gott zu glauben als heutzutage Gespenster.
(G. Chr. Lichtenberg)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kival
Feminist Ghost



Anmeldungsdatum: 14.11.2006
Beiträge: 23548

Beitrag(#1924874) Verfasst am: 28.05.2014, 18:01    Titel: Antworten mit Zitat

A) Natürlich benutzen bei weitem nicht alle Ökonomen Excel! Alle einigermaßen ernsthaft statistisch versierten Ökonomen und Ökonometriker benutzen zumindest Stata, einige schreiben auch ihre Programme noch selber. Bei den Ökonometrikern ist auch R durchaus verbreitet usw.

B) Auch von denen, die es benutzen, wird es oft nur für einen Teil der Arbeit, z.B. die Datenmanipulation benutzt. Bös klingendes Wort, aber Dateneingabe, Korrektur falscher Werte usw. ist ein wichtiger und elementarer Teil des wissenschaftlichen Prozesses. Leider vergessen viele, dass auch diese Schritte reproduzierbar sein müssen ... sollten und dementsprechend auch besser mit vernünftiger Software (Python, R, whatever) oder zumindest (mehr oder wenige) akzeptabler Software (SPSS, Stata) vollzogen und dokumentiert werden sollten. Jeder nicht automatisierter Schritt bei der Datenübertragung ist hochgradig fehleranfällig! Wer hat nicht schonmal ein Minus beim Übertragen von Zahlen per Hand übertragen? Automatisierte Prozeduren, die dann wiederum überprüft werden müssen, sollten hier der klare Standard sein. Im Studium geht der Aspekt des *Datenmanagements* aber oft unter. Also selbst wenn eine einigermaßen vernünftige Statistikausbildung betrieben wird und die Anwendung in etablierten Statistikprogrammen beigebracht wird, wird Datenmanagement bestenfalls stiefmütterlich behandelt. So geht der Umgang mit fehlenden Daten ja schon oft unter, Datenmanagement wird erst gar nicht behandelt (das gilt nicht allgemein, aber dem ganzen wird wenig Bedeutung zugewiesen).

Z.B. Richard Tol hat wohl kaum die ganze Datenanalyse mit Excel gemacht, spätestens seinen neuesten Artikel in Computational Economics mit Bootstraps hat er sicher nicht mit Excel gemacht. Auf der Ebene der Dateneingabe und Datentransformation ist eine Nutzung von Excel auch außerhalb der Ökonomie verbreitet, Reinhart-Roggoff und Piketty scheinen aber tatsächlich sogar zum Teil Analysen mit Excel durchgeführt zu haben. Ehrlich, ich weiß nichtmal, wie man es *ertragen* könnte das zu tun, geschweige denn, dass man das freiwillig tun könnte.
_________________
"A basic literacy in statistics will one day be as necessary for efficient citizenship as the ability to read and write." (angeblich H. G. Wells)
"The consent of the governed is not consent if it is not informed." (Edward Snowden)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
smallie
Esel



Anmeldungsdatum: 02.04.2010
Beiträge: 1292

Beitrag(#1925001) Verfasst am: 29.05.2014, 13:39    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

Kival hat folgendes geschrieben:
Der Punkt ist nicht nur Datenvolumina, sondern die Funktion deon Spreadsheets Formel und Zahl in einem Feld zu vereinen. Dadurch ist Code-Review extrem erschwert und der Umgang mit Spreadsheets ist sehr fehleranfällig, wenn es auch nur etwas komplexer wird.

Genau das.

Es gibt schlicht keine Metadarstellung dessen, was mit den Daten passiert. Es gibt noch nicht mal Code, den man reviewen könnte, die "Intelligenz" steckt in der Verkabelung.



Um zu sehen, was mit wem verrechnet wird, muß man Spuren zum Vorgänger oder Nachfolger legen. Verweise auf andere Zellen über Entfernungen anzugeben - geh' fünf Spalten in der Zeile zurück - ist etwas archaisch. Spaghetticode. Ergonomie sieht anders aus.

Weiter unter ein kleines Beispiel, wie's besser ginge.


Kival hat folgendes geschrieben:
Ein weiteres Punkt ist das schon Standardabweichungen in Excel falsch berechnet werden, man darf auf die Excel-Funktionen für ernsthafte Arbeit nicht vertrauen.

Meinst du das?

Zitat:
Problems vith Statistical Functions and Large Numbers in Excel
Code:

   A1: 999999          B1: 99999999
   A2: 1000000         B2: 100000000
   A3: 1000001         B3: 100000001
   A4: =STDEV(A1:A3)   B4: =STDEV(B1:B3)


Although both formulas return the same standard deviation, 1, the second formula returns a zero. Because the square of the sum of the three values in B1:B3 is greater than 15 digits in length, digits beyond the fifteenth digit are changed to zeroes. This causes the formula to return an incorrect result.

http://support.microsoft.com/kb/158071

Ich vermute, das ist nur die halbe Wahrheit.

15 signifikante Stellen ist das, was sich mit typischen 64-bit-floats darstellen läßt. Das reicht für die meisten Zwecke aus. Wenn's nur daran läge, hätten viele Programme ein Problem mit STDEV.

Berechnet man die Standardabweichung über Wurzel aus der Summe der quadrierten Werte/n - quadriertem Mittelwert, kann schon mal eine Stelle verloren gehen. Geschickter wäre: Wurzel aus Summe von (Wert - Mittelwert)²


Wobei: 100 000 001 zählen oder messen, auf die letzte Stelle genau, diese Genauigkeit gibt es nur in technischen Dingen. Oder wenn man über das Vermögen von Milliardären spricht. Pfeifen


Aus dem anderen Thread herübergezogen:
Kival hat folgendes geschrieben:
Wie auch Andrew Gelman sagt: Fehler machen ist normal und wir machen sie immer

Ja, die Frage ist nicht, ob man Fehler macht, sondern ob man ihn entdeckt, bevor es der Leser oder der Kunde tut. Wenn man sich nicht mit dem Werkzeug plagen muss, entfallen einige Fehlerquellen, obendrein bleibt mehr Zeit, sich um Wesentliches zu kümmern.



Er_Win hat folgendes geschrieben:
Ungeachtet der Tatsache, dass Excel (oder allg. Spredsheet-Software) ab gewissen Datenvolumina auch für mich kein Mittel der Wahl wären, finde ich es überzogen diesen Punkt als besonders dramatisches Problem zu betrachten. Viel wesentlicher finde ich den "Faktor Mensch" als die Wahl eines eventuell nicht optimalen Werkzeugs.

Gib einem Menschen oder einer Belegschaft probeweise unterschiedliche Werkzeuge. Egal, wie wichtig der Faktor Mensch ist, er ist hier eine Konstante und kürzt sich weg. Übrig bleibt die Qualität des Werkzeuges.


Er_Win hat folgendes geschrieben:
Und auch darin http://lemire.me/blog/archives/2014/05/23/you-shouldnt-use-a-spreadsheet-for-important-work-i-mean-it/ kommt im Subtext ja durch, dass es dem Herrn Reviewer (auch) darum geht wie ungern er Daten/Analysen auf Excel-Basis reviewt.

Welche Stelle meinst du genau?

Ich finde ganz richtig, was er schreibt:
Zitat:
I will happily use a spreadsheet to compute the grades of my students, to estimate my retirement savings, to compute how much tax I paid last year… but I will not use Microsoft Excel to run a bank or to compute the trajectory of the space shuttle. Spreadsheets are convenient but error prone. They are at their best when errors are of little consequence or when problems are simple.



Er_Win hat folgendes geschrieben:
Dabei haben Excel (o.ä.) durchaus auch Vorteile, da die Grund-Struktur eben sehr flach ist.

Flach?

Ich würde sagen: nicht ausreichend abstrahierbar.

Angenommen ich habe zwei Spalten A und B, deren Wert ich in C addieren möchte. Dann muß ich in jeder Zeile in C die Formel "=ZS(-2) + ZS(-1)" eintragen. Schon ist das wesentlichste Prinzip der Programmierung gebrochen: DRY - do not repeat yourself. Jede Information, jeder Fakt darf nur an einer Stelle im Code auftauchen, dann bleibt man flexibel.

Es wäre nicht so schwer, das zeitgemäß zu lösen: Spalten sind automatisch benannte Bereiche, die den Namen der Spaltenüberschrift tragen. Statt Formeln in Zellen zu schreiben, sollten sie zur Arbeitsmappe gehören.

Wenn die Spalten A, B, C mit Netto, Mwst und Brutto überschrieben sind, könnte man eine Addition so als lesbare Formel schreiben:

Code:
Sheet1.AllLines: Brutto := Netto + Mwst.


Das wäre etwas um vieles klarer als Formelgedöns wie "=ZS(-2) + ZS(-1)".
_________________
"There are two hard things in computer science: cache invalidation, naming things, and off-by-one errors."
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
>42<



Anmeldungsdatum: 31.01.2008
Beiträge: 1405
Wohnort: ja

Beitrag(#1925119) Verfasst am: 30.05.2014, 10:55    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

Kival hat folgendes geschrieben:

Zitat:
Dabei haben Excel (o.ä.) durchaus auch Vorteile, da die Grund-Struktur eben sehr flach ist. Das Problem sehe ich eher in der Instabilität damit wirklich grosse Datenvolumina zu bearbeiten.


Was genau meinst Du mit flach?


Das was du sinngemäß auch geschrieben hast: dass eben kein strukturiertes HLL-Programmiermodell dahintersteht. VBA ist ja nur "bedingt" als solches zu bezeichnen ...

Trotzdem kann man (wenn man kann) auch mit Excel "sauber" und gut strukturiert arbeiten, indem man zB. VBA verwendet und keine undurchsichtigen tief verschachtelten Zell Abhängigkeiten über mehrere Tab's kunterbunt verteilt.

In meiner Praxis habe ich schon unsäglich verwurstete und kaum nachvollziehbare Sheets gesehen, als auch sehr sauber und strukturiert nachvollziehbare.

Und dass Excel Bugs hat, darüber brauchen wir nicht "streiten" zwinkern Aber ich kenne andererseits keine komplexe Software ohne Bugs - als versierter Anwender sollte man die Bugs eben kennen !

Ich selbst verwende Excel am ehesten nur als Art elektronischen Schmierzettel der auch bissi rechnen kann...

Ansonsten sehe ich es so wie hier geschildert:
Zitat:
But while Excel the program is reasonably robust, the spreadsheets that people create with Excel are incredibly fragile. There is no way to trace where your data come from, there’s no audit trail (so you can overtype numbers and not know it), and there’s no easy way to test spreadsheets, for starters. The biggest problem is that anyone can create Excel spreadsheets—badly. Because it’s so easy to use, the creation of even important spreadsheets is not restricted to people who understand programming and do it in a methodical, well-documented way.***

http://baselinescenario.com/2013/02/09/the-importance-of-excel/

...mit der Einschränkung, dass es ungeeignet für grosse Datenvolumina und/oder als "Ersatz" für ein (R)DBMS ist.
_________________
es genügt nicht keine eigene Meinung zu haben, man muss auch unfähig sein sie auszudrücken


Zuletzt bearbeitet von Er_Win am 30.05.2014, 12:38, insgesamt einmal bearbeitet
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
>42<



Anmeldungsdatum: 31.01.2008
Beiträge: 1405
Wohnort: ja

Beitrag(#1925121) Verfasst am: 30.05.2014, 11:01    Titel: Antworten mit Zitat

brf hat folgendes geschrieben:

Bleibe bei Deiner ersten Meinung: Ernsthafte Wissenschaftler benutzen kein Excel.
Ziehe den logischen Schluss bezüglich der Ökonomen und ihren Analysen.


und genau diese undifferenzierte Aussage ist - mit Verlaub - Quatsch, oder dient höchstens einer "forenwissenschaftlichen" pauschalen Abqualifizierung.

Ein "ernsthafter Wissenschaftler" (was immer das jetzt genau sein soll...) weiss wo und wie er Excel einsetzt - er verwendet also das Werkzeug angemessen !
_________________
es genügt nicht keine eigene Meinung zu haben, man muss auch unfähig sein sie auszudrücken
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
>42<



Anmeldungsdatum: 31.01.2008
Beiträge: 1405
Wohnort: ja

Beitrag(#1925135) Verfasst am: 30.05.2014, 13:31    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

smallie hat folgendes geschrieben:


Es gibt schlicht keine Metadarstellung dessen, was mit den Daten passiert. Es gibt noch nicht mal Code, den man reviewen könnte, die "Intelligenz" steckt in der Verkabelung.

[...]
Um zu sehen, was mit wem verrechnet wird, muß man Spuren zum Vorgänger oder Nachfolger legen. Verweise auf andere Zellen über Entfernungen anzugeben - geh' fünf Spalten in der Zeile zurück - ist etwas archaisch. Spaghetticode. Ergonomie sieht anders aus.

Ja, die Frage ist nicht, ob man Fehler macht, sondern ob man ihn entdeckt, bevor es der Leser oder der Kunde tut. Wenn man sich nicht mit dem Werkzeug plagen muss, entfallen einige Fehlerquellen, obendrein bleibt mehr Zeit, sich um Wesentliches zu kümmern.

[...]
Er_Win hat folgendes geschrieben:
Ungeachtet der Tatsache, dass Excel (oder allg. Spredsheet-Software) ab gewissen Datenvolumina auch für mich kein Mittel der Wahl wären, finde ich es überzogen diesen Punkt als besonders dramatisches Problem zu betrachten. Viel wesentlicher finde ich den "Faktor Mensch" als die Wahl eines eventuell nicht optimalen Werkzeugs.

Gib einem Menschen oder einer Belegschaft probeweise unterschiedliche Werkzeuge. Egal, wie wichtig der Faktor Mensch ist, er ist hier eine Konstante und kürzt sich weg. Übrig bleibt die Qualität des Werkzeuges.



Scheint mir alles sehr theoretisch, was du da so von dir gibst. Provokanterweise würde ich auf Student (Statistik?) im ersten Studienabschnitt tippen Lachen

Meine (empirisch gut gesicherte) Erkenntnis aus >25 Jahren Softwareengeneering (in div. Grossprojekten) ist, dass man den Faktor Mensch gar nicht unterschätzen kann. Kein noch so ausgefeiltes Revisions/QS System hilft auch nur ein Jota, wenn das Team keine entsprechend engagierte und qualitätsorientierte Leitung hat oder wenn einfach zu viele "Idioten" mitarbeiten.

Dann tritt mit hoher Wahrscheinlichkeit der Effekt ein, dass sachlich inkompetente sich hauptsächlich mit den formal (ja durchaus gut gemeinten) Entwicklungsmodell/QS Standards befassen und trotz Werkzeugen, die eigentlich höchsten Ansprüchen genügen im Gesamten ziemlich fehlerbehafteter oder zT. auch unsinniger Quatsch rauskommt.

Das schrägste was ich da erlebt habe, war die Umsetzung eines Basel II Ratings für eine renommierte Bank: Formal alles tipp-top - Entwicklungsumgebung/Programmrichtlinien/internes Review und QS-Mgmt. Beauftragung einer Uni zur Ausarbeitung der Rating-Funktion...

Leider gab's aber nur 2-3 Personen, die die Semantik des zugrundeliegenden Datenmodells/Materials wirklich verstanden haben und selbige waren nicht wirklich zu 100% im Projekt eingebunden. Was da an Rating herauskam konnte man beim besten Willen kaum anders als "Kaffesatzlesen" bezeichnen. Entsprechend wurde es von der FA auch kaum ernst genommen und es gab jede Menge (natürlich revisionierte !) QS-Einzelfall-Aufträge zur händischen Korrektur - lt. Sachbearbeiter Angaben - der streng "qualitätsgesicherten" maschinell ermittelten Rating-Ergebnisse Sehr glücklich

So sichert man Arbeitsplätze ...


smallie hat folgendes geschrieben:
Er_Win hat folgendes geschrieben:
Und auch darin http://lemire.me/blog/archives/2014/05/23/you-shouldnt-use-a-spreadsheet-for-important-work-i-mean-it/ kommt im Subtext ja durch, dass es dem Herrn Reviewer (auch) darum geht wie ungern er Daten/Analysen auf Excel-Basis reviewt.

Welche Stelle meinst du genau?



ich schrieb doch: im Subtext ( http://de.wikipedia.org/wiki/Subtext )

das liest sich, als ob's jemand geschrieben hat, der mit der Revision von "verkackten" Excel-Sheets betraut ist. Sowas sorgt für - nachvollziehbaren - Frust und emotionale Ablehnung des Werkzeugs. Ich bleibe dabei: Excel ist nicht "schuld", wenn man "Scheisse" damit macht...

Ansonsten, weil du ja Bildchen zu mögen scheinst:




_________________
es genügt nicht keine eigene Meinung zu haben, man muss auch unfähig sein sie auszudrücken
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
smallie
Esel



Anmeldungsdatum: 02.04.2010
Beiträge: 1292

Beitrag(#1925288) Verfasst am: 31.05.2014, 19:15    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

Er_Win hat folgendes geschrieben:
smallie hat folgendes geschrieben:
Er_Win hat folgendes geschrieben:
Ungeachtet der Tatsache, dass Excel (oder allg. Spredsheet-Software) ab gewissen Datenvolumina auch für mich kein Mittel der Wahl wären, finde ich es überzogen diesen Punkt als besonders dramatisches Problem zu betrachten. Viel wesentlicher finde ich den "Faktor Mensch" als die Wahl eines eventuell nicht optimalen Werkzeugs.

Gib einem Menschen oder einer Belegschaft probeweise unterschiedliche Werkzeuge. Egal, wie wichtig der Faktor Mensch ist, er ist hier eine Konstante und kürzt sich weg. Übrig bleibt die Qualität des Werkzeuges.

Scheint mir alles sehr theoretisch, was du da so von dir gibst. Provokanterweise würde ich auf Student (Statistik?) im ersten Studienabschnitt tippen Lachen

Meine (empirisch gut gesicherte) Erkenntnis aus >25 Jahren Softwareengeneering (in div. Grossprojekten) ist, dass man den Faktor Mensch gar nicht unterschätzen kann. Kein noch so ausgefeiltes Revisions/QS System hilft auch nur ein Jota, wenn das Team keine entsprechend engagierte und qualitätsorientierte Leitung hat oder wenn einfach zu viele "Idioten" mitarbeiten.

Dann mußt du dich jetzt von einem vermeintlichem Zweitsemester belehren lassen, daß du nicht genau gelesen hast. Ich sagte: Egal, wie wichtig der Faktor Mensch ist, er ist hier eine Konstante und kürzt sich weg.

Du vermischst zwei Ebenen:

- Kann eine Aufgabe besser mit Software X erledigt werden als mit Software Y?
- Kann eine Belegschaft ihre Aufgabe besser erfüllen, wenn man sie schult oder wenn man mehr kompetente Leute einstellt?

Dein Thema ist die zweite Frage. Sie ist berechtigt, dazu ließe sich viel sagen - in einem Thread über Excel ist sie etwas off-topic.


Er_Win hat folgendes geschrieben:
Provokanterweise würde ich auf Student (Statistik?) im ersten Studienabschnitt tippen

Provokanterweise? Welche Reaktion möchtest du provozieren? Frag mich geradeheraus, dann erhältst du Antwort.

Meinerseits ganz geradeheraus gesagt: du hast schon zweimal auf deinen akademischen Abschluß hingewiesen, um deine Argumentation zu untermauern. Hochtrabend nennt man das argumentum ad verecundiam.
_________________
"There are two hard things in computer science: cache invalidation, naming things, and off-by-one errors."
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
>42<



Anmeldungsdatum: 31.01.2008
Beiträge: 1405
Wohnort: ja

Beitrag(#1925408) Verfasst am: 01.06.2014, 23:18    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

smallie hat folgendes geschrieben:

Dann mußt du dich jetzt von einem vermeintlichem Zweitsemester belehren lassen, daß du nicht genau gelesen hast. Ich sagte: Egal, wie wichtig der Faktor Mensch ist, er ist hier eine Konstante und kürzt sich weg.

Du vermischst zwei Ebenen:

- Kann eine Aufgabe besser mit Software X erledigt werden als mit Software Y?
- Kann eine Belegschaft ihre Aufgabe besser erfüllen, wenn man sie schult oder wenn man mehr kompetente Leute einstellt?


Naja, dann habe ich eben nicht genau gelesen ... Mit den Augen rollen

Genau darauf hob ich aber ab: der Faktor Mensch kürzt sich eben nicht weg, insbesondere wenn die zu lösende Aufgabe als auch die Werkzeuge eine gewisse Komplexität aufweisen. Die Sicht man könne im SW-Bereich die Frage der Lösungsqualität nur am Werkzeug festmachen bezeichne ich eben als "theoretisch"...

Weniger theoretisch sind dann *imho unsinnige Auswüchse dieser Einstellung die man ja hier auch lesen konnte - sinngemäß a'la: "Wer Excel verwendet ist kein Wissenschaftler"
_________________
es genügt nicht keine eigene Meinung zu haben, man muss auch unfähig sein sie auszudrücken
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
fwo
Jammerlappen 4.0



Anmeldungsdatum: 05.02.2008
Beiträge: 14886
Wohnort: nicht fest

Beitrag(#1925427) Verfasst am: 02.06.2014, 04:44    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

Er_Win hat folgendes geschrieben:
....
Genau darauf hob ich aber ab: der Faktor Mensch kürzt sich eben nicht weg, insbesondere wenn die zu lösende Aufgabe als auch die Werkzeuge eine gewisse Komplexität aufweisen. Die Sicht man könne im SW-Bereich die Frage der Lösungsqualität nur am Werkzeug festmachen bezeichne ich eben als "theoretisch"...

Weniger theoretisch sind dann *imho unsinnige Auswüchse dieser Einstellung die man ja hier auch lesen konnte - sinngemäß a'la: "Wer Excel verwendet ist kein Wissenschaftler"

Das sehe ich auch als Excel-Verabscheuer ähnlich:

Wenn jemand den Gegenstand, den er verwursten will, richtig durchdrungen hat und sein Werkzeug in seinen Grenzen kennt, ist es fast egal, womit er ihn verwurstet, wenn er nicht gerade ein Taschenmesser nehmen will, um einen Baum zu fällen.

Und gerade was die Analyse von Daten angeht, habe ich z.T. ganz andere Erfahrungen gemacht: Da werden tolle Pakete benutzt, weil andere es auch machen, da werden dann Ergebnisse veröffentlicht, die der Autor selbst nicht versteht, natürlich mit tollen Grafiken. Und wenn man das dann auseinander nimmt, kann es ohne weiteres passieren, dass man gemeinsam zu dem Ergebnis kommt, dass weder das Datenmaterial noch die Fragestellung für die verwendete Analyse gegeignet sind - macht aber nix, weil es gerade alle so machen. Wichtig ist nur, nicht durch das "falsche" Werkzeug aufzufallen.

fwo
_________________
Ich glaube an die Existenz der Welt in der ich lebe.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
>42<



Anmeldungsdatum: 31.01.2008
Beiträge: 1405
Wohnort: ja

Beitrag(#1925463) Verfasst am: 02.06.2014, 10:52    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

fwo hat folgendes geschrieben:

Und gerade was die Analyse von Daten angeht, habe ich z.T. ganz andere Erfahrungen gemacht: Da werden tolle Pakete benutzt, weil andere es auch machen, da werden dann Ergebnisse veröffentlicht, die der Autor selbst nicht versteht, natürlich mit tollen Grafiken. Und wenn man das dann auseinander nimmt, kann es ohne weiteres passieren, dass man gemeinsam zu dem Ergebnis kommt, dass weder das Datenmaterial noch die Fragestellung für die verwendete Analyse gegeignet sind - macht aber nix, weil es gerade alle so machen. Wichtig ist nur, nicht durch das "falsche" Werkzeug aufzufallen.

fwo


das deckt sich mit meinen überwiegenden Beobachtungen und ich würde sogar formulieren, dass die "Verherrlichung" der Methoden/Werkzeugqualität sehr gut mit der - am Problem gemessenen - Inkompetenz korreliert zwinkern
_________________
es genügt nicht keine eigene Meinung zu haben, man muss auch unfähig sein sie auszudrücken
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kival
Feminist Ghost



Anmeldungsdatum: 14.11.2006
Beiträge: 23548

Beitrag(#1925478) Verfasst am: 02.06.2014, 12:43    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

Er_Win hat folgendes geschrieben:
fwo hat folgendes geschrieben:

Und gerade was die Analyse von Daten angeht, habe ich z.T. ganz andere Erfahrungen gemacht: Da werden tolle Pakete benutzt, weil andere es auch machen, da werden dann Ergebnisse veröffentlicht, die der Autor selbst nicht versteht, natürlich mit tollen Grafiken. Und wenn man das dann auseinander nimmt, kann es ohne weiteres passieren, dass man gemeinsam zu dem Ergebnis kommt, dass weder das Datenmaterial noch die Fragestellung für die verwendete Analyse gegeignet sind - macht aber nix, weil es gerade alle so machen. Wichtig ist nur, nicht durch das "falsche" Werkzeug aufzufallen.

fwo


das deckt sich mit meinen überwiegenden Beobachtungen und ich würde sogar formulieren, dass die "Verherrlichung" der Methoden/Werkzeugqualität sehr gut mit der - am Problem gemessenen - Inkompetenz korreliert zwinkern


Welche Methoden und Werkzeuge werden denn so verherrlicht, wo dann die Inkompetenz entsprechend mit einhergeht?
_________________
"A basic literacy in statistics will one day be as necessary for efficient citizenship as the ability to read and write." (angeblich H. G. Wells)
"The consent of the governed is not consent if it is not informed." (Edward Snowden)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
>42<



Anmeldungsdatum: 31.01.2008
Beiträge: 1405
Wohnort: ja

Beitrag(#1925485) Verfasst am: 02.06.2014, 13:09    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

Kival hat folgendes geschrieben:

Welche Methoden und Werkzeuge werden denn so verherrlicht, wo dann die Inkompetenz entsprechend mit einhergeht?


das Prinzip ist da von Werkzeug/Methode ziemlich unabhängig, soferne jene im durch die (wissenschaftliche/unternehmerische) Leitung bzw. auch Fachmagazinen vorgegebenen Meinungskontext als "state-of-the-art" gelten.

Beim schnellen Nachdenken (so bzgl. einem Zeitraum von ca. 25 Jahren) habe ich das schon bzgl. IBM, SAP, Oracle, Unix (bzw.Derivate), OOP erlebt, als auch insbesondere im Methodenbereich bzgl. div. Tools oder auch Methodenhandbücher zum SW-Engineering und QS-Management.
_________________
es genügt nicht keine eigene Meinung zu haben, man muss auch unfähig sein sie auszudrücken
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kival
Feminist Ghost



Anmeldungsdatum: 14.11.2006
Beiträge: 23548

Beitrag(#1925487) Verfasst am: 02.06.2014, 13:17    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

Er_Win hat folgendes geschrieben:
Kival hat folgendes geschrieben:

Welche Methoden und Werkzeuge werden denn so verherrlicht, wo dann die Inkompetenz entsprechend mit einhergeht?


das Prinzip ist da von Werkzeug/Methode ziemlich unabhängig, soferne jene im durch die (wissenschaftliche/unternehmerische) Leitung bzw. auch Fachmagazinen vorgegebenen Meinungskontext als "state-of-the-art" gelten.


Ich glaube nicht, dass ich das so bestätigen kann für die Bereiche, in denen ich mich auskenne. Aber dazu ein andermal mehr, muss jetzt gerade erstmal selber was erledigen.

Zitat:
Beim schnellen Nachdenken (so bzgl. einem Zeitraum von ca. 25 Jahren) habe ich das schon bzgl. IBM, SAP, Oracle, Unix (bzw.Derivate), OOP erlebt, als auch insbesondere im Methodenbereich bzgl. div. Tools oder auch Methodenhandbücher zum SW-Engineering und QS-Management.


Okay, in dem Bereich habe ich selber so gut wie keine Ahnung, da schaut es dann vielleicht wirklich so aus.
_________________
"A basic literacy in statistics will one day be as necessary for efficient citizenship as the ability to read and write." (angeblich H. G. Wells)
"The consent of the governed is not consent if it is not informed." (Edward Snowden)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
>42<



Anmeldungsdatum: 31.01.2008
Beiträge: 1405
Wohnort: ja

Beitrag(#1925488) Verfasst am: 02.06.2014, 13:41    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

Kival hat folgendes geschrieben:

Zitat:
Beim schnellen Nachdenken (so bzgl. einem Zeitraum von ca. 25 Jahren) habe ich das schon bzgl. IBM, SAP, Oracle, Unix (bzw.Derivate), OOP erlebt, als auch insbesondere im Methodenbereich bzgl. div. Tools oder auch Methodenhandbücher zum SW-Engineering und QS-Management.


Okay, in dem Bereich habe ich selber so gut wie keine Ahnung, da schaut es dann vielleicht wirklich so aus.


Es scheint mir auch direkt korreliert mit der Projektgrösse bzw. Anzahl Mitwirkender zu sein. Bei "kleinen" wissenschaftlichen Forschungsteams (<=10) sowie spezieller Software wie dem von dir erwähnten SPSS oder Mathlab, COMSOL dürfte die Problemkompetenz insgesamt gesehen doch um einiges besser sein, als bei Teamgrössen >> 100.
_________________
es genügt nicht keine eigene Meinung zu haben, man muss auch unfähig sein sie auszudrücken
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
step
registrierter User



Anmeldungsdatum: 17.07.2003
Beiträge: 19649
Wohnort: Germering

Beitrag(#1925490) Verfasst am: 02.06.2014, 13:50    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

Kival hat folgendes geschrieben:
Er_Win hat folgendes geschrieben:
Beim schnellen Nachdenken (so bzgl. einem Zeitraum von ca. 25 Jahren) habe ich das schon bzgl. IBM, SAP, Oracle, Unix (bzw.Derivate), OOP erlebt, als auch insbesondere im Methodenbereich bzgl. div. Tools oder auch Methodenhandbücher zum SW-Engineering und QS-Management.
Okay, in dem Bereich habe ich selber so gut wie keine Ahnung, da schaut es dann vielleicht wirklich so aus.

Die Auswahl von Tools wird in größeren Unternehmen oft nur sekundär durch technische Kriterien (Features, Benutzbarkeit, Performance usw.) bestimmt. Häufig haben die IT-Abteilungen, die die Auswahl treffen, völlig andere primäre Vorgaben, u.a. jahrzehntelange Wartbarkeit / Support, so daß etwa Open Source SW, und sei sie noch so gut, von vornherein ausgeschlossen wird. Dazu kommen auch Überlegungen der Art, daß etwa Datenbanken Schnittstellen haben müssen, die eine Verschlüsselung erlauben, die Wirtschaftsspionage (v.a. seitens der USA, zunehmend auch China) schwierig macht.

Zum Thema Evaluation von Tools durch die SW-Entwickler selbst kann ich aus eigener Erfahrung sagen, daß es bei diesem Vorgehen typischerweise mehr Meinungen als Entwickler gibt, der Streit nimmt teilweise religiöse Züge an. Generell neigen auch manche Entwickler dazu, die jeweils vorhandenen Tools als unfähig und Wurzel allen Übels zu verteufeln.
_________________
Was ist der Sinn des Lebens? - Keiner, aber Leere ist Fülle für den, der sie sieht.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
fwo
Jammerlappen 4.0



Anmeldungsdatum: 05.02.2008
Beiträge: 14886
Wohnort: nicht fest

Beitrag(#1925502) Verfasst am: 02.06.2014, 15:39    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

Er_Win hat folgendes geschrieben:
Kival hat folgendes geschrieben:

Zitat:
Beim schnellen Nachdenken (so bzgl. einem Zeitraum von ca. 25 Jahren) habe ich das schon bzgl. IBM, SAP, Oracle, Unix (bzw.Derivate), OOP erlebt, als auch insbesondere im Methodenbereich bzgl. div. Tools oder auch Methodenhandbücher zum SW-Engineering und QS-Management.


Okay, in dem Bereich habe ich selber so gut wie keine Ahnung, da schaut es dann vielleicht wirklich so aus.


Es scheint mir auch direkt korreliert mit der Projektgrösse bzw. Anzahl Mitwirkender zu sein. Bei "kleinen" wissenschaftlichen Forschungsteams (<=10) sowie spezieller Software wie dem von dir erwähnten SPSS oder Mathlab, COMSOL dürfte die Problemkompetenz insgesamt gesehen doch um einiges besser sein, als bei Teamgrössen >> 100.

Auch nicht unbedingt. Ich bin ja schon länger (bis auf gelegentliche klammheimliche Beratungen) aus der Wissenschaft raus, aber wenn sich die Menschheit und mit ihr ihre Wissenschaftler nicht grundlegend geändert hat bzw. haben, dann unterscheiden die sich von den Wiwis "draußen im Leben" nur in ihrer Ehrlichkeit, mit der die ihre Hauptaufgaben definieren: Tarnen, Täuschen, Nebel werfen. Meine Erfahrungen in der Wissenschaft stammen aus kleinen Teams (Biologen), und die Pakete, die da Standard wurden, nachdem am Anfang nur diejenigen, die wussten was sie machten, ihren Kram selbst programmiert haben, hießen Havardgraphics, dann Statgraphics, dann NTSYS und SPSS, und es war oft genug, dass die Leute eben nicht genau wussten, was die Zahlen und Bilder, die diese Pakete aus ihren Datenfriedhöfen machten, aussagten, bzw. ob sie bei der vorhandenen Datenlage überhaupt etwas aussagen konnten. Die jeweile Methodik wurde in der Regel nur damit begründet, dass das jetzt Standard sei. Und ich schreibe hier von Diplomanden, Doktoranden und Profs. Von solchen Sachen, dass sich jemand vorher methodische Gedanken zu seiner Datenerhebung machte, wenn es dazu keine detaillierte Vorgabe gab, will ich gar nicht reden.

Was ich aber nicht unterschlagen will, ist dass auch in derartigen Umgebungen Fortschritte gemacht werden. So haben sich heute auch parameterfreie Methoden durchgesetzt, wobei ich aber davon ausgehe, dass nicht jeder, der sie benutzt, weiß warum. Mein persönliches Highlight in dieser Hinsicht war der Entwurf einer Statistik für ein medizinisches Arbeitsgebiet aus der spezifisch medizinischen Sicht der Dissertation, nachdem der Doktorvater, ein Jetsetter, der mindestens einmal im Monat bei der WHO zu referieren pflegte, nicht mehr weiter wusste. Und es war etwas, was sich an einem Abend bei einer Flasche Rotwein erledigen ließ. Das Dilemma war aber typisch für das hier besprochene Thema: Für einen Mediziner bedeutet Statistik eine Ansammlung von Mittelwerten, die nichts mit Medizin zu tun haben.

fwo
_________________
Ich glaube an die Existenz der Welt in der ich lebe.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kival
Feminist Ghost



Anmeldungsdatum: 14.11.2006
Beiträge: 23548

Beitrag(#1925550) Verfasst am: 02.06.2014, 18:05    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

Er_Win hat folgendes geschrieben:
Kival hat folgendes geschrieben:

Zitat:
Beim schnellen Nachdenken (so bzgl. einem Zeitraum von ca. 25 Jahren) habe ich das schon bzgl. IBM, SAP, Oracle, Unix (bzw.Derivate), OOP erlebt, als auch insbesondere im Methodenbereich bzgl. div. Tools oder auch Methodenhandbücher zum SW-Engineering und QS-Management.


Okay, in dem Bereich habe ich selber so gut wie keine Ahnung, da schaut es dann vielleicht wirklich so aus.


Es scheint mir auch direkt korreliert mit der Projektgrösse bzw. Anzahl Mitwirkender zu sein. Bei "kleinen" wissenschaftlichen Forschungsteams (<=10) sowie spezieller Software wie dem von dir erwähnten SPSS oder Mathlab, COMSOL dürfte die Problemkompetenz insgesamt gesehen doch um einiges besser sein, als bei Teamgrössen >> 100.


Bei SPSS besteht im allgemeinen überhaupt keine Programmierkompetenz (die SPSS-Syntax"sprache" ist grottig und man muss dann entweder gleich noch eine extra Skriptsprache, SQL und noch irgendeine zusätzliche Matrixprogrammiersprache, die ich jetzt nichtmal kenne, lernen oder das machen, was die meisten kompetenteren Marktforscher usw. mittlerweile machen, wenn sie denn SPSS benutzen: Python über ein Plugin verwenden).

oder das machen, was die meisten ernsthafteren Forscher . Klicki-Bunti, juhu! Dann eher bei R, Mathlab, COMSOL vermutlich, wobei ich das jetzt nicht selber kenne. Stata und SAS sind so ein Zwischending. Mehr mit bissl mehr Zeit ...
_________________
"A basic literacy in statistics will one day be as necessary for efficient citizenship as the ability to read and write." (angeblich H. G. Wells)
"The consent of the governed is not consent if it is not informed." (Edward Snowden)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Er_Win
>42<



Anmeldungsdatum: 31.01.2008
Beiträge: 1405
Wohnort: ja

Beitrag(#1925675) Verfasst am: 03.06.2014, 11:53    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

fwo hat folgendes geschrieben:

Zitat:
Es scheint mir auch direkt korreliert mit der Projektgrösse bzw. Anzahl Mitwirkender zu sein. Bei "kleinen" wissenschaftlichen Forschungsteams (<=10) sowie spezieller Software wie dem von dir erwähnten SPSS oder Mathlab, COMSOL dürfte die Problemkompetenz insgesamt gesehen doch um einiges besser sein, als bei Teamgrössen >> 100.

Auch nicht unbedingt. Ich bin ja schon länger (bis auf gelegentliche klammheimliche Beratungen) aus der Wissenschaft raus, aber wenn sich die Menschheit und mit ihr ihre Wissenschaftler nicht grundlegend geändert hat bzw. haben, dann unterscheiden die sich von den Wiwis "draußen im Leben" nur in ihrer Ehrlichkeit, mit der die ihre Hauptaufgaben definieren: Tarnen, Täuschen, Nebel werfen.

[...]


echt so schlimm Geschockt

Naja, meine überwiegenden Erfahrungen im techn.Uni-Umfeld waren so, dass Untersuchungsobjekt = Werkzeug war. Vielleicht liegt daran mein subjektiver Eindruck, dass es dabei weniger "gefühlte Inkompetenz" gab.

Aber auch i.d. Wirtschaft/Forschung sind mir Teams untergekommen (meist allerdings <= 5 Personen) denen es nicht um "Tarnen, Täuschen, Nebel werfen" ging ... zwinkern
_________________
es genügt nicht keine eigene Meinung zu haben, man muss auch unfähig sein sie auszudrücken
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
fwo
Jammerlappen 4.0



Anmeldungsdatum: 05.02.2008
Beiträge: 14886
Wohnort: nicht fest

Beitrag(#1925681) Verfasst am: 03.06.2014, 12:42    Titel: Re: Excel und Datenanalysen Antworten mit Zitat

Er_Win hat folgendes geschrieben:
fwo hat folgendes geschrieben:

Zitat:
Es scheint mir auch direkt korreliert mit der Projektgrösse bzw. Anzahl Mitwirkender zu sein. Bei "kleinen" wissenschaftlichen Forschungsteams (<=10) sowie spezieller Software wie dem von dir erwähnten SPSS oder Mathlab, COMSOL dürfte die Problemkompetenz insgesamt gesehen doch um einiges besser sein, als bei Teamgrössen >> 100.

Auch nicht unbedingt. Ich bin ja schon länger (bis auf gelegentliche klammheimliche Beratungen) aus der Wissenschaft raus, aber wenn sich die Menschheit und mit ihr ihre Wissenschaftler nicht grundlegend geändert hat bzw. haben, dann unterscheiden die sich von den Wiwis "draußen im Leben" nur in ihrer Ehrlichkeit, mit der die ihre Hauptaufgaben definieren: Tarnen, Täuschen, Nebel werfen.

[...]


echt so schlimm Geschockt

Naja, meine überwiegenden Erfahrungen im techn.Uni-Umfeld waren so, dass Untersuchungsobjekt = Werkzeug war. Vielleicht liegt daran mein subjektiver Eindruck, dass es dabei weniger "gefühlte Inkompetenz" gab.

Aber auch i.d. Wirtschaft/Forschung sind mir Teams untergekommen (meist allerdings <= 5 Personen) denen es nicht um "Tarnen, Täuschen, Nebel werfen" ging ... zwinkern

Diese (Selbst-)Charakterisierung betrifft die Vertriebsleute unter den Beratern, die auch meist davon leben, dass sie nicht umsetzten müssen, was sie verkaufen. Ansonsten leben sie davon, dass sich ihre Boni meist am Umsatz orientieren, den sie erwirtschaften und nicht am Gewinn.

Ansonsten ist das Problem, das ich beschrieben habe, ein grundsätzliches überall dort, wo Mathematik zwar als Werkzeug unerlässlich aber selbst nicht wirklich Gegenstand ist und deshalb auch nicht zur Denkweise werden kann. Das ist mir schon während des Studiums sowohl innerhalb der mathematischen Veranstaltungen für Biologen aufgefallen als auch in den mathematischen Seminaren, in den ich mich zu meinem Vergnügen rumgetrieben habe. Da bin ich nämlich z.T. den Wirtschaftsmathematikern (und Informatikern) begegnet, die sich unter maximaler Berührungsvermeidung durch diese Pflichtveranstaltungen hangelten.

fwo
_________________
Ich glaube an die Existenz der Welt in der ich lebe.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
smallie
Esel



Anmeldungsdatum: 02.04.2010
Beiträge: 1292

Beitrag(#1925764) Verfasst am: 03.06.2014, 22:45    Titel: Antworten mit Zitat

Er_Win hat folgendes geschrieben:
Naja, dann habe ich eben nicht genau gelesen ... Mit den Augen rollen

Genau darauf hob ich aber ab: der Faktor Mensch kürzt sich eben nicht weg, insbesondere wenn die zu lösende Aufgabe als auch die Werkzeuge eine gewisse Komplexität aufweisen. Die Sicht man könne im SW-Bereich die Frage der Lösungsqualität nur am Werkzeug festmachen bezeichne ich eben als "theoretisch"...

Meine Sicht wäre eher, daß man mit dem falschen Werkzeug nicht weit oder nur langsam vorwärts kommt.

Der Faktor Software und der Faktor Mensch sind offensichtlich orthogonal. Eine weitere orthogonale Achse wäre, wie leistungsfähig die verfügbare Hardware ist.


fwo hat folgendes geschrieben:
Wenn jemand den Gegenstand, den er verwursten will, richtig durchdrungen hat und sein Werkzeug in seinen Grenzen kennt, ist es fast egal, womit er ihn verwurstet, wenn er nicht gerade ein Taschenmesser nehmen will, um einen Baum zu fällen.

Fast. In der Mehrzahl aller Fälle wird man Motorsägen nutzen, um Bäume zu fällen. Oder Harvester, um Bäume großräumig zu fällen. Pfeifen


Ich halte mich an Edsger W. Dijkstra.

Zitat:
The Humble Programmer 1972

We should confine ourselves to intellectually manageable programs.

http://c2.com/cgi/wiki?TheHumbleProgrammer
https://www.cs.utexas.edu/users/EWD/ewd03xx/EWD340.PDF [PDF]


Ich finde es schwer, einen nicht-trivialen Gegenstand völlig zu durchdringen.

Da bin ich nicht der Einzige. Siehe obigen Excel-STDEV-Bug. Oder siehe Bentley, Programming Pearls. Bentley schreibt, daß der erste binäre Suchalgorithmus in den 50ern vorgestellt wurde. Es dauerte ein paar Jahrzehnte, bis der erste funktionierende Algorithmus vorgestellt wurde. Pikanterweise ging vor kurzem durch die Blogosphäre, daß Bentleys Algorithmus falsch ist. Dabei fällt das im ersten Augenschein unter die Rubrik triviales Problem. Pfeifen

Der einzige Weg scheint mir zu sein, Komplexität zu verringern durch mehr Abstraktion. Das war auch der historische Weg von Maschinensprache über Assembler, Hochsprachen mit GOTOs, strukturierte Programmierung, OOP, Entwurfsmuster.


Er_Win hat folgendes geschrieben:
Kival hat folgendes geschrieben:

Welche Methoden und Werkzeuge werden denn so verherrlicht, wo dann die Inkompetenz entsprechend mit einhergeht?


das Prinzip ist da von Werkzeug/Methode ziemlich unabhängig, soferne jene im durch die (wissenschaftliche/unternehmerische) Leitung bzw. auch Fachmagazinen vorgegebenen Meinungskontext als "state-of-the-art" gelten.

Beim schnellen Nachdenken (so bzgl. einem Zeitraum von ca. 25 Jahren) habe ich das schon bzgl. IBM, SAP, Oracle, Unix (bzw.Derivate), OOP erlebt, als auch insbesondere im Methodenbereich bzgl. div. Tools oder auch Methodenhandbücher zum SW-Engineering und QS-Management.

Schade, daß du keine konkreten Methoden nennst. Die Aussage, daß in den letzten 25 Jahren auch Unsinn verzapft wurde, ist zweifellos richtig. Die Frage bleibt, ob wir an den gleichen Unsinn denken.


Die Prinzipien für gutes SW-Engineering scheinen mir naheliegend:

- DRY, do not reapeat yourself. Daraus folgt alles andere. Daraus folgen die Entwurfsmuster der Gang of Four, daraus folgt der Verzicht auf Literale im Code, ...
- Single responsibility principle. Jede Prozedur, jede Methode, jede Klasse sollte genau eine Aufgabe übernehmen.
- Nicht hart-codieren. Konfigurieren. Wer business-logic hartcodiert, hat sich selbst in einer Ecke festgemauert.
- Und natürlich KISS - keep it simple.
- ...


Man muß nicht alles glauben was in Büchern steht, man muß nicht jeden Hype mitmachen. In den letzten 25 Jahren ist doch einiges vernünftige passiert.

Manche treiben ihren Purismus bis zur Sinnlosigkeit, andere verweigern sich selbst den naheliegendsten Prinzipien.
_________________
"There are two hard things in computer science: cache invalidation, naming things, and off-by-one errors."
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kival
Feminist Ghost



Anmeldungsdatum: 14.11.2006
Beiträge: 23548

Beitrag(#1951437) Verfasst am: 19.09.2014, 15:43    Titel: Antworten mit Zitat

http://andrewgelman.com/2014/09/19/never-happened-r-markdown/

Zitat:


To put it another way, sloppy data handling gives researchers yet another “degree of freedom” (to use Uri Simonsohn’s term) and biases claims to be more dramatic. Think about it. There are three options:

1. If you make no data errors, fine.

2. If you make an inadvertent data error that works against your favored hypothesis, you look at the data more carefully and you find the error, going back to the correct dataset.

3. But if you make an inadvertent data error that supports your favored hypothesis (as happened to Reinhart, Rogoff, and Tol), you have no particular motivation to check, and you just go for it.

Put these together and you get a systematic bias in favor of your hypothesis.

Science is degraded by looseness in data handling, just as it is degraded by looseness in thinking. This is one reason that I agree with Dean Baker that the Excel spreadsheet error was worth talking about and was indeed part of the bigger picture.


http://www.cepr.net/index.php/publications/testimony/baker-rethinking-economics-2014-09-14

Zitat:


The response of the economics profession to this error and its exposure was instructive. To a large extent there was a rallying around Reinhart and Rogoff, two prominent Harvard economists who established their reputations with a long track record of publications in top journals. It was as though HAP had been wrong to drag down the names of such well-regarded economists over a simple spreadsheet error.

Betsey Stevenson and Justin Wolfers gave us an example of this attitude in a piece in which they “refereed” the debate. They told readers:

“It has been disappointing to watch those on the left seize on the embarrassing Excel errors but ignore this bigger picture.”[3]

Of course we all make mistakes and no one would like to be publicly embarrassed over having once inaccurately copied numbers in an Excel spreadsheet. But perspective is desperately needed here. The Excel spreadsheet error was the reason the debate was taking place. Reinhart and Rogoff would not ordinarily be responding to criticisms from two University of Massachusetts professors and their grad student. If this had been a debate just over the correct aggregation method or econometric techniques, it would never have gotten far beyond the PERI website. Few people without advanced training in economics would follow that debate, but everyone can understand an Excel spreadsheet error.

_________________
"A basic literacy in statistics will one day be as necessary for efficient citizenship as the ability to read and write." (angeblich H. G. Wells)
"The consent of the governed is not consent if it is not informed." (Edward Snowden)
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
mat-in
registrierter User



Anmeldungsdatum: 03.12.2011
Beiträge: 480

Beitrag(#1951507) Verfasst am: 19.09.2014, 18:27    Titel: Antworten mit Zitat

Wenn Excel sich wenigstens nicht so grob verrechnen würde... aber so wie es steht nutzen die Leute ja ein Programm, dass mal geschrieben wurde um eine Handwerkerrechnung zu erstellen um wissenschaftliche Daten zu analysieren... *kopfschüttel*

The accuracy of statistical distributions in Microsoft® Excel 2007
http://www.sciencedirect.com/science/article/pii/S0167947308001618
Zitat:
Meanwhile, researchers should continue to avoid using the statistical functions in Excel 2007 for any scientific purpose.


(oder ist das tatsächlich besser geworden? Ich hab es so lange nicht mehr benutzt)

Es gibt doch kostengünstigere, bessere Software...
_________________
Holz ist ein nachwachsender Rohstoff - auch in den Köpfen der Leute.
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden ICQ-Nummer
Beiträge der letzten Zeit anzeigen:   
Neues Thema eröffnen   Neue Antwort erstellen   Drucker freundliche Ansicht    Freigeisterhaus Foren-Übersicht -> Wissenschaft und Technik Alle Zeiten sind GMT + 1 Stunde
Seite 1 von 1

 
Gehe zu:  
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.



Disclaimer / Impressum


Powered by phpBB © 2001, 2005 phpBB Group