Da ChatGPT dies nicht kann, kann es kein Autor sein, sagt Thorp.
Aber selbst die Verwendung von ChatGPT bei der Erstellung einer Arbeit sei problematisch, glaubt er

Andere Verlage haben ähnliche Änderungen vorgenommen.
Elsevier, das etwa 2.800 Zeitschriften herausgibt, darunter Cell und The Lancet, vertritt eine ähnliche Haltung wie Springer-Nature. Da ChatGPT dies nicht kann, kann es kein Autor sein, sagt Thorp.
Aber selbst die Verwendung von ChatGPT bei der Erstellung einer Arbeit sei problematisch, glaubt er. Das Tool und andere ähnliche können weiterhin bei der Erstellung von Papieren verwendet werden, vorausgesetzt, dass alle Details im Manuskript offengelegt werden.
„Die spezifische Entwicklung, auf die wir unbedingt reagieren mussten, war die Tatsache, dass das Tool so ziemlich plötzlich als Co-Autor auftauchte", sagte Magdalena Skipper, Chefredakteurin von Nature.
Alex Herns wöchentlicher Tauchgang darüber, wie Technologie unser Leben prägt
Datenschutzhinweis: Newsletter können Informationen über Wohltätigkeitsorganisationen, Online-Anzeigen und von Dritten finanzierte Inhalte enthalten. Wir verwenden Google reCaptcha zum Schutz unserer Website und es gelten die Datenschutzbestimmungen und Nutzungsbedingungen von Google.Skipper glaubt, dass ChatGPT und ähnliche KI-Tools mit den richtigen Leitplanken für die Wissenschaft von Vorteil sein könnten, nicht zuletzt bei der Angleichung der Wettbewerbsbedingungen für Nicht-Muttersprachler, die KI-Programme verwenden könnten, um die Sprache in ihren Arbeiten flüssiger zu machen. „Ich denke, die bessere Frage ist nicht, ob man es erlaubt, sondern wie man damit umgeht, dass es benutzt wird", sagte er. Am Dienstag hat Springer-Nature, das fast 3.000 Zeitschriften herausgibt, seine Richtlinien aktualisiert und erklärt, dass ChatGPT nicht als Autor aufgeführt werden kann. „Zumindest für den Moment ist es am wichtigsten, dass die Autoren sehr offen über seine Verwendung sprechen und beschreiben, wie es verwendet wurde, und dass wir klarstellen, dass sie mit der Verwendung des Tools die Verantwortung für seine Ergebnisse übernehmen."
Sandra Wachter, Professorin für Technologie und Regulierung an der University of Oxford, sagte: „Es ist großartig zu sehen, dass Verlage aktiv werden. ChatGPT ermöglicht es, Ecken und Kanten zu kürzen, und dies ist besonders beunruhigend, wenn der vorgeschlagene Inhalt nicht streng doppelt überprüft, sondern nur als korrekt angenommen wird.
Die Herausgeber von Tausenden von wissenschaftlichen Zeitschriften haben die Verwendung eines fortschrittlichen KI-gesteuerten Chatbots durch Mitwirkende verboten oder eingeschränkt, da sie befürchten, dass er die akademische Literatur mit fehlerhaften und sogar erfundenen Forschungsergebnissen übersäten könnte.
ChatGPT, ein flüssiger, aber schwammiger Chatbot, der von OpenAI in Kalifornien entwickelt wurde, hat seit seiner Einführung im November mehr als eine Million menschliche Benutzer beeindruckt oder beunruhigt, indem er Gedichte, Kurzgeschichten, Essays und sogar persönliche Ratschläge herausgerasselt hat.
Aber während sich der Chatbot als riesiger Spaß erwiesen hat – seine Lösung, wie man ein Erdnussbutter-Sandwich aus einem Videorecorder im Stil der King-James-Bibel befreit, ist ein bemerkenswerter Erfolg – kann das Programm auch gefälschte wissenschaftliche Zusammenfassungen produzieren, die das sind überzeugend genug, um menschliche Rezensenten zu täuschen.
Die legitimeren Verwendungen von ChatGPT bei der Vorbereitung von Artikeln haben bereits dazu geführt, dass es als Co-Autor einer Handvoll Artikel genannt wird.
Die plötzliche Ankunft von ChatGPT hat unter den Publishern zu einer Reaktion geführt. Dies kann zu Fehlinformationen und Junk Science führen. Weitere Informationen finden Sie in unserer Datenschutzerklärung. Seine Richtlinien erlauben die Verwendung von KI-Tools, „um die Lesbarkeit und Sprache des Forschungsartikels zu verbessern, aber nicht um Schlüsselaufgaben zu ersetzen, die von den Autoren erledigt werden sollten, wie das Interpretieren von Daten oder das Ziehen wissenschaftlicher Schlussfolgerungen", sagte Andrew Davis von Elsevier und fügte hinzu dass Autoren angeben müssen, ob und wie sie KI-Tools verwendet haben.
Michael Eisen, der Chefredakteur von eLife, sagte, ChatGPT könne kein Autor sein, aber er sehe seine Übernahme als unvermeidlich an. Am Donnerstag kündigte Holden Thorp, der Chefredakteur der führenden US-Zeitschrift Science, eine aktualisierte Redaktionsrichtlinie an, die die Verwendung von Texten aus ChatGPT untersagt und klarstellt, dass das Programm nicht als Autor aufgeführt werden könne.
„Angesichts der Aufregung, die sich darum entwickelt hat, ist es eine gute Idee, absolut klarzustellen, dass wir ChatGPT nicht erlauben werden, ein Autor zu sein oder seinen Text in Zeitungen zu verwenden", sagte Thorp.
Führende wissenschaftliche Zeitschriften verlangen von den Autoren, dass sie ein Formular unterzeichnen, in dem sie erklären, dass sie für ihren Beitrag zur Arbeit verantwortlich sind Wissenschaftszeitschriften verbieten die Auflistung von ChatGPT als Co-Autor auf Artikeln | Peer Review und wissenschaftliches Publizieren
Kommentare
Kommentar veröffentlichen