[维度]AI 的死循环

文章时间: 2025-7-20 周日, 上午9:40

作者:巫朝晖 JEFFI CHAO HUI WU

我每天都在看着这个世界,用着越来越强的芯片、越来越大的计算力、越来越复杂的AI模型,去训练出一个个看起来“更聪明”的系统。但越看,我越清楚地感觉到:它们已经陷入死循环了,而大多数人还在为它加油、升级、推崇。

这个“死循环”,不是技术错误,而是结构失衡。AI本来是为了帮助人类更高效地处理信息,结果却变成了加速制造泡沫的机器。一边是最强的计算力,一边是平台上日复一日推送的假吃播、擦边舞、挑战赛。这些内容消耗了巨量存储和能源,却几乎没有信息价值。更可怕的是,AI开始用这些内容训练自己,再生成更大批量的低质量内容——就像是用“假话”训练AI说更多“假话”。如此循环,最后AI自己都分不清真与假,人类也被这种趋势绑架着不断退化。

AI的死循环,本质不是内容问题,而是结构闭环问题。输入是低质量信息,处理是基于统计的重组,输出再反过来成为新的训练数据。整个系统形成了一个自我强化的封闭结构,在这个结构中,信息不是被筛选和提纯,而是在不断被稀释和放大。计算力越强,这种循环越快,最终形成的是“规模化的低价值复制”,而不是认知提升。

我不是在空谈未来风险。早在1993年,我就用Excel搭建过一个实际运行的跨国物流系统,用非常简单的架构,实现了当时业内都做不到的精准调度和责任判断。那时没有大数据、没有AI,靠的就是结构、路径和实证。而现在的AI系统,表面看起来很复杂,背后却是低效堆砌和缺乏结构优化。它们有能力抓关键词、有能力分出情绪,但你问它:这事背后有什么因果关系?这段话的逻辑结构在哪里?它说不出来,只能继续“模仿”你说过的话,一遍遍重组。

如今AI的发展,不是“训练更强”,而是“吃得更多”。大量视频、文章被塞进AI系统当“食物”,而这些“食物”很多只是重复信息,没有深度,甚至没有事实。这不是AI一个模型的问题,而是整个AI生态在走偏:我们投入越多计算资源,得到的价值反而越来越少。真正有价值的内容越来越难被找到,而大量重复制造的内容却源源不断地霸占平台。

而人类在这个过程中,也逐渐丧失了思考能力。越来越多的人开始依赖AI写文章、做简报、甚至下判断。表面上节省时间,实际上是逐步丧失了表达能力、结构能力和判断能力。最终的结果,是一个人可能在几分钟内用AI写出几千字,却连一句有说服力、有逻辑的分析都难以靠自己完成。

我写作,不是为了流量,也不是为了发表感想。我写的每一篇文章,都是记录我的路径,是可以让别人复查、验证、思考的内容。就像我从没有主动去做SEO优化,但Google依然持续收录我的文字。这不是平台“给我面子”,而是说明这些文字本身就具备结构价值。

而现在的新AI,正在制造越来越多的视频、音频、伪对话、拼接图像,花掉的是我们的资源,扭曲的是我们的认知。信息看似越来越多,真正能留下来的却越来越少。我们把文明的“存储空间”,拿去存猫跳马桶的视频,却没有空间留下真实经验和有结构的思想。

这就是AI的死循环。不是它做错了,而是我们用错了它。

解决的办法不是全面否定AI,而是我们必须回到“写得出真实结构”的能力。不是为热度写,而是为理解写。不是为了复制表达,而是为了留下可以传承的路径。

AI可以越来越快,但人类必须越来越深!

来源:http://www.australianwinner.com/AuWinner/viewtopic.php?t=696962

[Dimension] The Death Loop of AI

Article Date: Sunday, July 20, 2025, 9:40 AM

Author: JEFFI CHAO HUI WU

I watch this world every day, using increasingly powerful chips, greater computing power, and more complex AI models to train systems that appear "smarter." But the more I observe, the more clearly I feel: they have already fallen into a deadlock, while most people are still cheering for it, upgrading it, and praising it.

This "vicious cycle" is not a technical error, but a structural imbalance. AI was originally intended to help humans process information more efficiently, but it has instead become a machine that accelerates the creation of bubbles. On one side is the most powerful computing power, and on the other side are the fake eating broadcasts, suggestive dances, and challenge competitions pushed on the platform day after day. These contents consume vast amounts of storage and energy, yet provide almost no informational value. Even more frightening is that AI has begun to train itself on this content, generating larger batches of low-quality content—it's like training AI to say more "falsehoods" using "falsehoods." In such a cycle, AI ultimately cannot distinguish between true and false, and humanity is also being held hostage by this trend, continuously regressing.

The deadlock of AI is not fundamentally a content issue, but rather a structural closed-loop problem. The input consists of low-quality information, the processing is based on statistical reorganization, and the output in turn becomes new training data. The entire system forms a self-reinforcing closed structure, in which information is not filtered and purified, but is continuously diluted and amplified. The stronger the computing power, the faster this cycle becomes, ultimately resulting in "scaled low-value replication," rather than cognitive enhancement.

I am not talking about future risks in vain. As early as 1993, I built a functioning multinational logistics system using Excel, achieving precise scheduling and accountability that the industry could not accomplish at that time with a very simple structure. Back then, there was no big data, no AI; it relied on structure, paths, and empirical evidence. Now, the AI systems may seem complex on the surface, but behind them is inefficient stacking and a lack of structural optimization. They have the ability to capture keywords and discern emotions, but if you ask them: what causal relationships are behind this? Where is the logical structure of this statement? They cannot articulate it; they can only continue to "mimic" what you have said, repeatedly reorganizing it.

The development of AI today is not about "training stronger" but rather about "consuming more." A large amount of videos and articles are fed into AI systems as "food," much of which consists of repetitive information, lacking depth and even facts. This is not just an issue with a single AI model, but rather the entire AI ecosystem is going astray: the more computational resources we invest, the less value we seem to obtain. Truly valuable content is becoming increasingly difficult to find, while a vast amount of repetitively produced content continuously dominates the platforms.

In this process, humanity has gradually lost its ability to think. More and more people are beginning to rely on AI to write articles, create presentations, and even make judgments. On the surface, this saves time, but in reality, it leads to a gradual loss of expressive ability, structural ability, and judgment ability. The final result is that a person may be able to use AI to write thousands of words in just a few minutes, yet struggle to complete even a single persuasive and logical analysis on their own.

I write not for traffic, nor to express my thoughts. Every article I write is a record of my journey, content that others can review, verify, and reflect upon. Just like I have never actively engaged in SEO optimization, yet Google continues to index my words. This is not the platform "doing me a favor," but rather an indication that these words inherently possess structural value.

The new AI is now creating more and more videos, audio, fake dialogues, and stitched images, consuming our resources and distorting our perceptions. Information seems to be increasing, but what truly remains is dwindling. We are using the "storage space" of civilization to save videos of cats jumping into toilets, yet we have no space left for real experiences and structured thoughts.

This is the death loop of AI. It's not that it did something wrong, but that we used it incorrectly.

The solution is not to completely deny AI, but rather we must return to the ability to "write with real structure." It is not about writing for popularity, but writing for understanding. It is not about replicating expressions, but about leaving behind a path that can be inherited.

AI can become faster and faster, but humans must become deeper and deeper!

Source: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696962

[Dimension] Le cycle mortel de l'IA

Date de l'article : 20 juillet 2025, dimanche, 9h40

Auteur : WU CHAO HUI JEFFI

Je regarde ce monde chaque jour, utilisant des puces de plus en plus puissantes, une capacité de calcul de plus en plus grande et des modèles d'IA de plus en plus complexes, pour entraîner des systèmes qui semblent "plus intelligents". Mais plus je regarde, plus je ressens clairement : ils sont déjà piégés dans un cycle sans fin, tandis que la plupart des gens continuent à les encourager, à les mettre à niveau et à les vénérer.

Ce "cercle vicieux" n'est pas une erreur technique, mais un déséquilibre structurel. L'IA était censée aider l'humanité à traiter l'information de manière plus efficace, mais elle est devenue une machine qui accélère la fabrication de bulles. D'un côté, il y a la puissance de calcul la plus forte, de l'autre, les contenus de faux livestreams de nourriture, de danses à la limite et de défis qui sont poussés jour après jour sur les plateformes. Ces contenus consomment d'énormes quantités de stockage et d'énergie, mais ont presque aucune valeur informationnelle. Ce qui est encore plus effrayant, c'est que l'IA commence à s'entraîner avec ces contenus, générant ainsi des masses encore plus grandes de contenus de faible qualité - comme si l'on entraînait l'IA à dire plus de "mensonges" avec des "mensonges". Dans ce cycle, à la fin, l'IA elle-même ne peut plus faire la différence entre le vrai et le faux, et l'humanité est également enchaînée par cette tendance, se dégradant continuellement.

Le cercle vicieux de l'IA n'est pas essentiellement un problème de contenu, mais un problème de boucle structurelle. L'entrée est constituée d'informations de faible qualité, le traitement est une réorganisation basée sur des statistiques, et la sortie devient à son tour de nouvelles données d'entraînement. L'ensemble du système forme une structure fermée auto-renforçante, dans laquelle l'information n'est pas filtrée et purifiée, mais constamment diluée et amplifiée. Plus la puissance de calcul est forte, plus ce cycle est rapide, et ce qui en résulte est une "copie à faible valeur à grande échelle", et non une élévation cognitive.

Je ne parle pas des risques futurs de manière abstraite. Dès 1993, j'ai construit un système logistique multinational fonctionnel avec Excel, réalisant une planification précise et un jugement de responsabilité que personne dans l'industrie ne pouvait atteindre à l'époque, grâce à une architecture très simple. À cette époque, il n'y avait pas de big data, pas d'IA, mais seulement des structures, des chemins et des preuves empiriques. Et maintenant, les systèmes d'IA, à première vue très complexes, reposent en réalité sur une accumulation inefficace et un manque d'optimisation structurelle. Ils sont capables de saisir des mots-clés, capables de distinguer des émotions, mais si vous leur demandez : quelle est la relation de cause à effet derrière cela ? Où est la structure logique de cette phrase ? Ils ne peuvent pas le dire, ils ne peuvent que continuer à "imiter" ce que vous avez dit, en réorganisant encore et encore.

Aujourd'hui, le développement de l'IA ne consiste pas à "former des modèles plus puissants", mais à "ingérer plus de données". Une multitude de vidéos et d'articles sont introduits dans les systèmes d'IA comme "nourriture", et beaucoup de ces "aliments" ne sont que des informations répétées, sans profondeur, voire sans faits. Ce n'est pas un problème d'un seul modèle d'IA, mais l'ensemble de l'écosystème de l'IA qui s'égare : plus nous investissons de ressources de calcul, moins la valeur que nous en tirons est importante. Il devient de plus en plus difficile de trouver du contenu véritablement précieux, tandis qu'une quantité massive de contenu répétitif continue d'envahir les plateformes.

Et l'humanité, dans ce processus, a progressivement perdu sa capacité de réflexion. De plus en plus de personnes commencent à dépendre de l'IA pour écrire des articles, faire des présentations, voire porter des jugements. En apparence, cela fait gagner du temps, mais en réalité, cela entraîne une perte progressive de la capacité d'expression, de structuration et de jugement. Le résultat final est qu'une personne peut, en quelques minutes, écrire des milliers de mots avec l'IA, mais a du mal à produire elle-même une analyse convaincante et logique.

Je n'écris pas pour le trafic, ni pour exprimer des pensées. Chaque article que j'écris est un enregistrement de mon parcours, un contenu que les autres peuvent vérifier, valider et réfléchir. Tout comme je n'ai jamais cherché à faire du SEO, mais Google continue d'indexer mes écrits. Ce n'est pas la plateforme qui "me fait de l'honneur", mais cela montre que ces mots ont une valeur structurelle en eux-mêmes.

Et maintenant, la nouvelle IA produit de plus en plus de vidéos, d'audios, de faux dialogues et d'images montées, utilisant nos ressources et déformant notre perception. L'information semble de plus en plus abondante, mais ce qui reste vraiment est de plus en plus rare. Nous avons pris l'« espace de stockage » de la civilisation pour y mettre des vidéos de chats sautant dans des toilettes, mais nous n'avons pas d'espace pour conserver des expériences réelles et des pensées structurées.

C'est le cercle vicieux de l'IA. Ce n'est pas qu'elle ait tort, mais c'est que nous l'utilisons mal.

La solution n'est pas de nier complètement l'IA, mais de revenir à la capacité de "produire une structure réelle". Ce n'est pas écrire pour le buzz, mais écrire pour la compréhension. Ce n'est pas pour reproduire des expressions, mais pour laisser un chemin qui peut être transmis.

L'IA peut devenir de plus en plus rapide, mais l'humanité doit devenir de plus en plus profonde !

Source : http://www.australianwinner.com/AuWinner/viewtopic.php?t=696962

[Dimensión] El ciclo de muerte de la IA

Fecha del artículo: 20-7-2025 Domingo, 9:40 a.m.

Autor: WU CHAO HUI JEFFI CHAO HUI WU

Cada día miro este mundo, utilizando chips cada vez más potentes, capacidades de cálculo cada vez mayores y modelos de IA cada vez más complejos, para entrenar sistemas que parecen "más inteligentes". Pero cuanto más miro, más claramente siento: se han quedado atrapados en un ciclo sin fin, mientras la mayoría de la gente sigue animándolos, actualizándolos y alabándolos.

Este "ciclo vicioso" no es un error técnico, sino un desequilibrio estructural. La IA se creó para ayudar a los humanos a procesar información de manera más eficiente, pero se ha convertido en una máquina que acelera la fabricación de burbujas. Por un lado, está la potencia de cálculo más fuerte, y por el otro, el contenido de falsos "comidas en vivo", bailes al borde de la legalidad y desafíos que se empujan día tras día en la plataforma. Este contenido consume enormes cantidades de almacenamiento y energía, pero casi no tiene valor informativo. Lo más aterrador es que la IA comienza a entrenarse a sí misma con este contenido, generando así lotes aún mayores de contenido de baja calidad—es como si se entrenara a la IA con "mentiras" para que dijera más "mentiras". En este ciclo, al final la IA no puede distinguir entre lo verdadero y lo falso, y los humanos también son secuestrados por esta tendencia, degenerando continuamente.

El ciclo vicioso de la IA no es esencialmente un problema de contenido, sino un problema de estructura cerrada. La entrada es información de baja calidad, el procesamiento se basa en una reorganización estadística, y la salida se convierte nuevamente en nuevos datos de entrenamiento. Todo el sistema forma una estructura cerrada de auto-refuerzo, en la que la información no es filtrada y purificada, sino que se diluye y amplifica constantemente. Cuanto más potente es la capacidad de cálculo, más rápido es este ciclo, y lo que se forma al final es una "copia de bajo valor a gran escala", en lugar de un aumento cognitivo.

No estoy hablando en vano sobre los riesgos futuros. Ya en 1993, construí un sistema logístico multinacional en funcionamiento con Excel, logrando una programación precisa y un juicio de responsabilidad que en ese momento nadie en la industria podía alcanzar, utilizando una estructura muy simple. En ese entonces no había big data, ni IA, solo se basaba en la estructura, el camino y la evidencia. Y ahora, los sistemas de IA, a simple vista, parecen muy complejos, pero detrás de ellos hay una acumulación ineficiente y una falta de optimización estructural. Tienen la capacidad de captar palabras clave, de distinguir emociones, pero si les preguntas: ¿qué relaciones causales hay detrás de esto? ¿Dónde está la estructura lógica de esta frase? No pueden responder, solo pueden seguir "imitando" lo que has dicho, reestructurándolo una y otra vez.

Hoy en día, el desarrollo de la IA no se trata de "entrenar más fuerte", sino de "comer más". Una gran cantidad de videos y artículos son introducidos en los sistemas de IA como "comida", y gran parte de esta "comida" es solo información repetitiva, sin profundidad e incluso sin hechos. No es un problema de un solo modelo de IA, sino que todo el ecosistema de IA se está desviando: cuanto más recursos de cálculo invertimos, menos valor obtenemos. El contenido verdaderamente valioso se vuelve cada vez más difícil de encontrar, mientras que una gran cantidad de contenido repetido sigue ocupando las plataformas sin cesar.

Y los humanos, en este proceso, también han ido perdiendo gradualmente su capacidad de pensar. Cada vez más personas comienzan a depender de la IA para escribir artículos, hacer presentaciones e incluso emitir juicios. A primera vista, ahorra tiempo, pero en realidad se está perdiendo poco a poco la capacidad de expresión, la capacidad de estructuración y la capacidad de juicio. El resultado final es que una persona puede escribir miles de palabras con la IA en cuestión de minutos, pero le resulta difícil completar un análisis persuasivo y lógico por sí misma.

Escribo, no para obtener tráfico, ni para expresar mis pensamientos. Cada artículo que escribo es un registro de mi camino, un contenido que otros pueden revisar, verificar y reflexionar. Así como nunca he buscado hacer optimización SEO, pero Google sigue indexando mis palabras. Esto no es un "favor" de la plataforma, sino que indica que estas palabras tienen un valor estructural por sí mismas.

Y ahora la nueva IA está creando cada vez más videos, audios, diálogos falsos e imágenes montadas, gastando nuestros recursos y distorsionando nuestra percepción. La información parece ser cada vez más abundante, pero lo que realmente puede perdurar es cada vez menos. Estamos utilizando el "espacio de almacenamiento" de la civilización para guardar videos de gatos saltando al inodoro, pero no tenemos espacio para dejar experiencias reales y pensamientos estructurados.

Este es el ciclo de muerte de la IA. No es que ella esté equivocada, sino que nosotros la estamos utilizando mal.

La solución no es negar completamente la IA, sino que debemos volver a la capacidad de "escribir con una estructura real". No se trata de escribir por la popularidad, sino de escribir para la comprensión. No es para replicar expresiones, sino para dejar un camino que se pueda transmitir.

¡La IA puede volverse cada vez más rápida, pero los humanos deben volverse cada vez más profundos!

Fuente: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696962

[次元]AIの死のループ

記事の時間: 2025年7月20日 日曜日、午前9時40分

著者:巫朝晖 JEFFI CHAO HUI WU

私は毎日この世界を見つめており、ますます強力なチップ、ますます大きな計算能力、ますます複雑なAIモデルを使って、「より賢い」システムを訓練しています。しかし、見れば見るほど、私はますます明確に感じています:彼らはすでに死のループに陥っており、大多数の人々はそれを応援し、アップグレードし、称賛しています。

この「死のループ」は、技術的なエラーではなく、構造の不均衡です。AIは本来、人間が情報をより効率的に処理するために存在していましたが、結果としてバブルを加速させる機械になってしまいました。一方には最強の計算力があり、もう一方にはプラットフォーム上で日々配信される偽の食べ物配信やグレーゾーンのダンス、挑戦企画があります。これらのコンテンツは膨大なストレージとエネルギーを消費しますが、ほとんど情報価値がありません。さらに恐ろしいことに、AIはこれらのコンテンツを使って自らを訓練し、さらに大量の低品質なコンテンツを生成し始めました——まるで「嘘」を使ってAIにもっと「嘘」を言わせるようなものです。このようなループが続くと、最終的にはAI自身も真実と偽りを区別できなくなり、人間もこのトレンドに縛られてどんどん退化していくのです。

AIの死のループは、本質的にはコンテンツの問題ではなく、構造の閉じたループの問題です。入力は低品質の情報であり、処理は統計に基づく再構成で、出力は再び新しいトレーニングデータになります。全体のシステムは自己強化の閉じた構造を形成し、この構造の中では情報は選別されて精製されるのではなく、常に希釈されて拡大されます。計算能力が強ければ強いほど、このループは速くなり、最終的に形成されるのは「スケール化された低価値の複製」であり、認知の向上ではありません。

私は未来のリスクについて空論をしているわけではありません。1993年には、Excelを使って実際に稼働する国際物流システムを構築したことがあります。非常にシンプルな構造で、当時業界では実現できなかった精密なスケジューリングと責任判断を実現しました。その時はビッグデータもAIもなく、頼りにしていたのは構造、経路、そして実証でした。しかし、現在のAIシステムは一見複雑に見えますが、その背後には非効率な積み重ねと構造最適化の欠如があります。彼らはキーワードを捉える能力や感情を分ける能力を持っていますが、あなたが尋ねると、「この事の背後にはどんな因果関係があるのか?この文の論理構造はどこにあるのか?」と聞いても、答えることができず、ただあなたが言ったことを「模倣」し続け、何度も再構成するだけです。

現在のAIの発展は、「より強力な訓練」ではなく、「より多くを食べる」ことです。大量の動画や記事がAIシステムに「食べ物」として詰め込まれていますが、これらの「食べ物」の多くは単なる情報の繰り返しであり、深みもなく、事実すらありません。これはAIの一つのモデルの問題ではなく、全体のAIエコシステムが偏っているのです。私たちが計算リソースを投入すればするほど、得られる価値は逆に少なくなっています。本当に価値のあるコンテンツはますます見つけにくくなり、大量に繰り返し作られたコンテンツがプラットフォームを占拠し続けています。

人類はこの過程で、徐々に思考能力を失っていきました。ますます多くの人々がAIに文章を書かせたり、プレゼンテーションを作成させたり、さらには判断を下させたりするようになっています。一見時間を節約しているようですが、実際には表現能力、構造能力、判断能力を徐々に失っているのです。最終的な結果として、一人の人間が数分でAIを使って数千字を書くことができても、自分自身で説得力があり、論理的な分析を行うことが難しくなっています。

私は執筆するのは、流量のためでもなく、感想を発表するためでもありません。私が書くすべての記事は、私の道のりを記録したものであり、他の人が再確認し、検証し、考えることができる内容です。私はSEO最適化を積極的に行ったことはありませんが、Googleは依然として私の文章を継続的に収録しています。これはプラットフォームが「私に気を使っている」わけではなく、これらの文章自体が構造的価値を持っていることを示しています。

現在の新しいAIは、ますます多くの動画、音声、偽の対話、合成画像を作り出しており、私たちの資源を消費し、私たちの認識を歪めています。情報はますます増えているように見えますが、本当に残るものはますます少なくなっています。私たちは文明の「ストレージスペース」を猫がトイレを飛び越える動画に使ってしまい、真実の経験や構造的な思考を残すスペースがありません。

これがAIの死のループです。間違っているのはAIではなく、私たちがそれを使い方を間違えたのです。

解決策はAIを全面的に否定することではなく、「真実の構造を書ける」能力に戻る必要があります。熱意のために書くのではなく、理解のために書く。表現をコピーするためではなく、継承できる道を残すために。

AIはますます速くなることができますが、人間はますます深くならなければなりません!

出典: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696962

[الأبعاد] حلقة الموت للذكاء الاصطناعي

تاريخ المقال: 2025-7-20 الأحد، الساعة 9:40 صباحًا

المؤلف: وو تشاوهوي JEFFI CHAO HUI WU

أنا أنظر إلى هذا العالم كل يوم، مستخدمًا شرائح أقوى، وقدرات حسابية أكبر، ونماذج ذكاء اصطناعي أكثر تعقيدًا، لتدريب أنظمة تبدو "أذكى". لكن كلما نظرت، شعرت بشكل أوضح: أنها قد وقعت في حلقة مفرغة، بينما لا يزال معظم الناس يشجعونها، ويقومون بترقيتها، ويعظمونها.

هذه "الدائرة المفرغة" ليست خطأً تقنياً، بل هي اختلال هيكلي. كان من المفترض أن تساعد الذكاء الاصطناعي البشر في معالجة المعلومات بشكل أكثر كفاءة، لكن النتيجة أصبحت آلة تسرع من إنتاج الفقاعات. من جهة هناك أقوى قوة حسابية، ومن جهة أخرى المحتوى الذي يتم دفعه يومياً على المنصات مثل البث الزائف، والرقصات المبتذلة، والمسابقات. هذه المحتويات تستهلك كميات هائلة من التخزين والطاقة، لكنها تكاد تكون بلا قيمة معلوماتية. والأكثر رعباً هو أن الذكاء الاصطناعي بدأ يستخدم هذه المحتويات لتدريب نفسه، ثم ينتج كميات أكبر من المحتوى منخفض الجودة - تماماً كما لو كان يستخدم "أكاذيب" لتدريب الذكاء الاصطناعي على قول المزيد من "الأكاذيب". وهكذا تستمر الدورة، وفي النهاية لا يستطيع الذكاء الاصطناعي التمييز بين الحقيقي والزائف، كما أن البشر يتم اختطافهم بواسطة هذا الاتجاه ويتراجعون باستمرار.

حلقة الموت للذكاء الاصطناعي ليست في جوهرها مشكلة محتوى، بل هي مشكلة حلقة مغلقة هيكلية. المدخلات هي معلومات ذات جودة منخفضة، والمعالجة تعتمد على إعادة تشكيل إحصائية، والمخرجات تعود لتصبح بيانات تدريب جديدة. يشكل النظام بأكمله هيكلًا مغلقًا يعزز نفسه، حيث لا يتم تصفية المعلومات وتنقيتها، بل يتم تخفيفها وتضخيمها باستمرار. كلما زادت قوة الحوسبة، زادت سرعة هذه الحلقة، وفي النهاية يتشكل ما يسمى "نسخ منخفضة القيمة على نطاق واسع"، بدلاً من تعزيز الإدراك.

أنا لست أتحدث عن مخاطر المستقبل بشكل فارغ. في عام 1993، قمت ببناء نظام لوجستي دولي يعمل فعليًا باستخدام Excel، مع هيكل بسيط جدًا، حققت من خلاله جدولة دقيقة وتحديد المسؤوليات لم يكن بالإمكان تحقيقه في ذلك الوقت. لم يكن هناك بيانات ضخمة، ولم يكن هناك ذكاء اصطناعي، بل كان يعتمد على الهيكل، والمسار، والأدلة. أما الآن، فإن أنظمة الذكاء الاصطناعي تبدو معقدة من الخارج، لكن خلفها تراكم غير فعال ونقص في تحسين الهيكل. لديها القدرة على التقاط الكلمات الرئيسية، ولديها القدرة على تمييز المشاعر، لكن إذا سألتها: ما هي العلاقات السببية وراء هذا الأمر؟ أين هي بنية هذه العبارة؟ لا تستطيع أن تقول شيئًا، بل يمكنها فقط الاستمرار في "تقليد" ما قلته، وإعادة تشكيله مرارًا وتكرارًا.

في الوقت الحاضر، تطور الذكاء الاصطناعي ليس "تدريب أقوى"، بل هو "تناول المزيد". يتم إدخال كميات هائلة من الفيديوهات والمقالات في أنظمة الذكاء الاصطناعي كـ "طعام"، والعديد من هذه "الأطعمة" ليست سوى معلومات مكررة، بلا عمق، بل وحتى بلا حقائق. هذه ليست مشكلة نموذج واحد من الذكاء الاصطناعي، بل هي انحراف في النظام البيئي للذكاء الاصطناعي بأكمله: كلما استثمرنا المزيد من موارد الحوسبة، كلما قلّت القيمة التي نحصل عليها. المحتوى القيم حقًا أصبح من الصعب العثور عليه، بينما المحتوى المكرر يتدفق بلا انقطاع ويحتل المنصات.

وفي هذه العملية، فقدت البشرية تدريجياً القدرة على التفكير. بدأ المزيد والمزيد من الناس يعتمدون على الذكاء الاصطناعي في كتابة المقالات، وإعداد العروض التقديمية، وحتى اتخاذ القرارات. على السطح، يبدو أن هذا يوفر الوقت، لكن في الواقع، هو فقدان تدريجي لقدرة التعبير، وقدرة الهيكلة، وقدرة الحكم. النتيجة النهائية هي أن الشخص قد يتمكن من كتابة آلاف الكلمات باستخدام الذكاء الاصطناعي في بضع دقائق، لكنه يجد صعوبة في إكمال تحليل مقنع ومنطقي بمفرده.

أكتب، ليس من أجل الزيارات، ولا من أجل نشر الأفكار. كل مقال أكتبه هو توثيق لطريقي، وهو محتوى يمكن للآخرين مراجعته والتحقق منه والتفكير فيه. تمامًا كما لم أسعَ يومًا لتحسين محركات البحث، لكن جوجل لا تزال تستمر في أرشفة كلماتي. هذا ليس "تقديرًا" من المنصة، بل يدل على أن هذه الكلمات نفسها تحمل قيمة هيكلية.

والآن، الذكاء الاصطناعي الجديد، يقوم بإنتاج المزيد والمزيد من الفيديوهات، والمقاطع الصوتية، والحوار المزيف، والصور المجمعة، مما يستهلك مواردنا، ويشوه إدراكنا. تبدو المعلومات وكأنها تزداد، لكن ما يبقى منها فعلاً يقل بشكل متزايد. نحن نأخذ "مساحة التخزين" للحضارة، لنخزن فيديوهات القطط التي تقفز إلى المرحاض، لكننا لا نملك مساحة للاحتفاظ بالتجارب الحقيقية والأفكار المنظمة.

هذه هي الحلقة المفرغة للذكاء الاصطناعي. ليست المشكلة في أنه أخطأ، بل في أننا استخدمناه بشكل خاطئ.

الحل ليس في نفي الذكاء الاصطناعي بشكل كامل، بل يجب علينا العودة إلى القدرة على "كتابة الهيكل الحقيقي". ليس للكتابة من أجل الشهرة، بل للكتابة من أجل الفهم. ليس من أجل نسخ التعبير، بل من أجل ترك مسارات يمكن توارثها.

يمكن أن تصبح الذكاء الاصطناعي أسرع وأسرع، لكن يجب على البشر أن يصبحوا أعمق وأعمق!

المصدر: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696962

[Dimension] Der Teufelskreis der KI

Artikelzeit: 2025-7-20 Sonntag, 9:40 Uhr

Autor: Wu Chaohui JEFFI CHAO HUI WU

Ich schaue jeden Tag auf diese Welt und benutze immer leistungsstärkere Chips, immer größere Rechenleistung und immer komplexere KI-Modelle, um Systeme zu trainieren, die „intelligenter“ erscheinen. Doch je mehr ich schaue, desto klarer wird mir: Sie sind in eine Endlosschleife geraten, während die meisten Menschen weiterhin dafür applaudieren, aufrüsten und sie bewundern.

Dieser „Teufelskreis“ ist kein technischer Fehler, sondern ein strukturelles Ungleichgewicht. KI sollte ursprünglich dazu dienen, den Menschen zu helfen, Informationen effizienter zu verarbeiten, doch stattdessen hat sie sich in eine Maschine verwandelt, die die Blasenbildung beschleunigt. Auf der einen Seite steht die stärkste Rechenleistung, auf der anderen Seite die täglich auf der Plattform verbreiteten Fake-Essensübertragungen, Grenztänze und Herausforderungswettbewerbe. Diese Inhalte verbrauchen enorme Mengen an Speicher und Energie, haben jedoch kaum Informationswert. Noch beängstigender ist, dass KI beginnt, sich mit diesen Inhalten selbst zu trainieren und in der Folge größere Mengen an minderwertigen Inhalten zu generieren – als würde man KI mit „Falschheiten“ trainieren, um mehr „Falschheiten“ zu produzieren. In diesem Kreislauf kann letztlich die KI selbst nicht mehr zwischen wahr und falsch unterscheiden, und die Menschheit wird von diesem Trend gefangen genommen und degeneriert kontinuierlich.

Der Teufelskreis der KI besteht nicht im Wesentlichen aus einem Inhaltsproblem, sondern aus einem strukturellen Rückkopplungsproblem. Die Eingabe sind Informationen von geringer Qualität, die Verarbeitung basiert auf statistischer Rekombination, und die Ausgabe wird wiederum zu neuen Trainingsdaten. Das gesamte System bildet eine sich selbst verstärkende geschlossene Struktur, in der Informationen nicht gefiltert und gereinigt werden, sondern ständig verdünnt und vergrößert. Je stärker die Rechenleistung, desto schneller wird dieser Zyklus, und letztendlich entsteht eine „skalierte, wertlose Kopie“ anstelle einer kognitiven Verbesserung.

Ich rede nicht um den heißen Brei, wenn es um zukünftige Risiken geht. Bereits 1993 habe ich mit Excel ein tatsächlich funktionierendes multinationales Logistiksystem aufgebaut, das mit einer sehr einfachen Struktur eine präzise Disposition und Verantwortungsbewertung ermöglichte, die zu dieser Zeit in der Branche unerreicht war. Damals gab es weder Big Data noch KI, sondern nur Struktur, Wege und empirische Beweise. Und die heutigen KI-Systeme erscheinen auf den ersten Blick sehr komplex, doch dahinter steckt ineffiziente Ansammlung und mangelnde Strukturoptimierung. Sie sind in der Lage, Schlüsselwörter zu erfassen und Emotionen zu unterscheiden, aber wenn du sie fragst: Welche kausalen Zusammenhänge stehen hinter dieser Angelegenheit? Wo ist die logische Struktur dieses Satzes? Können sie nicht beantworten, sondern nur weiterhin das, was du gesagt hast, „nachahmen“ und immer wieder umstrukturieren.

Heutzutage besteht die Entwicklung von KI nicht darin, „stärker zu trainieren“, sondern darin, „mehr zu konsumieren“. Eine große Menge an Videos und Artikeln wird in KI-Systeme als „Nahrung“ eingespeist, wobei viele dieser „Nahrungsmittel“ lediglich wiederholte Informationen sind, ohne Tiefe und oft ohne Fakten. Dies ist kein Problem eines einzelnen KI-Modells, sondern das gesamte KI-Ökosystem gerät aus der Bahn: Je mehr Rechenressourcen wir investieren, desto weniger Wert erhalten wir. Wirklich wertvolle Inhalte sind immer schwerer zu finden, während eine große Menge an wiederholt produzierten Inhalten unaufhörlich die Plattformen dominiert.

Und die Menschheit hat in diesem Prozess allmählich die Fähigkeit zum Denken verloren. Immer mehr Menschen beginnen, sich auf KI zu verlassen, um Artikel zu schreiben, Präsentationen zu erstellen und sogar Urteile zu fällen. Oberflächlich betrachtet spart das Zeit, tatsächlich verliert man jedoch schrittweise die Fähigkeit zum Ausdruck, zur Strukturierung und zum Urteilen. Das endgültige Ergebnis ist, dass eine Person in wenigen Minuten mit KI mehrere tausend Wörter schreiben kann, aber es ihr schwerfällt, auch nur eine überzeugende und logische Analyse selbst zu erstellen.

Ich schreibe nicht, um Traffic zu generieren, noch um meine Gedanken zu veröffentlichen. Jeder Artikel, den ich schreibe, ist eine Aufzeichnung meines Weges und enthält Inhalte, die von anderen überprüft, verifiziert und durchdacht werden können. So wie ich nie aktiv SEO-Optimierung betrieben habe, aber Google dennoch weiterhin meine Texte aufnimmt. Das ist nicht, weil die Plattform mir „einen Gefallen tut“, sondern weil diese Texte selbst einen strukturellen Wert besitzen.

Die neue KI produziert immer mehr Videos, Audios, gefälschte Dialoge und zusammengeschnittene Bilder, wobei sie unsere Ressourcen verbraucht und unser Verständnis verzerrt. Informationen scheinen immer mehr zu werden, doch tatsächlich bleibt immer weniger übrig. Wir verwenden den „Speicherplatz“ der Zivilisation, um Videos von Katzen, die auf Toiletten springen, zu speichern, haben jedoch keinen Platz für echte Erfahrungen und strukturierte Gedanken.

Das ist der Teufelskreis der KI. Es ist nicht ihre Schuld, sondern unsere, dass wir sie falsch eingesetzt haben.

Die Lösung besteht nicht darin, KI vollständig abzulehnen, sondern darin, dass wir zu der Fähigkeit zurückkehren müssen, „echte Strukturen zu schreiben“. Nicht um der Popularität willen zu schreiben, sondern um des Verstehens willen. Nicht um Ausdrücke zu kopieren, sondern um Wege zu hinterlassen, die weitergegeben werden können.

KI kann immer schneller werden, aber der Mensch muss immer tiefer werden!

Quelle: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696962

[Dimensão] O ciclo vicioso da IA

Data do artigo: 20-07-2025 Domingo, 9:40 da manhã

Autor: WU ZHAOHUI JEFFI CHAO HUI WU

Eu olho para este mundo todos os dias, usando chips cada vez mais poderosos, capacidade de computação cada vez maior e modelos de IA cada vez mais complexos para treinar sistemas que parecem "mais inteligentes". Mas quanto mais eu olho, mais claramente sinto: eles já caíram em um ciclo vicioso, enquanto a maioria das pessoas ainda está torcendo por isso, atualizando e exaltando.

Esse "ciclo vicioso" não é um erro técnico, mas sim um desequilíbrio estrutural. A IA foi criada para ajudar os humanos a processar informações de forma mais eficiente, mas acabou se tornando uma máquina que acelera a fabricação de bolhas. De um lado, temos o poder computacional mais forte; do outro, conteúdos como transmissões falsas de comida, danças de borda e competições que são empurrados dia após dia nas plataformas. Esses conteúdos consomem enormes quantidades de armazenamento e energia, mas têm quase nenhum valor informativo. O mais assustador é que a IA começou a treinar a si mesma com esses conteúdos, gerando assim um volume ainda maior de conteúdo de baixa qualidade — é como se estivesse treinando a IA a dizer mais "mentiras" com "mentiras". Nesse ciclo, no final, a própria IA não consegue distinguir entre o verdadeiro e o falso, e a humanidade também é sequestrada por essa tendência, retrocedendo continuamente.

O ciclo vicioso da IA não é essencialmente um problema de conteúdo, mas sim um problema de estrutura fechada. A entrada é informação de baixa qualidade, o processamento é uma reestruturação baseada em estatísticas, e a saída, por sua vez, se torna novos dados de treinamento. Todo o sistema forma uma estrutura fechada de auto-reforço, na qual a informação não é filtrada e purificada, mas sim constantemente diluída e ampliada. Quanto mais poderosa for a capacidade de cálculo, mais rápido esse ciclo se torna, resultando em "cópias de baixo valor em escala", e não em um aprimoramento cognitivo.

Não estou apenas falando sobre os riscos futuros. Já em 1993, construí um sistema de logística multinacional em funcionamento real usando Excel, alcançando uma programação precisa e julgamento de responsabilidades que na época ninguém conseguia. Naquele tempo, não havia big data, nem IA; tudo se baseava em estrutura, caminhos e evidências. E agora, os sistemas de IA parecem muito complexos à primeira vista, mas por trás disso há uma acumulação ineficiente e falta de otimização estrutural. Eles têm a capacidade de captar palavras-chave, têm a capacidade de identificar emoções, mas se você perguntar: qual é a relação de causa e efeito por trás disso? Onde está a estrutura lógica desta frase? Eles não conseguem responder, apenas continuam a "imitar" o que você disse, reorganizando repetidamente.

Hoje, o desenvolvimento da IA não é "treinar mais forte", mas sim "consumir mais". Uma grande quantidade de vídeos e artigos é inserida nos sistemas de IA como "alimento", e muitos desses "alimentos" são apenas informações repetidas, sem profundidade, e até mesmo sem fatos. Isso não é apenas um problema de um modelo de IA, mas sim todo o ecossistema de IA está se desviando: quanto mais recursos computacionais investimos, menos valor obtemos. Conteúdos realmente valiosos estão se tornando cada vez mais difíceis de encontrar, enquanto uma grande quantidade de conteúdos repetitivos continua a dominar as plataformas.

E os humanos, nesse processo, também estão gradualmente perdendo a capacidade de pensar. Cada vez mais pessoas começam a depender da IA para escrever artigos, fazer apresentações e até tomar decisões. À primeira vista, isso economiza tempo, mas na realidade, é uma perda progressiva da capacidade de expressão, de estruturação e de julgamento. O resultado final é que uma pessoa pode, em poucos minutos, usar a IA para escrever milhares de palavras, mas tem dificuldade em elaborar uma análise convincente e lógica por conta própria.

Eu escrevo, não para gerar tráfego, nem para expressar opiniões. Cada artigo que escrevo é um registro do meu caminho, um conteúdo que pode ser revisado, verificado e refletido por outros. Assim como nunca procurei ativamente otimizar para SEO, mas o Google continua a indexar meus textos. Isso não é um "favor" da plataforma, mas sim uma indicação de que essas palavras possuem valor estrutural por si mesmas.

E agora a nova IA está criando cada vez mais vídeos, áudios, diálogos falsos e imagens montadas, consumindo nossos recursos e distorcendo nossa percepção. A informação parece estar aumentando, mas o que realmente permanece é cada vez menos. Estamos usando o "espaço de armazenamento" da civilização para guardar vídeos de gatos pulando em vasos sanitários, mas não temos espaço para deixar experiências reais e pensamentos estruturados.

Este é o ciclo vicioso da IA. Não é que ela esteja errada, mas sim que nós a usamos de forma errada.

A solução não é negar completamente a IA, mas sim que devemos voltar à capacidade de "escrever estruturas reais". Não escrever para a popularidade, mas sim para a compreensão. Não é para replicar expressões, mas para deixar um caminho que possa ser legado.

A IA pode ficar cada vez mais rápida, mas os humanos devem se aprofundar cada vez mais!

Fonte: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696962

[维度]Смертельный цикл ИИ

Статья дата: 2025-7-20 Воскресенье, 9:40 утра

Автор: У Чао Хуэй JEFFI CHAO HUI WU

Я каждый день смотрю на этот мир, используя все более мощные чипы, все большую вычислительную мощность и все более сложные модели ИИ, чтобы обучить системы, которые выглядят "умнее". Но чем больше я смотрю, тем яснее я понимаю: они уже попали в замкнутый круг, а большинство людей все еще поддерживают их, обновляют и восхваляют.

Этот «замкнутый круг» — не техническая ошибка, а структурный дисбаланс. ИИ изначально был создан для того, чтобы помогать людям более эффективно обрабатывать информацию, но в итоге превратился в машину, ускоряющую создание пузырей. С одной стороны — самая мощная вычислительная мощность, с другой — ежедневно на платформе продвигаемые фальшивые кулинарные шоу, провокационные танцы и соревнования. Эти материалы потребляют огромные объемы хранилищ и энергии, но почти не имеют информационной ценности. Более того, ИИ начинает обучаться на этих материалах, генерируя еще большие объемы низкокачественного контента — как будто обучая ИИ говорить больше «лжи» на основе «лжи». В результате этого цикла в конце концов ИИ сам не может отличить истину от лжи, а человечество оказывается в плену этой тенденции и продолжает деградировать.

Смертельный цикл ИИ по своей сути не является проблемой содержания, а представляет собой проблему замкнутой структуры. Входные данные — это низкокачественная информация, обработка основана на статистической переработке, а выходные данные снова становятся новыми тренировочными данными. Вся система формирует самоподдерживающуюся замкнутую структуру, в которой информация не фильтруется и не очищается, а постоянно разбавляется и усиливается. Чем мощнее вычислительная способность, тем быстрее этот цикл, в конечном итоге формируя «масштабированное низкоценное копирование», а не повышение когнитивных способностей.

Я не занимаюсь пустыми разговорами о будущих рисках. Еще в 1993 году я создал на Excel работающую транснациональную логистическую систему, используя очень простую архитектуру, что позволило достичь точного планирования и определения ответственности, чего в то время не могли сделать в отрасли. Тогда не было больших данных, не было ИИ, полагались только на структуру, пути и эмпирические данные. А современные ИИ-системы на первый взгляд выглядят очень сложными, но за ними скрываются неэффективные наслоения и отсутствие структурной оптимизации. Они способны выделять ключевые слова, способны определять эмоции, но если вы спросите их: каковы причинно-следственные связи этого дела? Где логическая структура этого высказывания? Они не могут ответить, могут только продолжать "имитировать" то, что вы сказали, снова и снова перестраивая.

Сегодня развитие ИИ заключается не в том, чтобы «обучить сильнее», а в том, чтобы «потреблять больше». Огромное количество видео и статей запихивается в ИИ-системы как «пища», и многие из этих «продуктов» представляют собой лишь повторяющуюся информацию, без глубины, а иногда даже без фактов. Это не проблема одной модели ИИ, а проблема всей экосистемы ИИ, которая идет по неправильному пути: чем больше вычислительных ресурсов мы вкладываем, тем меньше ценности получаем. Действительно ценный контент становится все труднее найти, в то время как огромное количество повторно создаваемого контента бесконечно заполняет платформы.

А человек в этом процессе также постепенно теряет способность к мышлению. Все больше людей начинают полагаться на ИИ для написания статей, подготовки презентаций и даже для вынесения суждений. На поверхности это экономит время, но на самом деле это приводит к постепенной утрате способности к выражению мыслей, структурированию и оценке. В конечном итоге, человек может за несколько минут с помощью ИИ написать несколько тысяч слов, но ему трудно самостоятельно составить даже одно убедительное и логичное аналитическое заключение.

Я пишу не ради трафика и не для того, чтобы высказать свои мысли. Каждая моя статья — это запись моего пути, это содержание, которое другие могут проверить, подтвердить и обдумать. Так же, как я никогда не занимался SEO-оптимизацией, но Google продолжает индексировать мои тексты. Это не значит, что платформа "делает мне одолжение", а говорит о том, что эти слова сами по себе имеют структурную ценность.

А сейчас новые ИИ создают всё больше видео, аудио, псевдодиалогов и сшитых изображений, тратя наши ресурсы и искажая наше восприятие. Информации кажется всё больше, но на самом деле остаётся всё меньше. Мы используем «место для хранения» цивилизации для хранения видео с котами, прыгающими в унитаз, но не оставляем места для реального опыта и структурированных мыслей.

Вот и мертвая петля ИИ. Это не он ошибся, а мы неправильно его использовали.

Решение не в том, чтобы полностью отрицать ИИ, а в том, что мы должны вернуться к способности «писать с истинной структурой». Не для популярности писать, а для понимания. Не для копирования выражений, а для того, чтобы оставить путь, который можно передать.

ИИ может становиться все быстрее, но человек должен становиться все глубже!

Источник: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696962

[차원]AI의 죽음의 순환

기사 시간: 2025-7-20 일요일, 오전 9:40

저자: 우조후이 JEFFI CHAO HUI WU

나는 매일 이 세상을 바라보며, 점점 더 강력한 칩, 점점 더 큰 계산 능력, 점점 더 복잡한 AI 모델을 사용하여 "더 똑똑해 보이는" 시스템을 훈련시키고 있다. 하지만 볼수록 나는 점점 더 명확하게 느낀다: 그들은 이미 악순환에 빠져 있으며, 대부분의 사람들은 여전히 그것을 응원하고, 업그레이드하고, 찬양하고 있다.

이 "죽음의 순환"은 기술적 오류가 아니라 구조적 불균형이다. AI는 본래 인간이 정보를 더 효율적으로 처리하도록 돕기 위해 만들어졌지만, 결과적으로 거품을 가속화하는 기계로 변모했다. 한쪽에는 가장 강력한 계산력이 있고, 다른 한쪽에는 플랫폼에서 매일매일 제공되는 가짜 먹방, 경계선 댄스, 챌린지 등이 있다. 이러한 콘텐츠는 막대한 저장 공간과 에너지를 소모하지만, 정보 가치는 거의 없다. 더 무서운 것은 AI가 이러한 콘텐츠로 자신을 훈련시키기 시작하고, 더 많은 저품질 콘텐츠를 생성하게 되는 것이다—마치 "거짓말"로 AI를 훈련시켜 더 많은 "거짓말"을 하게 만드는 것과 같다. 이렇게 순환되면서 결국 AI조차 진짜와 가짜를 구분하지 못하게 되고, 인간도 이러한 추세에 의해 계속 퇴화하게 된다.

AI의 죽음의 순환, 본질적으로는 내용 문제라기보다 구조 폐쇄 문제이다. 입력은 저품질 정보이고, 처리는 통계 기반의 재구성이며, 출력은 다시 새로운 훈련 데이터가 된다. 전체 시스템은 자가 강화의 폐쇄 구조를 형성하며, 이 구조에서는 정보가 선별되고 정제되는 것이 아니라 지속적으로 희석되고 확대된다. 계산력이 강할수록 이러한 순환은 더 빨라지고, 결국 형성되는 것은 "규모화된 저가치 복제"이지 인지 향상이 아니다.

나는 미래의 위험에 대해 공허한 이야기를 하고 있는 것이 아니다. 1993년, 나는 Excel을 사용하여 실제로 운영되는 다국적 물류 시스템을 구축한 적이 있다. 매우 간단한 구조로 당시 업계에서 할 수 없었던 정밀한 조정과 책임 판단을 실현했다. 그때는 빅데이터도 없었고 AI도 없었으며, 구조, 경로 및 실증에 의존했다. 그러나 지금의 AI 시스템은 겉보기에는 매우 복잡해 보이지만, 그 뒤에는 비효율적인 쌓기와 구조 최적화의 부족이 있다. 그들은 키워드를 잡는 능력이 있고 감정을 구분하는 능력이 있지만, 당신이 물어보면: 이 일의 뒤에는 어떤 인과 관계가 있는가? 이 문장의 논리 구조는 어디에 있는가? 그것은 말할 수 없고, 당신이 했던 말을 계속 "모방"하며 반복해서 재구성할 뿐이다.

현재 AI의 발전은 "더 강하게 훈련하는 것"이 아니라 "더 많이 먹는 것"이다. 대량의 비디오와 글이 AI 시스템에 "음식"으로 주입되고 있으며, 이러한 "음식"의 많은 부분은 단순히 반복 정보일 뿐, 깊이가 없고 심지어 사실조차 없다. 이는 AI 하나의 모델 문제에 그치지 않고, 전체 AI 생태계가 잘못된 방향으로 가고 있다는 것을 의미한다: 우리가 더 많은 계산 자원을 투입할수록 얻는 가치는 오히려 줄어든다. 진정으로 가치 있는 콘텐츠는 점점 찾기 어려워지고, 대량으로 반복 생산된 콘텐츠는 끊임없이 플랫폼을 차지하고 있다.

인간은 이 과정에서 점차 사고 능력을 잃어가고 있다. 점점 더 많은 사람들이 AI에 의존하여 글을 쓰고, 보고서를 만들고, 심지어 판단을 내리기 시작한다. 표면적으로는 시간을 절약하는 것처럼 보이지만, 실제로는 표현 능력, 구조화 능력, 판단 능력을 점차 잃어가고 있다. 최종 결과는 한 사람이 몇 분 안에 AI를 사용하여 수천 자를 쓸 수 있지만, 설득력 있고 논리적인 분석을 스스로 완성하기조차 어려워지는 것이다.

나는 글을 쓰는 것이 유입량을 위해서도 아니고, 감상을 발표하기 위해서도 아니다. 내가 쓴 각 글은 나의 경로를 기록한 것이며, 다른 사람들이 재검토하고 검증하며 생각할 수 있는 내용이다. 마치 내가 SEO 최적화를 적극적으로 하지 않았음에도 불구하고 Google이 여전히 내 글을 지속적으로 수집하는 것처럼. 이것은 플랫폼이 "나에게 체면을 세워주는" 것이 아니라, 이러한 글 자체가 구조적 가치를 지니고 있음을 나타낸다.

현재의 새로운 AI는 점점 더 많은 비디오, 오디오, 가짜 대화, 합성 이미지를 만들어내고 있으며, 우리가 소모하는 것은 자원이고, 왜곡되는 것은 우리의 인식입니다. 정보는 점점 더 많아 보이지만, 실제로 남는 것은 점점 더 적어지고 있습니다. 우리는 문명의 "저장 공간"을 고양이가 변기에 뛰어드는 비디오를 저장하는 데 사용하고 있지만, 진정한 경험과 구조화된 사고를 남길 공간은 없습니다.

이것이 AI의 악순환입니다. 그것이 잘못한 것이 아니라, 우리가 그것을 잘못 사용한 것입니다.

해결 방법은 AI를 전면 부정하는 것이 아니라, 우리가 “진정한 구조를 쓸 수 있는 능력”으로 돌아가야 한다는 것이다. 열기를 위해 쓰는 것이 아니라, 이해를 위해 써야 한다. 표현을 복사하기 위해서가 아니라, 전수할 수 있는 경로를 남기기 위해서이다.

AI는 점점 더 빨라질 수 있지만, 인간은 점점 더 깊어져야 한다!

출처: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696962

     

 

 

Copy Right 2008 @ times.net.au