Auteur : Scarlett Wu
Aux premières heures de la WWDC (Apple Worldwide Developers Conference) le 6 juin, c’était aussi le cinquième jour après que j’ai découvert que je souffrais du COVID-19.
Ainsi, lorsque Cook est apparu à deux heures du matin, il a agité “One More Thing”, et mes amis et moi avons applaudi ensemble de ce côté de l’écran :
Macintosh a introduit l’informatique personnelle, l’iPhone a introduit l’informatique portable et Apple Vision Pro va introduire l’informatique spatiale
L’ordinateur Macintosh a ouvert l’ère de l’ordinateur personnel, l’iPhone a ouvert l’ère de l’Internet mobile et Apple Vision Pro ouvrira l’ère de l’informatique spatiale.
En tant que passionné de technologie de pointe, j’encourage les nouveaux jouets que je pourrai posséder l’année prochaine, mais en tant qu’investisseur Web 3 axé sur les jeux, le métaverse et l’IA, c’est le signe d’une nouvelle ère qui me fait frissonner.
Vous vous demandez peut-être : « Qu’est-ce que la mise à niveau du matériel MR a à voir avec le Web 3 ? » Eh bien, commençons par la thèse de Mint Ventures sur la voie du métaverse.
La prime d’actif dans le monde de la blockchain provient de :
Les biens du monde virtuel sont plus faciles à sécuriser que les biens physiques :
Alors, quelle est la prochaine étape ? Les actifs du monde virtuel négociables seront un thème sur lequel nous sommes toujours optimistes.
Avec l’amélioration de l’expérience du monde virtuel, le temps d’immersion des gens dans le monde virtuel deviendra de plus en plus long, ce qui entraînera un changement d’attention. Le déplacement de l’attention entraînera également un déplacement de la prime de valorisation d’un fort attachement aux entités vers les actifs virtuels. La sortie d’Apple Vision Pro va complètement changer l’expérience humaine d’interaction avec le monde virtuel, entraînant ainsi une augmentation du temps d’immersion du monde virtuel et une amélioration substantielle de l’expérience d’immersion.
Source : @FEhrsam
* Remarque : Il s’agit de notre variante de définition de la stratégie de tarification. Dans la stratégie de tarification premium, la marque fixe le prix dans une fourchette de prix beaucoup plus élevée que le coût, et remplit l’histoire et l’expérience de la marque dans la différence entre le prix et le coût. En outre, la tarification au coût, la tarification concurrentielle, la relation entre l’offre et la demande, etc. sont également des facteurs qui seront pris en compte lors de la tarification des produits de base, et seuls les prix premium seront développés ici. *
L’exploration de la XR (Extended Reality, y compris VR et AR) dans la société moderne a commencé il y a plus de dix ans :
Lorsque nous regardons l’histoire de XR, nous pouvons voir que l’expansion et la culture de cette industrie vont bien au-delà des attentes de tout le monde sur le marché, qu’il s’agisse d’un géant de la technologie avec beaucoup d’argent et beaucoup de scientifiques, ou une start-up intelligente et capable qui a levé des centaines de millions de dollars et se concentre sur XR. Depuis la sortie du produit de réalité virtuelle grand public Oculus Rift en 2016, toutes les marques de réalité virtuelle, telles que Samsung’s Gear, Byte’s Pico, Valve’s Index, Sony’s Playstation VR et HTC’s Vive, ont expédié moins de 45 millions d’unités. Étant donné que les appareils VR les plus largement utilisés sont toujours des jeux, les appareils AR que les gens sont prêts à utiliser occasionnellement ne sont pas apparus avant la sortie de Vision Pro.Selon les données de SteamVR, on peut en déduire approximativement que les utilisateurs actifs mensuels d’appareils VR peut n’avoir qu’un petit million.
Pourquoi les appareils XR ne gagnent-ils pas en popularité ? L’expérience d’échec d’innombrables entreprises en démarrage et le résumé des institutions d’investissement peuvent donner des réponses :
Visuellement, les appareils VR ont un angle de vision plus large et sont plus proches des globes oculaires.Même avec les appareils les plus avancés, les pixels à l’écran sont encore difficiles à ignorer. 4K pour un œil, ou 8K pour les deux yeux, est nécessaire pour une immersion totale. De plus, le taux de rafraîchissement est également un élément essentiel pour maintenir l’expérience visuelle. On pense généralement sur le marché que pour obtenir l’effet anti-vertiges, les appareils XR ont besoin de 120 HZ ou même de 240 HZ par seconde pour maintenir une expérience similaire au monde réel. Et le taux de rafraîchissement, sous la même puissance de calcul, est un élément qui doit être équilibré avec le niveau de rendu : Fortnite prend en charge la résolution 4k à un taux de rafraîchissement de 60 HZ, mais ne supporte que la résolution 1440p à un taux de rafraîchissement de 120 HZ.
Parce que comparé à l’intuition visuelle, l’ouïe semble être sans valeur en peu de temps, et la plupart des appareils VR n’ont pas travaillé dur sur ce détail. Mais imaginez que dans un espace, peu importe qu’il s’agisse d’une personne à gauche ou à droite, la voix de la parole est transmise du haut de la tête de manière constante, ce qui réduira considérablement le sentiment d’immersion. Et lorsque l’Avatar numérique dans l’espace AR est fixé dans le salon, lorsque le joueur passe de la chambre au salon, le volume du discours de l’Avatar est le même, ce qui réduira subtilement le réalisme de l’espace.
En termes d’interaction, les appareils VR traditionnels sont équipés de poignées de commande, et par exemple, HTC Vive doit installer des caméras à la maison pour confirmer l’état des mouvements du joueur. Bien que Quest Pro ait un suivi oculaire, il a une latence élevée et une sensibilité moyenne.Il est principalement utilisé pour l’amélioration du rendu local, et l’opération interactive réelle est toujours dominée par les poignées. Dans le même temps, Oculus a également installé 4 à 12 caméras sur le casque pour confirmer l’état de la scène de l’utilisateur et obtenir un certain degré d’expérience d’interaction gestuelle (par exemple, dans le monde VR, utilisez la main gauche pour prendre un virtuel téléphone et l’index droit est vide. Cliquez sur OK pour démarrer le jeu).
En termes de poids, la qualité de l’équipement qui rend le corps humain confortable devrait se situer entre 400 et 700 g (bien que comparé à des lunettes normales d’environ 20 g, cela reste un énorme monstre). Mais pour atteindre la clarté, le taux de rafraîchissement, le niveau d’interaction, la puissance de calcul (performances, taille et quantité) mentionnés ci-dessus correspondant à ses exigences de rendu et les heures d’autonomie de base de la batterie, le poids de l’appareil XR est difficile. processus de compromis.
En résumé, si XR doit devenir un téléphone mobile de nouvelle génération et devenir une nouvelle génération de matériel de masse, un appareil avec une résolution supérieure à 8k et un taux de rafraîchissement supérieur à 120 HZ est nécessaire pour éviter les vertiges aux utilisateurs. Cet appareil doit avoir plus d’une douzaine de caméras, une autonomie de batterie de 4 heures ou plus (ne doit être retirée que pendant la pause déjeuner/dîner), pas ou peu de génération de chaleur, un poids inférieur à 500 g et un prix aussi bas que 500- 1000 dollars américains. Bien que la force technique actuelle se soit beaucoup améliorée par rapport à la dernière vague de boom XR dans les années 15-19, il est encore difficile de respecter les normes ci-dessus.
Mais même ainsi, si les utilisateurs commencent à expérimenter l’équipement MR (VR + AR) existant, ils constateront que même si l’expérience actuelle n’est pas parfaite, c’est aussi une expérience immersive que les écrans 2D ne peuvent égaler. Mais il y a encore une marge d’amélioration considérable dans cette expérience en prenant Oculus Quest 2 comme exemple, la plupart des vidéos VR qui peuvent être visionnées sont en 1440p, ce qui n’atteint même pas la limite de résolution de Quest 2 4K, et le taux de rafraîchissement est bien moins de 90p. HZ. Cependant, les jeux VR existants n’ont qu’une modélisation relativement médiocre et il n’y a pas beaucoup d’options à essayer.
Source : VRChat
Le “pas encore” de l’application Killer a des raisons historiques d’être piégé par le matériel - même si Meta fait de son mieux pour réduire les marges bénéficiaires, les casques MR d’une valeur de quelques centaines de dollars et l’écologie relativement simple sont plus riches que l’écologie existante et le la base d’utilisateurs a atteint une grande échelle La console de jeu n’est toujours pas attrayante. Le nombre d’appareils pour la réalité virtuelle se situe entre 25 et 30 millions, contre 350 millions pour les jeux AAA (PS 5, Xbox, Switch, PC). Par conséquent, la plupart des fabricants ont renoncé à prendre en charge la VR, et les quelques jeux qui prennent en charge les appareils VR “présentent également la plate-forme VR”, plutôt que “ne prennent en charge que les appareils VR”. De plus, en raison des problèmes mentionnés au premier point, tels que les pixels, les vertiges, la faible autonomie de la batterie et le poids élevé, l’expérience des appareils VR n’est pas meilleure que celle des terminaux de jeu 3A traditionnels. Quant à l’avantage “d’immersion” que les partisans de la VR tentent de souligner, en raison du manque d’inventaire d’équipements, les développeurs qui “déployent accidentellement des équipements de VR” conçoivent rarement des modes d’expérience et d’interaction spécifiquement pour la VR, ce qui rend difficile l’obtention de l’expérience idéale.
Par conséquent, la situation actuelle est que lorsque les joueurs choisissent des jeux VR plutôt que des jeux non VR, non seulement ils “choisissent un nouveau jeu”, mais aussi “abandonnent l’expérience de socialiser avec la plupart de leurs amis”, de tels scénarios de jeu sont souvent Sexualité et l’expérience immersive sont bien plus importantes que la socialité. Bien sûr, vous pouvez mentionner VR Chat, mais si vous creusez plus profondément, vous constaterez que 90% des utilisateurs ne sont pas des utilisateurs de VR, mais des joueurs qui souhaitent faire l’expérience de socialiser avec de nouveaux amis dans divers Avatars devant des écrans ordinaires. Il n’est donc pas surprenant que les jeux les plus populaires dans les logiciels VR soient des jeux audio comme Rhythm Light.
Par conséquent, nous pensons que l’émergence de la Killer App nécessite les éléments suivants :
Source : Le bord
Alors, Vision Pro peut-il résoudre les problèmes ci-dessus ? Comment cela va-t-il changer l’industrie ?
Lors de la conférence de presse du 7 juin, Apple Vision Pro a été publié.Selon le cadre des “défis MR rencontrés dans le matériel et les logiciels” que nous avons analysé ci-dessus, l’analogie suivante peut être faite :
matériel:
En termes de logiciels, Apple peut non seulement réaliser un certain degré de migration avec son écosystème de millions de développeurs, mais dispose également déjà d’une série d’aménagements écologiques avec la sortie d’AR Kit :
En 2017, Apple a publié AR Kit : un ensemble de cadres de développement de réalité virtuelle compatibles avec les appareils iOS qui permettent aux développeurs de créer des applications de réalité augmentée et de tirer parti des capacités matérielles et logicielles des appareils iOS. Le kit VR permet aux actifs numériques d’interagir avec le monde réel sous la caméra en utilisant la caméra sur l’appareil iOS pour créer une carte de la zone, en utilisant les données CoreMotion pour détecter des éléments tels que le dessus de table, le sol et la position de l’appareil dans espace physique - par exemple, votre Dans Pokemon Go, vous pouvez voir des Pokémon enterrés dans le sol et garés dans des arbres, au lieu d’être affichés à l’écran et de se déplacer avec la caméra. Les utilisateurs n’ont pas besoin de faire d’étalonnage pour cela - c’est une expérience AR transparente.
En regardant la disposition du kit AR qui a commencé il y a sept ans, on peut voir que l’accumulation de la technologie AR par Apple ne s’est pas produite du jour au lendemain, mais a subtilement intégré l’expérience AR dans des appareils qui ont été largement répandus. Une certaine quantité de contenu et d’accumulation de développeurs a été complétée. Dans le même temps, en raison de la compatibilité du développement du kit AR, les produits développés ne s’adressent pas seulement aux utilisateurs de Vision Pro, mais s’adaptent également dans une certaine mesure aux utilisateurs d’iPhone et d’iPad. Les développeurs n’ont peut-être pas besoin d’être limités par le plafond de 3 millions d’utilisateurs actifs mensuels pour développer des produits, mais potentiellement de tester et d’expérimenter avec des centaines de millions d’utilisateurs d’iPhone et d’iPad.
De plus, la capture vidéo 3D de Vision Pro résout également en partie le problème du contenu MR limité aujourd’hui : la production de contenu. La plupart des vidéos VR existantes sont en 1440p, ce qui semble avoir des pixels médiocres dans l’expérience d’écran circulaire des visiocasques MR. Cependant, la prise de vue de Vision Pro offre à la fois une vidéo spatiale à pixels élevés et une bonne expérience audio spatiale, ce qui peut grandement améliorer l’expérience MR Expérience de consommation de contenu.
Bien que la configuration ci-dessus soit assez choquante, l’imagination d’Apple MR ne s’arrête pas là : le jour de la sortie d’Apple MR, @sterlingcrispin, un développeur qui prétendait avoir participé aux neurosciences d’Apple, a déclaré :
De manière générale, une grande partie du travail que j’ai effectué consistait à détecter l’état mental des utilisateurs à partir de données provenant de leur corps et de leur cerveau lorsqu’ils étaient dans des expériences immersives.
En général, une grande partie de mon travail consiste à détecter l’état mental des utilisateurs à travers leurs données physiques et cérébrales dans des expériences immersives.
Ainsi, un utilisateur est dans une expérience de réalité mixte ou de réalité virtuelle, et les modèles d’IA tentent de prédire si vous vous sentez curieux, errant dans votre esprit, effrayé, attentif, vous souvenant d’une expérience passée ou d’un autre état cognitif. Et ceux-ci peuvent être déduits par des mesures telles que le suivi des yeux, l’activité électrique dans le cerveau, les battements et rythmes cardiaques, l’activité musculaire, la densité sanguine dans le cerveau, la pression artérielle, la conductance cutanée, etc.
L’utilisateur est dans une expérience de réalité mixte ou de réalité virtuelle, et le modèle d’IA tente de prédire s’il est curieux, distrait, craintif, concentré, se souvenant d’expériences passées ou d’autres états cognitifs. Ces états peuvent être mesurés par le suivi des yeux, l’activité électrique cérébrale, les battements et le rythme cardiaques, l’activité musculaire, la densité sanguine du cerveau, la pression artérielle, la conductance cutanée, etc.
Il y avait beaucoup d’astuces impliquées pour rendre possibles des prédictions spécifiques, dont la poignée de brevets sur lesquels je suis nommé détaillent. L’un des résultats les plus intéressants consistait à prédire qu’un utilisateur allait cliquer sur quelque chose avant qu’il ne le fasse réellement. C’était une tonne de travail et quelque chose dont je suis fier. Votre élève réagit avant que vous ne cliquiez en partie parce que vous vous attendez à ce que quelque chose se produise après avoir cliqué. Ainsi, vous pouvez créer un biofeedback avec le cerveau d’un utilisateur en surveillant son comportement oculaire et en repensant l’interface utilisateur en temps réel pour créer davantage de cette réponse anticipative de la pupille. C’est une interface cerveau-ordinateur grossière via les yeux, mais très cool. Et je remplacerais ça par une chirurgie cérébrale invasive n’importe quand.
Pour réaliser une prédiction particulière, nous utilisons un certain nombre d’astuces qui sont détaillées dans plusieurs brevets à mon nom. L’un des résultats les plus intéressants est de prédire quand un utilisateur cliquera sur un objet avant qu’il ne clique réellement. C’est un travail difficile et j’en suis fier. Vos élèves réagissent avant que vous ne cliquiez, en partie parce que vous vous attendez à ce que quelque chose se produise après avoir cliqué. Par conséquent, en surveillant le comportement des mouvements oculaires de l’utilisateur et en repensant l’interface utilisateur en temps réel, un biofeedback avec le cerveau de l’utilisateur peut être effectué pour créer des réponses pupillaires plus anticipées. C’est une interface cerveau-ordinateur grossière à travers les yeux, et c’est plutôt cool. Je préférerais cela à la chirurgie cérébrale invasive.
D’autres astuces pour déduire l’état cognitif impliquaient de faire clignoter rapidement des visuels ou des sons à un utilisateur d’une manière qu’il ne percevrait peut-être pas, puis de mesurer sa réaction.
D’autres techniques pour déduire l’état cognitif incluent le clignotement rapide d’une vue ou d’un son d’une manière dont l’utilisateur peut ne pas être conscient et la mesure de sa réponse.
Un autre brevet détaille l’utilisation de l’apprentissage automatique et des signaux du corps et du cerveau pour prédire à quel point vous êtes concentré ou détendu, ou à quel point vous apprenez. Et puis mettre à jour les environnements virtuels pour améliorer ces états. Alors, imaginez un environnement immersif adaptatif qui vous aide à apprendre, à travailler ou à vous détendre en modifiant ce que vous voyez et entendez en arrière-plan.
Un autre brevet détaille l’utilisation de l’apprentissage automatique et des signaux du corps et du cerveau pour prédire à quel point vous êtes concentré, détendu ou apprenant, et mettre à jour l’environnement virtuel en fonction de ces états. Imaginez donc un environnement immersif adaptatif qui vous aide à étudier, travailler ou vous détendre en modifiant ce que vous voyez et entendez en arrière-plan.
Ces technologies, très pertinentes pour les neurosciences, pourraient marquer une nouvelle façon de synchroniser les machines et la volonté humaine.
Bien sûr, Vision Pro n’est pas sans défauts, par exemple, son prix exorbitant de 3499 $ est plus du double de celui de Meta Quest Pro et plus de sept fois celui d’Oculus Quest 2. À cet égard, le PDG de Runway, Siqi Chen, a déclaré :
il peut être utile de se rappeler qu’en dollars corrigés de l’inflation, le prix de l’apple vision pro est inférieur à la moitié du macintosh original de 1984 au lancement (plus de 7 000 $ en dollars d’aujourd’hui)
Comme vous vous en souvenez peut-être, l’Apple Vision Pro coûtait moins de la moitié de ce qu’était le Macintosh lors de son lancement en 1984 (l’équivalent de plus de 7 000 $ aujourd’hui) en dollars américains corrigés de l’inflation.
Dans cette analogie, le prix d’Apple Vision Pro ne semble pas trop exorbitant… Pourtant, le volume des ventes de la première génération de Macintosh n’était que de 372 000. Difficile d’imaginer qu’Apple, qui a beaucoup travaillé sur le MR, puisse accepter une situation embarrassante similaire— "La réalité dans quelques années ne changera peut-être pas beaucoup. La réalité augmentée n’a pas nécessairement besoin de lunettes, et il est difficile de populariser Vision Pro en grand nombre à court terme. Il est susceptible d’être utilisé uniquement comme un outil pour les développeurs à expérimenter et à tester, un outil de production pour les créateurs et les amateurs de jouets coûteux.
Source : Google Tendance
Néanmoins, nous pouvons voir que l’équipement MR d’Apple a commencé à remuer le marché, déplaçant l’attrait des utilisateurs ordinaires pour les produits numériques vers MR, et faisant comprendre au public que MR est plus mature et n’est plus un ppt/produits vidéo de présentation. Laissez les utilisateurs se rendre compte qu’en plus des tablettes, des téléviseurs et des téléphones portables, il existe une option pour porter des écrans immersifs ; laissez les développeurs se rendre compte que la RM peut vraiment devenir une nouvelle tendance dans le matériel de nouvelle génération ; laissez les VC se rendre compte que cela peut C’est un domaine d’investissement avec une très belle hauteur sous plafond.
Introduction au RNDR
Au cours des six derniers mois, RNDR a été un mème combinant les trois concepts de Metaverse, AI et MR, et a dominé le marché à plusieurs reprises.
Le projet derrière RNDR est Render Network, un protocole de rendu distribué utilisant un réseau décentralisé. OTOY.Inc, la société derrière Render Network, a été fondée en 2009 et son logiciel de rendu, OctaneRender, est optimisé pour le rendu GPU. Pour les créateurs ordinaires, le rendu local occupe beaucoup de machines, ce qui crée une demande de rendu dans le cloud, mais si vous louez des serveurs auprès d’AWS, d’Azure et d’autres fournisseurs pour le rendu, le coût peut également être plus élevé. C’est ainsi que The Render Network est né. Le rendu n’est pas limité aux conditions matérielles. Il connecte les créateurs et les utilisateurs ordinaires avec des GPU inactifs, permettant aux créateurs de rendre à moindre coût, rapidement et efficacement, et les utilisateurs de nœuds peuvent utiliser des GPU inactifs pour gagner de l’argent de poche.
Pour Render Network, les participants ont deux identités :
La tokenomics de RNDR a également été modifiée en février de cette année, ce qui est l’une des raisons de son augmentation de prix (mais jusqu’à la publication de l’article, Render Network n’a pas appliqué la nouvelle tokenomics au réseau et n’a pas encore donné le lancement spécifique temps):
Auparavant, dans le réseau, le pouvoir d’achat du $RNDR était le même que celui du Crédit, et 1 crédit = 1 euro. Lorsque le prix du $RNDR est inférieur à 1 euro, il est plus rentable d’acheter du $RNDR que d’acheter du Crédit en monnaie fiduciaire, mais lorsque le prix du $RNDR monte à plus de 1 euro, car tout le monde a tendance à acheter avec monnaie fiduciaire, $RNDR perdra son cas d’utilisation Condition. (Bien que les revenus de l’accord puissent être utilisés pour racheter des $RNDR, les autres acteurs du marché n’ont aucune incitation à acheter des $RNDR.)
Le modèle économique modifié adopte le modèle « BME » (Burn-Mint-Emission) d’Helium. Lorsque les créateurs achètent des services de rendu, qu’ils utilisent la monnaie fiduciaire ou $RNDR, ils détruiront $RNDR équivalent à 95 % de la valeur de la monnaie fiduciaire, et les 5 % de revenus restants qui sont versés à la Fondation pour être utilisés comme moteur. Lorsque le nœud fournit des services, il ne reçoit plus directement les revenus du créateur provenant de l’achat de services de rendu, mais reçoit de nouvelles récompenses symboliques. Les récompenses ne sont pas seulement basées sur les indicateurs d’achèvement des tâches, mais incluent également d’autres facteurs complets tels que la satisfaction du client.
Il convient de noter que pour chaque nouvelle époque (période spécifique, la durée spécifique n’a pas été spécifiée), un nouveau $RNDR sera frappé, et la quantité de frappe est strictement limitée et diminuera avec le temps, quel que soit le nombre de jetons brûlé (détails voir le document de version pour le livre blanc officiel). Par conséquent, cela apportera des changements dans la distribution des avantages aux parties prenantes suivantes :
Source:
Par rapport au modèle de rachat de revenus (irrégulier) précédent, dans le cadre du nouveau modèle, lorsque la demande de tâches de rendu est insuffisante, les mineurs peuvent obtenir plus de revenus qu’auparavant et le prix total de la tâche correspondant à la demande de tâches de rendu est supérieur au prix libéré. $ RNDR Lorsque le montant total des récompenses est augmenté, les mineurs recevront moins de revenus que le modèle d’origine (jetons brûlés> jetons nouvellement créés), et les jetons $ RNDR entreront également dans un état déflationniste.
Bien que le $RNDR ait connu une hausse gratifiante au cours des six derniers mois, la situation commerciale de Render Network n’a pas augmenté de manière significative comme le prix de la devise : le nombre de nœuds n’a pas fluctué de manière significative au cours des deux dernières années, et le $RNDR mensuel alloué à nœuds n’a pas augmenté de manière significative, mais le rendu Le nombre de tâches a en effet augmenté - on peut voir que les tâches assignées par les créateurs au réseau sont progressivement passées d’une seule grande quantité à plusieurs petites quantités).
Bien qu’il ne puisse pas rattraper la multiplication par cinq des prix des devises en un an, le GMV de Render Network a en effet inauguré une croissance relativement importante.En 2022, le GMV (Gross Merchandise Value, valeur totale des transactions) augmentera de 70 %. par rapport à l’année dernière. Selon le montant total de $RNDR alloué aux nœuds sur le Dune Kanban, le GMV au premier semestre 2023 est d’environ 1,19 M$, ce qui n’est fondamentalement pas d’augmentation par rapport à la même période en 2022. Un tel GMV n’est évidemment pas suffisant pour le mCap de 700 millions de dollars.
Source : Impact potentiel du lancement du RNDR
Introduction de l’impact de Vision Pro sur le RNDR
Dans un article Medium publié le 10 juin, Render Network affirme que les capacités de rendu d’Octane pour les M 1 et M 2 sont uniques - puisque le Vision Pro utilise également la puce M 2, le rendu dans le Vision Pro ne sera pas le même qu’un puce normale M 2. Le rendu du bureau est différent.
Mais la question est : pourquoi publier des tâches de rendu sur un appareil avec une autonomie de 2 heures qui est principalement utilisé pour l’expérience et le jeu, pas un outil de productivité ? Si le prix de Vision Pro est abaissé, la durée de vie de la batterie est grandement améliorée, le poids est réduit et l’adoption massive est vraiment réalisée, il est peut-être temps pour Octane de jouer un rôle…
Il peut être confirmé que la migration des actifs numériques des appareils plats vers les appareils MR entraînera en effet une augmentation de la demande d’infrastructure. Annonçant la coopération avec Apple pour étudier comment créer un moteur de jeu Unity plus adapté à Vision Pro, le cours de l’action a augmenté de 17% sur la journée, ce qui montre également le sentiment optimiste du marché. Avec la coopération entre Disney et Apple, la transformation 3D du contenu cinématographique et télévisuel traditionnel pourrait inaugurer une croissance de la demande similaire. Render Network, spécialisé dans le rendu cinématographique et télévisuel, a lancé NeRFs, une technologie de rendu 3D combinée à l’IA, en février de cette année, utilisant l’intelligence artificielle et le rendu 3D pour créer des actifs 3D immersifs en temps réel pouvant être visualisés sur des appareils MR - dans le kit Apple AR Avec prise en charge, n’importe qui peut effectuer Photoscan sur des objets avec une configuration plus élevée pour générer des actifs 3D, tandis que la technologie NeRF utilise le rendu ajouté par l’IA pour rendre le simple Photoscan 3D sous différents angles qui peuvent réfracter différents actifs 3D immersifs de lumière - ceci type de rendu spatial sera un outil important pour la production de contenu de dispositif MR, fournissant une demande potentielle pour Render Network.
Mais ce besoin sera-t-il satisfait par le RNDR ? Au regard de son GMV de 2 millions de dollars américains en 2022, c’est une goutte d’eau par rapport au coût de l’industrie cinématographique et télévisuelle. Pour résumer, RNDR peut bien sûr continuer à utiliser le mème de la piste “métaverse, XR, AI” pour créer un autre prix brillant lorsque la piste est chaude, mais il est toujours difficile de générer des revenus qui correspondent à la valorisation.
Bien que je pense que les changements fondamentaux substantiels sont limités - mais les sujets liés à la MR semblent être indissociables de ces grands projets de métaverse, Monkey’s Otherside, Animoca’s The Sandbox, la plus ancienne blockchain Metaverse Decentraland, et Highstreet qui veut être Shopify dans le monde VR. (Reportez-vous à la section 4. Analyse commerciale - Analyse et potentiel de l’industrie pour une analyse détaillée de la piste métaverse)
Cependant, comme analysé ci-dessus dans “Killer App n’est pas encore apparu”, la plupart des développeurs existants prenant en charge la VR ne “supportent que la VR” (même s’ils ne supportent que la VR et sont les leaders de l’industrie, de l’ordre d’un million le segment de marché MAU, ce n’est pas un niveau compétitif pour atteindre le niveau supérieur), et les produits existants n’ont pas été soigneusement adaptés aux habitudes des utilisateurs et aux interactions de fonctionnement de MR. Les projets qui n’ont pas encore été lancés sont en fait sur la ligne de départ non loin de tous les autres grands fabricants et start-up qui voient le potentiel de Vision Pro : après qu’Unity et Vision Pro aient fait une meilleure combinaison, le développement de jeux écologiques MR Le coût de l’apprentissage devrait être réduit et l’expérience accumulée dans un marché relativement étroit dans le passé est difficile à réutiliser dans un produit qui est sur le point d’être adopté massivement.
Bien sûr, si nous voulons parler des avantages du premier arrivé, les projets qui ont déjà déployé la réalité virtuelle peuvent bien sûr avoir de faibles avantages en termes de progrès de développement, de technologie et d’accumulation de talents.
Si vous n’avez pas regardé la vidéo suivante, alors ce sera votre sentiment le plus intuitif sur le monde MR : pratique et immersif, mais chaotique et désordonné. Le virtuel et le réel se confondent si bien que les personnes gâtées par la réalité virtuelle voient « perdre leur identité sur l’appareil » comme apocalyptique. Les détails de la vidéo semblent encore un peu sci-fi et incompréhensibles pour nous maintenant, mais c’est probablement l’avenir auquel nous sommes sur le point de faire face dans quelques années.
Cela me rappelle une autre vidéo.En 2011, c’est-à-dire il y a 12 ans, Microsoft lançait Windows Phone 7 (en tant que Gen Z avec peu de mémoire de cette époque, il est difficile de penser que Microsoft a également beaucoup travaillé sur les téléphones mobiles), et a fait une publicité satirique sur les smartphones « Vraiment ? les téléphones fermement Lors du banquet, je suis tombé dans les escaliers parce que j’ai regardé le téléphone portable, et j’ai même laissé tomber le téléphone portable dans l’urinoir à cause de la distraction… L’intention initiale de Microsoft était de montrer aux utilisateurs que “le téléphone portable publié par Microsoft sauvera nous de l’addiction au téléphone portable” - bien sûr, c’était une tentative ratée, et le nom de cette publicité “Vraiment ?” pourrait même être changé en “Réalité”. Le “sentiment de présence” et la conception d’interaction intuitive des smartphones sont plus addictifs que la “version mobile anti-humaine de l’ordinateur Windows”, tout comme la réalité de la combinaison du virtuel et du réel est plus addictive que la pure réalité.
Comment appréhender un tel avenir ? Nous avons plusieurs directions que nous explorons :
Bien sûr, il y a une forte probabilité que les entrepreneurs dans ce domaine aient une compréhension, une réflexion et une exploration plus créatives que nous - bienvenue DM @0 x scarlettw pour communiquer et explorer la possibilité de l’ère de l’informatique spatiale.
Merci à @fanyayun, partenaire chez Mint Ventures, et @xixiaopengmint, partenaire de recherche, pour leurs conseils, révision et relecture lors de la rédaction de cet article. Le cadre d’analyse XR provient de la série d’articles de @ ballmatthew, des cours Apple WWDC et développeurs, et de l’expérience de l’auteur avec divers appareils XR sur le marché.